Der Blätterkatalog benötigt Javascript.
Bitte aktivieren Sie Javascript in Ihren Browser-Einstellungen.
The Blätterkatalog requires Javascript.
Please activate Javascript in your browser settings.
10 2021 Elektronik 33 EMBEDDED Technology Knoten Endpunkten und »intelligenten« Geräten Daten im gesamten Netzwerk schneller zu verarbeiten Edge Computing ist fast das genaue Gegenteil von Cloud Computing Beim Cloud Computing fließen Daten von verteilten Netzwerken ein um anschließend in zentralen Rechenzentren verarbeitet zu werden Hierbei werden die Ergebnisse oft zurück an das ursprünglich verteilte Netzwerk übermittelt wo es einen Vorgang auslöst oder eine Änderung bewirkt Ein Übertragen großer Datenmengen über große Strecken ist jedoch mit Kosten verbunden Die Kosten können finanzieller Natur sein jedoch ebenso andere Größen wie Energie oder Zeit binden Hier kommt Edge Computing ins Spiel Müssen Anwender auf Energie Bandbreite und Latenzzeit achten kann Edge Computing die Antwort sein Anders als beim zentralen Cloud Computing bei dem Daten hunderte Kilometer zurücklegen können ermöglicht Edge Computing ein Verarbeiten der Daten am selben Standort an dem Rechner die Daten erfassen erstellen oder speichern Hiermit ist die Verarbeitungslatenz nahezu vernachlässigbar klein Ebenso reduziert sich der Bedarf an Strom und Bandbreite in der Regel stark Eine der wichtigsten Prämissen für Edge Computing ist wie Halbleiterhersteller die Verarbeitungskapazität ohne großen Anstieg der Leistungsaufnahme erhöhen Demnach müssen die ausgewählten Edge-Prozessoren mehr aus den erfassten Daten herausholen ohne eine höhere Leistung zu benötigen Hiermit können mehr Daten am Edge verbleiben Ein Schritt der nicht bloß die Gesamtleistung des Systems senkt sondern ebenso die Reaktionszeiten erhöht und den Datenschutz verbessert Einige der Technologien die hiervon profitieren sind künstliche Intelligenz KI und maschinelles Lernen ML beide sind allerdings von Kosten für das Erfassen der Daten und ausreichendem Datenschutz abhängig Anwender können sowohl Kosten als auch Datenschutz mithilfe von Edge-Processing optimieren Was Trends wie KI und ML betrifft so erfordern beide Technologien sehr große Ressourcen Weit mehr als normalerweise an einem Endoder einem smarten Gerät verfügbar sind Dank des Fortschritts sowohl auf Hardwareals auch auf Softwareebene ist es möglich KI und ML in kleine und effiziente Edge-Geräte einzubetten Die richtige Plattform für Edge-KI-Anwendungen Die Auswahl einer Plattform die in der Lage ist Edge-Processing durchzuführen zum Beispiel das Ausführen von KI-Algorithmen oder ML-Inferenzmaschinen erfordert eine sorgfältige Einschätzung Einfache Sensoren und Aktoren einschließlich solcher die Teil des IoT sind sind mit relativ schlichten integrierten Geräten realisierbar Ein Erhöhen der am Edge ausgeführten Verarbeitungsmenge erfordert eine leistungsfähige Plattform vermutlich unter Verwenden paralleler Architekturen Oft bedeutet das eine Graphics Processing Unit GPU Ist die Plattform jedoch zu leistungsfähig belastet sie die begrenzten Ressourcen die am Edge vorhanden sind Außerdem sollten sich Anwender daran erinnern dass ein Edge-Gerät im Grunde eine Schnittstelle zur realen Welt ist Deshalb muss es womöglich einige Schnittstellen unterstützen wie Ethernet GPIO CAN seriell und oder USB Das schließt ebenso Peripheriegeräte ein wie Kameras Tastaturen oder Displays Edge-Computing kann zudem eine ganz andere Umgebung beschreiben als ein komfortables klimatisiertes Rechenzentrum Ein Edge-Gerät könnte bei extremen Temperaturen Feuchtigkeit Vibrationen oder sogar in Höhenlagen zum Einsatz kommen Das hat Auswirkungen auf das gewählte Design sowie auf die Art der Verpackung oder das Gehäuse Ein weiterer wichtiger zu berücksichtigender Aspekt sind die regulatorischen Anforderungen Jedes Gerät das Hochfrequenz HF zur Kommunikation verwendet unterliegt Vorschriften und benötigt möglicherweise eine Lizenz für den Betrieb Einige Plattformen erfüllen die Anforderungen und sind damit direkt gebrauchsfertig Bei anderen müssen Entwickler mehr Aufwand betreiben Befindet sich das Gerät einmal in Betrieb ist ein nachträgliches HardwareUpgrade umständlich Also müssen Entwickler Rechenleistung Arbeitsspeicher und Speicher während des Entwicklungszyklus sorgfältig bestimmen um Spielraum für künftige Leistungssteigerungen zu schaffen Das beinhaltet ebenfalls Software-Upgrades Im Gegensatz zur Hardware ist Edge AI Deep Learning Acceleration Platform »DLAP-3100-L45« von ADLink Technology Bild ADLink Edge KI kann zum Beispiel im Bereich Self-Checkout in der Gastronomie zum Einsatz kommen Bild ADLink