Der Blätterkatalog benötigt Javascript.
Bitte aktivieren Sie Javascript in Ihren Browser-Einstellungen.
The Blätterkatalog requires Javascript.
Please activate Javascript in your browser settings.
7 Trend-Guide Industriecomputer Embedded-Systeme 2025 www markttechnik de ADVANTECH Europe B V Industriestr 15 82110 Germering Tel 00800-2426-8081 gebührenfrei Fax +49 0 89 125 991 220 E-Mail embedded@advantech eu www advantech eu Gründungsjahr 1983 Mitarbeiter 8800 Über Advantech Mit mehr als 8800 Mitarbeitern weltweit und einer mehr als 40-jährigen Erfolgsgeschichte ist Advantech ein globaler Marktführer auf dem Embedded-Computing-Markt Das Spektrum umfasst innovative Edge-Computing-Plattformen von eingebetteten Boards und intelligenten Systemen bis hin zu industriellen Peripheriegeräten sowie Anwendungsfokussierte autonome Systeme und Robotik-Lösungen Advantech arbeitet zusammen mit Ökosystempartnern um offene KI-Plattformen zu schaffen die Edge-Computingund Edge-KI-Anwendungen beschleunigen und somit den steigenden Bedarf an industriellem Edge-KI-Computing nachzukommen Advantech bietet umfassende Systemintegration von Embedded Hardund Software sowie kundenorientierte Design-In-Dienstleistungen für z B Industrie-4 0-Anwendungen EV-Charging und Green Energy Medizingeräte Digital-Signage oder Gaming-Plattformen Die kontinuierliche Weiterentwicklung des Edge AI SDK und der IEC62443 IoT-Sicherheitssoftware sowie des Azure-OpenAI-Cloud-Dienstes unterstützen diese Implementierungen Ein weiterer Schwerpunkt sind die Advantech Design Manufacturing Services DMS vor Ort einschließlich der vielfältigen Möglichkeiten zur maß geschneiderten Anpassung von Standardprodukten oder der kompletten Neuentwicklung von Boards oder Systemen nach Kundenspezifikation https www advantech com eneu Anzeige ten Eine zweite Phase das Feintuning ist ebenso wichtig Dabei werden gelabelte Daten verwendet um das vortrainierte Modell für eine bestimmte Aufgabe zu optimieren Bei einem Modell wie Whisper von OpenAI ist diese Aufgabe die Umwandlung natürlicher Sprache in Text Das Open-Source-Modell von Whisper wurde mit mehr als einer halben Million Stunden mehrsprachiger Sprachaufzeichnungen und einem Korpus trainiert der viele verschiedene Arten von Aufgaben abdeckt Es ist robust gegenüber Störgeräuschen und Akzenten und kann mit vielen Fällen von Fachsprache umgehen Seine geringe Größe gepaart mit zusätzlichen Leistungsund Speicheroptimierungen ermöglicht die Ausführung von Whisper in Embedded-Systemen Für die Sprachzu-Sprach-Anwendung nutzte das Entwickler-Team von Tria quantisierte Verarbeitung um den Verarbeitungsaufwand des Modells zu reduzieren Entwickler trainieren und implementieren Cloud-KI-Modelle meist mit Fließkommaarithmetik Prozessoren wie der i MX 95 unterstützen jedoch parallelisierte Arithmetik-Pipelines die mit kurzen Ganzzahlen arbeiten Durch die Umwandlung von Gleitkomma-Parametern in 8-Bit-Ganzzahlen lassen sich erhebliche Geschwindigkeitssteigerungen und Einsparungen beim Gesamtspeicherverbrauch und bei der Bandbreite erzielen was auch den Energieverbrauch senkt Durch die Quantisierung auf int8 ließ sich die Verarbeitungszeit von 10 auf 1 2 s reduzieren Um den in Roboteranwendungen erwarteten kurzen Befehlen gerecht zu werden reduzierte das Team auch die Länge des Audiokontexts von 30 s auf weniger als 2 s Die Bedeutung des von Whisper erzeugten Textes zu bestimmen ist eine komplexere Aufgabe und erfordert ein größeres auf die Anwendung abgestimmtes Modell LLMs die Text so gut verstehen dass sie ihn in Befehle für einen Roboter umwandeln können benötigen oft 1 Mrd oder mehr Parameter für neuronale Netze Ihre Größe lässt sich jedoch durch sorgfältige Feinabstimmung reduzieren Für dieses Sprachzu-Sprach-Projekt evaluierte Tria die Open-Source-Modelle Qwen und Llama3 beginnend mit ihren Versionen mit 1 Mrd Parametern Ein wichtiger Kompromiss ist die Anzahl der Tokens die ein solches Modell pro Sekunde generieren kann So arbeitet die Version von Qwen mit 500 Mio Parametern auf einer Plattform wie i MX mehr als doppelt so schnell wie die Version mit 1 Mrd Parametern Ein Modell mit 500 Mio Parametern kann mit einer gezielten Feinabstimmung eine angemessene Funktionalität bieten Dieser Prozess kann das Modell für die Arten von Befehlsund Antwortpaaren optimieren die ein mobiler Roboter voraussichtlich verarbeiten muss Entwickler können ein serverbasiertes LLM verwenden um einen Großteil der gelabelten Daten synthetisch zu generieren Dies spart im Vergleich zur manuellen Generierung und Beschriftung erheblich Zeit Um die Integration in dem Yoctobasierten Zielsystem zu vereinfachen entschied sich das Entwickler-Team von Tria für eine Architektur die auf einer Zustandsmaschine mit einem MQTT-Broker beruht Diese dient zur Übertragung von Nachrichten zwischen den verschiedenen Modellen und anderen Komponenten des Systems etwa dem Kameraeingang und einem mithilfe der On-Chip-GPU implementierten 3D-Avatar Um einen zuverlässigen Betrieb zu gewährleisten prüft ein im Prozessor laufender Watchdog-Thread ob die Aufnahme Spracheingabe innerhalb einer festgelegten Zeit abgeschlossen ist und generiert andernfalls die Frage »Können Sie das wiederholen?« Die nächste Welle generativer KI Generative KI für die Sprachsynthese ist erst der Anfang In Forschungsprojekten werden derzeit fortschrittlichere multimodale Sprachmodelle eingesetzt um Roboter zu trainieren die sich besser bewegen und Objekte manipulieren können F E-Teams nutzen derzeit Reinforcement-Learning in Verbindung mit multimodalen Modellen um die Einschränkungen herkömmlicher modellprädiktiver Regelalgorithmen zu überwinden Weitere Modelle die auf logischem Denken beruhen ermöglichen Robotern ohne Karten zu navigieren autonome Entscheidungen zu treffen und aus bestehenden untergeordneten Richtlinien schlüssige Strategien zur Aufgabenerledigung zu entwickeln Eine weitere Optimierung dieser Modelle ermöglicht deren Ausführung auf zukünftigen stromsparenden Plattformen Roboterentwickler haben inzwischen Zugriff auf Methoden die es ermöglichen Robotern durch Sprachbefehle Anweisungen zu geben und aufzuzeigen dass die Roboter die Aufgabe verstanden haben ak ■