Der Blätterkatalog benötigt Javascript.
Bitte aktivieren Sie Javascript in Ihren Browser-Einstellungen.
The Blätterkatalog requires Javascript.
Please activate Javascript in your browser settings.
6 Mittwoch 12 3 2025 Messe-News schichtigen Hardund Software-Ansatz um das KI-Inferenzieren im Edge auf Energieeffizienz zu trimmen Dazu zählen natürlich Energiesparmodi wie Deep Sleep Standby oder auch softwaregesteuertes Power-Gating und spezialisierte Recheneinheiten »Durch die Integration von Hardware-Beschleunigern wie dem Renesas DRP-AI wird die Haupt-CPU entlastet« führt Dogar aus Renesas nutzt natürlich auch DVFS Als weitere Möglichkeit verweist Dogar noch auf die eigentlichen Modelle Fallen sie kleiner aus ist auch der Energieverbrauch geringer So unterstützt die Edge-AI-Entwicklungsumgebung »Reality AI Tools« die Erzeugung von TinyML-Modellen oder Sparse-Modellen aber auch Techniken wie Quantisierung oder Pruning machen die Modelle kleiner »sodass ein effizientes KI-Inferenzieren auf Mikrocontrollern mit beschränkten Ressourcen möglich ist« erklärt Dogar abschließend Silicon Labs Halle 4A Stand 128+129 Silicon Labs hat ebenfalls seinen eigenen KI-Beschleuniger den MVP Matrix-Vektor-Prozessor Tamas Daranyi Product Manager IoT AI ML bei Silicon Labs erklärt dass der MVP die Applikations-CPU entlastet und sie dadurch in den EM1-Modus Ruhezustand wechseln oder andere Aufgaben ausführen kann während der ML-Algorithmus verarbeitet wird »Dies erhöht sowohl die Leistung als auch die Energieeffizienz« so Daranyi Der MVP führt Vektorund Matrixoperationen aus die den Kern vieler ML-Algorithmen bilden Er ist eng mit der Applikations-CPU gekoppelt kann aber dank einer DMA autonom arbeiten Daranyi »Er ist sehr effizient und führt mehrere Operationen pro Zyklus aus um eine nahezu ideale Auslastung der Hardware zu erreichen « Daranyi betont dass ML im Edge eine sichere und robuste Datenverarbeitung mit Echtzeit-Reaktionsfähigkeit als kritischer Bestandteil moderner IoT-Systeme ermögliche MCUs von Silicon Labs mit MVP ermöglichen Inferenz im Edge mit geringerem Energieverbrauch und niedrigeren Kosten Daranyi »Sie können die ML-Inferenzierung bis zu achtmal schneller durchführen und das bei einem Sechstel des Energiebedarfs und gleichzeitig die Komplexität ihres Designs und die Stückliste reduzieren « STMicroelectronics Halle 4A Stand 148 Laut Edwin Hilkens Product Marketing Manager bei STMicroelectronics wurde der STM32N6 entwickelt um die wachsende Nachfrage nach stromsparenden Anwendungen in verschiedenen Branchen zu decken Auch er unterstützt mehrere Stromsparmodi Sleep Stop Standby und die DVFS-Technik Hilkens »Der in den Baustein integrierte Neural-ART-Beschleuniger und verschiedene Multimedia-Beschleuniger steigern die Gesamtenergieeffizienz des Endsystems erheblich « Zu den wichtigsten Merkmalen gehören seiner Aussage nach Timer mit niedrigem Stromverbrauch und die Unterstützung von zwei Spannungen an den I Os 3 3 und 1 8 V Dadurch eignet sich STM32N6 ideal für IoT-Geräte Wearables industrielle Automatisierung und Smarthome-Geräte Abschließend »In einer Edge-KI-Anwendung kann STM32N6 beispielsweise regelmäßig Bilder erfassen und analysieren und zwischen den Ereignissen in den Standby-Modus wechseln um Energie zu sparen Dieser Ansatz verlängert die Akkulaufzeit und sorgt gleichzeitig für eine robuste Leistung « Texas Instruments Halle 3A Stand 131+619 »Unsere C2000-MCUs sind für die Echtzeitsteuerung ausgelegt und bieten eine branchenführend geringe Latenz Dadurch können Entwickler die Energieeffizienzziele ihrer Leistungselektronikdesigns leichter erreichen« erklärt Vivek Singhal Vice President und General Manager für Application Specific Microcontrollers bei Texas Instruments TMS320F28P55x-MCUs Mitglied der C2000-Familie baut auf diesen Kernkompetenzen auf plus einer integrierten NPU sodass KI-Algorithmen im Edge verarbeitet werden können und nicht in die Cloud geschickt werden müssen Singhal »Dieser KI-Hardware-Beschleuniger entlastet die Haupt-CPU und sorgt für eine fünfbis zehnmal geringere Latenz im Vergleich zu einer Software-Implementierung Gleichzeitig wird eine Fehlererkennungsgenauigkeit von über 99 Prozent erreicht « Und abschließend »Dank dieser integrierten Edge-KI profitieren Anwendungen wie die Lichtbogenfehlererkennung oder die vorausschauende Wartung von kürzeren Reaktionszeiten höherer Energieeffizienz und einer verbesserten Systemsicherheit « st ■ Mo Dogar Renesas Electronics »Es ist durchaus hilfreich den Speicherzugriff zu optimieren Wird SRAM für häufige KI-Operationen genutzt können externe Speicherzugriffe minimiert und damit der Energieverbrauch gesenkt werden « Since 2018 collective mind has focussed primarily on the area of ‘machine vision’ AI technology is used here to automate image processing In this field collective mind was the first company in Germany to develop a certified security system based on camerabased object and sequence recognition As a development and research division Rutronik System Solutions is a reliable partner for industrial customers implementing highly innovative and customised solutions and thus going far beyond the pure product level Customers benefit from a considerably shorter timetomarket and lower investments in predevelopment The latest RAB5 OSIRE adapter board has been specially developed for LED applications in the automotive industry and Industry 4 0 With the adapter board the experts at Rutronik are using highperformance LEDs from the OSIRE® series from ams Osram Similar to the previous boards the RAB5 can also be combined with all RDKs Rutronik Development Kits and adapter boards RABs thanks to the Arduino interface Another highlight at the Rutronik booth is the Suppliers Area This is where selected manufacturers are presenting their products for AIsupported applications These include Infineon MediaTek Nordic Semiconductor and Intel zü Halle 2 Stand 248 Fortsetzung von Seite 3 Continued from page 1