Der Blätterkatalog benötigt Javascript.
Bitte aktivieren Sie Javascript in Ihren Browser-Einstellungen.
The Blätterkatalog requires Javascript.
Please activate Javascript in your browser settings.
nutzerfreundlicher und zugänglicher werden Das Aufkommen von ML am Rand des Netzwerks ist im Vergleich zu klassischen cloudbasierten KI-Systemen ein relativ neuer Trend mit einzigartigen Anforderungen an die Anwendungen Allerdings sind die Ressourcen von embedded Systemen hinsichtlich Leistung auf Chipund Systemebene beschränkt was neue und andere Softwaretools erfordert Die MLEntwickler haben zudem völlig neue Entwicklungsprozesse für Edge-Anwendungen eingeführt wie das Modelltraining die Bereitstellung einer Inferenzmaschine auf den Zieleinheiten sowie andere Aspekte der Systemintegration ■ Hohe Rechenleistung und niedrige Stromaufnahme Nachdem ein ML-Modell trainiert optimiert und quantisiert wurde wird das Modell in der nächsten Entwicklungsphase auf der Zieleinheit beispielsweise einem Mikrocontroller oder einem Mikroprozessor bereitgestellt sodass es die Inferenzfunktion ausführen kann Eine neue Klasse von Zielsystemen für ML-Anwendungen bieten sogenannte Crossover-Mikrocontroller Der Begriff »Crossover« bezieht sich auf eine Kombination von Leistungsfähigkeit und Funktionen eines Mikroprozessors Applikationsprozessor mit der Nutzerfreundlichkeit der geringen Energieaufnahme und dem Echtzeitbetrieb mit geringer InterruptLatenzzeit eines Mikrocontrollers Ein typischer Crossover-Mikrocontroller etwa ein Baustein der i MX-RT-Serie von NXP enthält einen Cortex-M-Kern von ARM der mit einer Taktfrequenz von 300 MHz bis 1 GHz betrieben wird Diese CrossoverMikrocontroller verfügen über eine ausreichende Verarbeitungsleistung zur Unterstützung von ML-Inferenzmaschinen beispielsweise ohne Bedarf zusätzlicher ML-Beschleunigung sowie über den geringen Energiebedarf der für leistungsbeschränkte Edge-Anwendungen erforderlich ist Im Idealfall können Entwickler von embedded Systemen eine umfassende ML-Entwicklungsumgebung inklusive Softwaretools Anwendungsbeispielen und Benutzerhandbüchern verwenden um Open-Source-Inferenzmaschinen auf einem embedded System bereitzustellen So bietet die eIQ-Umgebung von NXP Inferenzunterstützung für Arm NN die ONNX Open Neural Network Exchange Runtime-Maschine TensorFlow Lite und den Glow-Compiler für neuronale Netzwerke Entwickler können einen einfachen BYOMProzess Bring Your Own Model nutzen mit dem sie ein trainiertes Modell mithilfe von öffentlichen oder privaten cloudbasierten Tools erstellen und das Modell dann in die eIQ-Umgebung übertragen wo es auf der für den entsprechenden Mikrocontroller optimierten Inferenzmaschine ausgeführt wird Viele Entwickler brauchen heute MLund Deep-Learning-Tools und -Techniken für aktuelle und zukünftige EmbeddedSystem-Projekte Auch hier muss die MLUnterstützung für die betreffenden Entwickler umfassender und benutzerfreundlicher werden Umfassende Unterstützung beinhaltet einen durchgängigen Prozess der es Entwicklern ermöglicht ihre Trainingsdaten zu importieren das optimale Modell für ihre Anwendung auszuwählen das Modell zu trainieren Optimierung und Digitale Speicheroszilloskope Leistungsstark und wirtschaftlich MSO5000 Serie Digitale High-End-Speicheroszilloskope • Inklusive Bode-Diagrammdarstellung • 70 100 200 und 350 MHz analoge Bandbreite per Software-Upgrade • 2 70 100 MHz oder 4 analoge Kanäle Upgrade + 16 digitale Kanäle MSO • Bis zu 8 GS sek Echtzeit-Abtastrate • Bis zu 200 Mpts Speichertiefe Option • 500 000 wfms sek Wellenform-Erfassungsrate • Deutsches Handbuch Aktion → Kostenlos bis 30 Juni 2021 Protokollanalyse Wellenformgenerator Leistungsanalyse TECHNOLOGY II ab€809 - plus MwSt 3 Jahre Garantie verlängerbar! X-IN-1 www rigol eu RIGOL Technologies EU GmbH | Telefon +49 8105 27292-0 | infoeurope@rigol com Registrieren Sie sich für unseren Newsletter → @ Rigol_DE 04 pdf S 1 Format 210 00 x 145 00 mm 26 Apr 2021 15 13 33 Anzeige