Der Blätterkatalog benötigt Javascript.
Bitte aktivieren Sie Javascript in Ihren Browser-Einstellungen.
The Blätterkatalog requires Javascript.
Please activate Javascript in your browser settings.
8 DESIGN&ELEKTRONIK 04 2021 www designelektronik de Quantisierung durchzuführen die Profilierung auf dem Zielgerät abzuschließen und dann zur abschließenden Produktion überzugehen Für die meisten Entwickler bedeutet Nutzerfreundlichkeit Zugriff auf vereinfachte optimierte Benutzeroberflächen die die zugrundeliegenden Details verbergen und die Komplexität des ML-Entwicklungsprozesses handhaben Die ideale Benutzeroberfläche ermöglicht es dem Entwickler einige Optionen auszuwählen sowie anschließend Trainingsdaten leicht zu importieren und das Modell auf dem Zielsystem bereitzustellen Die Anzahl von Verarbeitungsplattformen Frameworks Tools und anderen verfügbaren Ressourcen die Entwicklern beim Erstellen und Bereitstellen von MLAnwendungen und Modellen für neuronale Netzwerke helfen nimmt ständig zu Im Folgenden werden mehrere Entwicklungstools und Frameworks näher betrachtet um zu zeigen wie sie Entwickler bei der Arbeit unterstützen und ML-Entwicklungsprojekte vereinfachen ■ Vereinfachung des Prozesses mit einer MachineLearning-Tool-Suite Die DeepView-ML-Tool-Suite von Au-Zone Technologies 1 ist ein gutes Beispiel für eine intuitive grafische Benutzeroberfläche GUI und den entsprechenden Arbeitsablauf Mit ihrer Hilfe können Entwickler aller Fähigkeitsstufen angefangen bei embedded Entwicklern über Data-Scientists bis hin zu ML-Experten Datensätze und Modelle für neuronale Netzwerke importieren und diese Modelle dann trainieren und auf einer Vielfalt von Zielsystemen bereitstellen NXP hat seine eIQ-Entwicklungsumgebung kürzlich erweitert Sie umfasst nun die DeepView-Tool-Suite die Entwicklern beim Optimieren ihrer ML-Projekte hilft Bild 1 Das neue eIQ-ML-Workflowtool bietet Entwicklern erweiterte Funktionen zum Bereinigen Quantisieren Validieren und Bereitstellen öffentlicher und proprietärer Modelle für neuronale Netzwerke auf NXP-Geräten Zielgerichtete Profilierungsfunktionen auf Diagrammebene bieten Entwicklern Einblicke in die Laufzeit sodass sie Architekturen für Modelle von neuronalen Netzwerken sowie Systemparameter und die Laufzeitleistung optimieren können Durch das Hinzufügen der LaufzeitInferenzmaschine als Ergänzung zu OpenSource-Inferenztechniken können Entwickler ML-Arbeitslasten und -Leistung bei geringem Aufwand auf mehreren Geräten bereitstellen und bewerten Eine wesentliche Funktion dieser Laufzeit-Inferenzmaschine ist die Optimierung der Systemspeichernutzung und des Datenverkehrs für individuell gestaltete embedded Systeme ■ Optimierung neuronaler Netzwerke mit OpenSource-Glow-Compiler Der Glow-Compiler für neuronale Netzwerke ist ein populäres Open-SourceBackend-Tool für High-Level-ML-Frameworks Er bietet Optimierungen und die Code-Erzeugung von Diagrammen für neuronale Netzwerke Durch die Ausbreitung von Deep-Learning-Frameworks wie PyTorch bieten ML-Compiler und Compiler für neuronale Netzwerke Optimierungen die das Inferenzieren auf einer Vielfalt von Mikroprozessorplattformen beschleunigen Facebook als führender Wegbereiter von PyTorch führte Glow eine Kurzform von Graph Lowering Compiler im Mai 2018 als Open-Source-CommunityProjekt mit dem Ziel ein Optimierungen zu erzielen um die Leistung von neuronalen Netzwerken zu steigern Glow hat sich in den letzten Jahren dank der Unterstützung von über 130 Mitwirkenden weltweit beträchtlich weiterentwickelt Der Glow-Compiler nutzt ein Berechnungsdiagramm um einen optimierten Maschinencode in zwei Phasen zu generieren Bild 2 Zuerst optimiert er die Modelloperatoren und Modellschichten mithilfe von standardmäßigen Compiler-Techniken In der zweiten Phase der Modellkompilierung verwendet Glow LLVM-Module früher Low Level Virtual Machine um zielspezifische Optimierungen zu ermöglichen Glow unterstützt zudem einen AheadoftimeKompilierungsmodus AOT der Objektdateien erzeugt und unnötigen Mehraufwand eliminiert um die Anzahl der Berechnungen zu reduzieren und Speicheraufwand zu minimieren Diese AOT-Technik ist ideal für Mikrocontrollersysteme mit begrenzter Speicherkapazität ML-Tools wie der Glow-Compiler können die Entwicklung von ML neuronalen Netzwerken vereinfachen und die EdgeVerarbeitungsleistung auf Low-PowerMikrocontrollern verbessern Die anwendungsbereite Standardversion von Glow ist auf GitHub verfügbar geräteunabhängig und bietet Entwicklern die Flexibilität Modelle für neuronale Netzwerke für führende Mikroprozessoren zu kompilieren einschließlich solcher die auf Cortex-Aund Cortex-M-Kernen von ARM basieren Zur Vereinfachung von ML-Projekten hat NXP den Glow-Compiler in die eIQEntwicklungsumgebung und in sein MCUXpresso-Software-Entwicklungskit integriert Es bündelt den Glow-Compiler und Quantisierungstools in einem benutzerfreundlichen Installationsprogramm und bietet eine detaillierte Dokumentation sodass Entwickler ihre Modelle schnell produktiv einsetzen können Diese optimierte GlowImplementierung ist für Cortex-M-Kerne von Arm und den Tensilica-HiFi-4-DSP von Cadence ausgelegt und bietet zudem plattformspezifische Optimierungen für die Mikrocontroller der i MX-RT-Serie Unter Verwendung von CIFAR-10-Datensätzen CIFAR Canadian Institute For Advanced Research als Benchmark für neuronale Netzwerkmodelle hat NXP kürzlich den Mikrocontroller i MX RT1060 getestet um Leistungsunterschiede zwischen verschiedenen Glow-Compiler-Versionen zu bewerten NXP hat außerdem Tests mit dem Mikrocontroller i MX RT685 Embedded-Computing Künstliche Intelligenz Bild 1 ML-Workflow-Tools bieten Entwicklern erweiterte Funktionen zum Erstellen und Bereitstellen von Modellen für neuronale Netzwerke auf Mikrocontrollern