Der Blätterkatalog benötigt Javascript.
Bitte aktivieren Sie Javascript in Ihren Browser-Einstellungen.
The Blätterkatalog requires Javascript.
Please activate Javascript in your browser settings.
25 2021 Elektronik 21 EmbEddEd TEchnology aufnehmen Oberflächlich betrachtet ergibt es Sinn zu den Simulationen sämtliche Szenarien hinzuzufügen und damit das Vertrauen in die Sicherheit eines Systems zu erhöhen Das ist jedoch fehlerhaft weil es suggeriert dass ausführende Szenarien wirklich simuliert werden können Doch sicherheitskritische Systeme bestehen aus mehreren Prozessen die in Echtzeit um gemeinsame Ressourcen konkurrieren Hier ist es entscheidend einen detaillierten Überblick über die Nutzung der Ressourcen und die Ausführungsanforderungen jedes einzelnen Prozesses zu haben Echte Interaktionen lassen sich nur sehr schwer richtig simulieren was aber auch nicht erforderlich ist Hinsichtlich der Ausführung ist bekannt wie man Systeme zertifiziert und es gibt etablierte Verfahren die von staatlichen Stellen übernommen wurden Sicherheitsnachweise Zu beachten ist dass es ein großer Unterschied ist den Sicherheitsaspekt der Ausdrucksfähigkeit eines neuronalen Netzes oder die Sicherheit seiner Ausführung nachzuweisen Um zu beweisen dass ein neuronales Netz deterministisch ausgeführt wird ist es nicht entscheidend zu wissen wie ein neuronales Netz Fehler macht sondern nur ob es erfolgreich läuft oder Fehler macht Es wird immer vorhersehbar ausgeführt verbraucht die gleiche Menge an Ressourcen und die Ausführung erfolgt in einer bestimmten Zeitspanne Das ist entscheidend um nicht nur die Integrität des ausführenden KI-Prozesses sicherzustellen sondern auch die Integrität aller anderen Prozesse die in dem Hardwaresystem ausgeführt werden und es gemeinsam nutzen Um jedoch die Implementierung eines neuronalen Netzes für sicherheitskritische Systeme zu zertifizieren müssen sowohl die Ausdrucksfähigkeit als auch die Ausführung des neuronalen Netzes nachweislich sicher sein Was folgt daraus? Wenn also beide Probleme gelöst werden müssen warum kann man sich dann nicht zunächst auf das Problem der Ausdrucksfähigkeit konzentrieren und danach um die Ausführung kümmern? Leider hat es tückische Folgen sich zu spät über die Ausführung Gedanken zu machen Denn während man sich darauf konzentriert die Vorhersagen neuronaler Netze zu verstehen werden Millionen von Codezeilen geschrieben die von unsicheren Plattformen und Bibliotheken genutzt werden Wie lässt sich nach der Klärung der Ausdrucksfähigkeit noch beweisen dass die Ausführung dieser Bibliotheken und Plattformen sicher ist? Lässt sich Python wirklich zertifizieren? Wurde irgendwann ausreichend simuliert sodass sich keiner mehr Sorgen um das wackelige Kartenhaus machen muss auf dem alles steht? Die Industrie kämpft darum einen Teil des Problems zu lösen und zu gewährleisten dass die Ausdrucksfähigkeit neuronaler Netze nachweislich sicher ist Währenddessen sollten die Bereitstellungssysteme auf einer besseren Grundlage aufgebaut werden um den anderen Teil des Problems durch eine KI-Plattform zu lösen die von Grund auf darauf aufgebaut ist sicherheitskritische Standardprogrammierschnittstellen APIs zu nutzen CoreAVI konzentriert sich auf die Entwicklung dieser sicheren KI-Plattformen um der neuronalen Netzwerktechnologie in Zukunft den Weg zu ebnen Bild 2 und 3 ak Ken Wenger ist Principal Software Engineer bei CoreAVI Er hat eine Reihe sicherheitskritischer Produkte entwickelt darunter Grafiktreiber und Rechenbiblio theken Sein aktueller Schwerpunkt liegt auf der Forschung für die Anwendung sicherheitskritischer Prinzipien und Richt linien in autonomen Systemen unter Ver wendung neuronaler Netze und anderer fortschrittlicher maschineller Lernalgo rithmen Derzeit leitet er ein Forschungs projekt zum Einsatz semiüberwachter Lernalgorithmen für die medizinische Bilddiagnostik