Der Blätterkatalog benötigt Javascript.
Bitte aktivieren Sie Javascript in Ihren Browser-Einstellungen.
The Blätterkatalog requires Javascript.
Please activate Javascript in your browser settings.
26 smart factory 2020 ● www computerautomation de artificial intelligence Bild Uni Stuttgart IFF Fraunhofer IPA Rainer Bez Wenn Verschleißteile zu früh oder zu spät ausgetauscht werden verursacht das unnötige Kosten Tiefe neuronale Netze sollen deshalb die Sensordaten einer Maschine auswerten und den richtigen Zeitpunkt für die Wartung ermitteln Blackbox-Modell und trifft weitgehend gleiche Vorhersagen Soll für ein Surrogat ein Entscheidungsbaum etwa aus einem neuronalen Netz extrahiert werden kann die Komplexität des Netzes durch die sogenannte Regularisierung beziehungsweise das Forcieren bestimmter Eigenschaften eines Netzes beeinflusst werden Zudem ist es machbar das Gewicht möglichst vieler Kanten im Netz automatisch auf null zu setzen sodass diese wegfallen Dies führt die sogenannte Spärlichkeit herbei Sie macht das Netz nicht nur schlanker und somit nachvollziehbarer sondern ermöglicht auch eine schnellere Auswertung weil die Rechenzeit sinkt Das zweite Hilfsmittel sind kontrafaktische Erklärungen Diese schlüsseln auf welches Detail der Eingabedaten konkret ein Ergebnis herbeiführte Sie dienen also der lokalen Erklärbarkeit So könnte ein Algorithmus der über Kreditvergaben entscheidet als Erklärung ausspielen Ihr Kreditgesuch wurde abgelehnt weil ihr Einkommen zu niedrig ist um die Zinsen bedienen zu können Dieses Hilfsmittel macht nicht nur ML-Anwendungen verständlicher sondern beinhaltet auch eine Handlungsempfehlung Wenn der Anwender weiß dass aus einer Summe von Eingabedaten genau die Eingabe x zum Ergebnis y führte kann eine kleinstmögliche Veränderung der Eingangsdaten eine andere Ausgabe erzeugen Eine dritte Möglichkeit sind schließlich Erklärungsrepräsentationen Hierbei können Modelle visualisiert oder mit Hilfe von Narrativen virtueller Realität Animationen oder Sprachausgaben erklärt werden In der Bildverarbeitung möchte ich beispielsweise wissen warum ein Foto als Katze und nicht als Hund klassifiziert wurde Dafür nutzen wir sogenannte Heatmap-Technologien Diese heben hervor welche Teile des Bildes wichtig oder unwichtig für die Entscheidung waren erklärt Huber Oder eine Textverarbeitung schlüsselt auf warum eine E-Mail als Spam deklariert wurde Bei der Mensch-Roboter-Kooperation MRK sind globale Erklärungen die das Modell als Ganzes erklären unabdingbar Denn bei der vorgeschriebenen Risikound Gefährdungsbeurteilung nach ISO 12100 kommt immer häufiger das sogenannte Reinforcement Learning RL zum Einsatz ein maschinelles Lernverfahren bei dem ein Roboter für richtiges Handeln belohnt wird Das bedeutet Roboter erhalten für richtiges Handeln Punkte und steigen in einem Ranking auf Sie sind also bestrebt möglichst viele Punkte zu sammeln und ganz oben im Ranking zu stehen KI für sichere Mensch-Roboter-Kooperation Unter Einsatz von RL lernt ein Roboter an einem virtuellen MRK-Arbeitsplatz wie er trotz der völlig unvorhersehbaren Bewegungen eines Menschen seine Montageaufgabe erledigen kann ohne jemanden zu verletzen Weil beim RL aber ein neuronales Netz zum Einsatz kommt das ein Sicherheitsbeauftragter nicht durchdringen kann wird er nie die Verantwortung für Sicherheitsimplementierungen übernehmen die ihm ein Algorithmus vorschlägt Das wäre grob fahrlässig und könnte vor Gericht enden Bisher gibt es für das RL allenfalls lokale Erklärungen für spezifische Eingabedaten Im Forschungsprojekt KLEAR möchte Huber deshalb zusammen mit MRKExperte Ramez Awad von der Abteilung Roboterund Assistenzsysteme am Fraunhofer IPA und zehn weiteren Partnern aus Wissenschaft und Industrie an der globalen Nachvollziehbarkeit und Erklärbarkeit der mittels ML-Verfahren gewonnenen Risikound Gefährdungsbeurteilung in einer Mensch-Roboter-Kooperationsapplikation für CE-Dokumentation arbeiten Das Problem dabei Bisher sind globale Erklärungen immer nur Annäherungen an die komplexen Lösungswege eines neuronalen Netzes Die bereits genannten Entscheidungsbäume etwa bieten eine mühelos nachvollziehbare Darstellungsform Allerdings vereinfachen sie so sehr dass viele Informationen keine Berücksichtigung finden Bei sogenannten Ontologien Schaubildern ähnlich einer Mind-Map auf denen einzelne Begriffe mögliche Entscheidungspfade des Algorithmus Die Entscheidungen sind hierarchisch gegliedert und führen so von der Ausgangsfrage entsprechend den Zwischenantworten zu einem Klassifizierungsergebnis Allerdings können Entscheidungsbäume auch eine derartige Komplexität generieren dass sie wiederum unverständlich werden Als dritte Erklärungshilfe sind regelbasierte Systeme die anhand von vorgegebenen Wenn-Dann-Regeln Entscheidungen fällen für Anwender prinzipiell gut nachvollziehbar Zwar ist ein Entscheidungsbaum auch bereits ein Regelsystem ich kann diese Regeln aber noch einmal gesondert aufschlüsseln führt Huber aus So lassen sich Regeln beispielsweise priorisieren oder alle gleich gewichten Kommt es zu Widersprüchen sind diese aufzulösen Und auch hier gilt es aufzupassen dass die Anzahl der Regeln beherrschbar bleibt Sonst ergibt sich gegenüber einem automatisierten Modell kein Mehrwert Hilfsmittel zur Erklärbarkeit Liegt einem KI-Ergebnis ein von Natur aus nicht erklärbares Modell zugrunde wie beispielsweise ein tiefes neuronales Netz braucht es eine Art Übersetzungsleistung für Anwender Denn hier gibt es im Gegensatz zu den erklärbaren Modellen keine so klare Entscheidungsgrenze für die Ergebnisgewinnung Die Übersetzungsleistung kann dabei entweder global orientiert sein sprich das Modell als Ganzes erklären oder lokal ausgerichtet sein und erklären warum eine bestimmte Eingabe x zu einer bestimmten Ausgabe y führt Drei Verfahren seien beispielhaft aufgeführt Das erste Verfahren ist das Bilden eines Stellvertretermodells oder auch Surrogats Dieses Whitebox-Modell simuliert das