Der Blätterkatalog benötigt Javascript.
Bitte aktivieren Sie Javascript in Ihren Browser-Einstellungen.
The Blätterkatalog requires Javascript.
Please activate Javascript in your browser settings.
24 artificial intelligence Bild Uni Stuttgart U Regenscheit Marco Huber vom Fraunhofer IPA Je komplexer ein neuronale Netz ist desto schwerer nachvollziehbare Ergebnisse liefert es KI die Blackbox durchschauen Künstliche Intelligenz kommt immer häufiger auch in sicherheitskritischen Anwendungen zum Einsatz Deshalb ist das Wissen darüber wie sie zu ihren Entscheidungen kommt essenziell Forschung und Industrie arbeiten dementsprechend daran die Blackbox-Algorithmen nachvollziehbar zu machen Kurz vor 22 Uhr am 18 März 2018 schob Elaine Herzberg ihr Fahrrad über die vierspurige Mill Avenue in Tempe einem Vorort von Phoenix Arizona Sie trug ein schwarzes Oberteil und nutzte nicht den ausgewiesenen Fußgängerüberweg Die Algorithmen des selbstfahrenden Testautos von Uber das genau auf Herzberg zufuhr waren sich lange uneins womit sie es zu tun hatten Der Wagen überfuhr die 49-jährige Obdachlose ungebremst Sie starb wenig später im Krankenhaus Die Sicherheitsfahrerin des Testautos hatte nicht eingegriffen Anstatt auf den Verkehr zu achten und die Hände einsatzbereit über dem Steuer zu halten hatte sie den Blick nach unten gerichtet wie das Video einer Überwachungskamera zeigt Hätte der Wagen abgebremst und Herzberg die Straße unbeschadet überqueren können hätte vermutlich nie jemand gefragt wie die Algorithmen des selbstfahrenden Autos zu ihren Vorhersagen und Wahrscheinlichkeitsberechnungen gekommen waren Doch weil sie eben manchmal Fehler begehen ist es ein ernstzunehmendes Problem dass ihre Lösungswege meist im Verborgenen liegen Denn moderne Machine-Learning-Algorithmen ML gleichen einer Blackbox Sie folgen nicht mehr vorgegebenen Wenndann-Regeln sondern erzeugen aus den Eingabedaten ein komplexes Modell auf dessen Ausgestaltung der Mensch allenfalls indirekt Einfluss nehmen kann Je komplexer das neuronale Netz ist desto genauere aber leider auch schwerer nachvollziehbare Ergebnisse liefert es bringt es Professor Marco Huber auf den Punkt der am Fraunhofer-Institut für Produktionstechnik und Automatisierung IPA in Stuttgart das Zentrum für Cyber Cognitive Intelligence CCI leitet Er hat es sich zur Aufgabe gemacht diesem ständigen Abwägen zwischen Leistungsfähigkeit und Interpretierbarkeit eines Algorithmus ein Ende zu setzen Künstliche Intelligenz KI soll in Zukunft erklärbare Entscheidungen treffen und nachvollziehbare Prognosen abgeben Datenschutz verlangt erklärbare KI Explainable Artificial Intelligence oder kurz xAI heißt dieser Forschungszweig der Informatik der auf die Initiative der smart factory 2020 ● www computerautomation de