Der Blätterkatalog benötigt Javascript.
Bitte aktivieren Sie Javascript in Ihren Browser-Einstellungen.
The Blätterkatalog requires Javascript.
Please activate Javascript in your browser settings.
12 Elektronik 20 2021 IMPULSE Interview mit Chris Wallace Cloudera »Es gibt viele diskriminierende KI-Systeme« Herr Wallace was zeichnet eine »ethische KI« aus und warum ist das Thema so wichtig für Unternehmen? Unter ethischer künstlicher Intelligenz – englisch Ethical AI – versteht man das Bemühen KIgestützte Systeme zu entwickeln die menschlichen Werten entsprechen Zum Beispiel Werte wie Fairness Transparenz Achtung der Privatsphäre sowie niemandem Schaden zuzufügen Es ist wichtig dass wir automatisierte Systeme verantwortungsvoll betreiben – sie kommen vielfach bei Entscheidungen zum Einsatz die sich direkt auf unser Leben auswirken Es gibt allerdings keine definitiven Kriterien welche ein System ethisch vertretbar machen und ein anderes hingegen nicht Um jede Art automatisierter Systeme verantwortungsvoll einzusetzen müssen wir ständig auf die unbeabsichtigten Folgen der KI achten Denn Ethik ist das was wir tun – nicht das was wir sind Abgesehen davon dass Unternehmen hiermit Schaden von ihren Kunden und anderen Personen abwenden verringern sie mit verantwortungsbewusstem Handeln das Risiko rechtlicher rufschädigender und – in zunehmendem Maße – regulatorischer Risiken Welche Herausforderungen ergeben sich beim Einsatz von KI für Unternehmen? Der Einsatz des maschinellen Lernens ML ist mit einer Reihe von Herausforderungen verbunden Es entstehen einige rein technische Aspekte beispielsweise in Bezug auf die Recheninfrastruktur und Beobachtbarkeit – sie sind am einfachsten zu lösen Zudem kommen organisatorische Herausforderungen auf wie das Strukturieren eines Datenteams Hierfür gibt es keine Universalmaßnahme Außerdem gibt es die datenwissenschaftliche Arbeit Wie gelingt der Weg von einer Menge an Daten und Algorithmen zu einem Produkt das tatsächlich jemandem hilft? Gibt es Ansätze ethische Grundfragen mit einzubeziehen? Es ist möglich all die bisher genannten Schritte gut umzusetzen und dennoch ein System zu erhalten das eine Gruppe KI-Systeme zu entwickeln stellt viele Unternehmen derzeit noch vor große Herausforderungen – von technischen über personelle bis hin zu ethischen Hierbei sind viele Fragen zu beantworten Kernpunkt ist jedoch wie man einen Algorithmus dazu bringt nicht diskriminierend zu handeln Chris Wallace ist Leiter der Forschungsabteilung für angewandtes maschinelles Lernen bei Cloudera Fast Forward Labs Hier arbeitet er daran Entwicklungen im Bereich der maschinellen Intelligenz zugänglich und in der realen Welt anwendbar zu machen Er entwickelt Datenprodukte und legt großen Wert darauf dass Technologie für den Menschen arbeitet und nicht umgekehrt systematisch diskriminiert Schließlich gibt es zahlreiche technische Maßstäbe für Fairness – einige von ihnen stehen in direkter Spannung zueinander beispielsweise die Gleichheit von Chancen und Ergebnissen Ein sinnvoller erster Schritt ist Kompromisse zwischen den Maßstäben zu bewerten sowie andere Parameter wie die Genauigkeit von Prognosen zu definieren Jedoch ist das Überprüfen von Kennzahlen lediglich ein kleiner Schritt Um KI verantwortungsvoll einzusetzen ist es wichtig das gesamte Unternehmen zu beteiligen Leider tauschen sich bisher lediglich wenige Unternehmen darüber aus wie sie solche Herausforderungen angehen Das er - schwert es anderen Unternehmen ihrem Beispiel zu folgen und bewährte Verfahren zu entwickeln Welche Nachteile ergeben sich bei Nichtbeachten? Es gibt viele Fälle von diskriminierenden KIgestützten Systemen Ein Beispiel Ein Unternehmen aus dem Bereich des Personalwesens überwachte die Mimik der Bewerber beim Einstellungsgespräch Das schadete nicht nur den Bewerbern sondern war ebenfalls ein PR-Desaster und vergeudete Entwicklungszeit und Geld da das System unbrauchbar war Ich denke wir müssen mit einigen Wunschvorstellungen über KI-Systeme aufräumen So glauben zum Beispiel viele dass automatisierte Systeme objektiver und somit weniger diskriminierend agieren als ein Mensch – ein sehr naiver Gedanke Maschinelle Lernsysteme setzen sich aus Daten und Algorithmen zusammen die von Menschen erzeugt werden und unterliegen folglich denselben Vorurteilen Es ist unmöglich die Frage der Fairness zu »automatisieren« denn die verschiedenen Akteure in einem System haben unterschiedliche Ziele Es liegt an denjenigen die das System erstellen – Entwickler Designer Manager – die anzuwendenden Kompromisse zu bestimmen Ungeachtet der Überlegungen zu Reputationsund anderen Risiken ist ein faires Behandeln von Menschen Hauptgrund für das Ent - wickeln verantwortungsvoller KI-Systeme ts