Der Blätterkatalog benötigt Javascript.
Bitte aktivieren Sie Javascript in Ihren Browser-Einstellungen.
The Blätterkatalog requires Javascript.
Please activate Javascript in your browser settings.
7 l 2022 editorial l 3 Sein Schein oder nichtS ch ein? diana KünStler Stv Chefredakteurin funkschau dkuenstler@wekafachmedien de Eine Künstliche Intelligenz mit eigenem Bewusstsein – gibt es das? Vor zehn Jahren hätte man angesichts eines solchen Szenarios bestimmt noch lächelnd abgewunken und einfach an Science-Fiction-Charaktere à la Sonny aus „iRobot“ oder HAL 9000 aus „2001 Odyssee im Weltraum“ gedacht Heute ist dieser Gedanke aber sicherlich nicht mehr so schnell und unbekümmert abgetan Grund dafür ist eine aktuelle Entwicklung aus den Google-Laboren Google-Ingenieur Blake Lemoine glaubt in einer Software für Dialoge ein Bewusstsein erkannt zu haben Bei Testgesprächen mit dem Chatbot „LaMDA“ Language Model for Dialogue Applications fielen dem Softwareentwickler zahlreiche Äußerungen auf in denen dieser Selbsterkenntnis zeigte philosophierte und komplexe Gefühle schilderte – bis hin zu seiner „Angst davor abgeschaltet zu werden“ Mittlerweile ist Lemoine von Google freigestellt worden Kehrt hier ein großer multinationaler Konzern die mutmaßliche Entstehung eines KI-Bewusstseins unter den Tisch? So einfach ist es nicht Zum einen war das Vorgehen des Ingenieurs nicht ganz protokollkonform Nachdem er seine direkten Vorgesetzten informiert hatte erwartete er schnelles Handeln Stattdessen sollte er zunächst weiter prüfen und seinen Verdacht erhärten Doch das ging ihm nicht schnell genug Er überging seine Vorgesetzten und wandte sich direkt an den zuständigen VP seines Bereichs der ihn – Lemoine zufolge – nicht ernst nahm Der Entwickler gab in Folge seine Gesprächsprotokolle auch an Behörden weiter Zudem ließ er den Chatbot mit einem Anwalt reden und verlangte dass man vor weiteren Tests mit der KI deren Zustimmung einholen müsse Google zog daraufhin die Notbremse und beurlaubte den Softwareentwickler Zum anderen bezweifeln einige Experten in der Fachwelt dass Lamda ein eigenes Bewusstsein entwickelt hat So ist nicht geklärt wie man ein Bewusstsein das sich selbst als existierend wahrnimmt und beispielsweise Gefühle und Leid durchlebt nachweisen kann – selbst bei einem Menschen Dabei ist es ja genau das was uns eine Dialog-KI Glauben machen soll Sie ist darauf programmiert auf jede Frage auch eine menschlich klingende Antwort zu formulieren Und das kann Lamda gut denn die Konversationsfähigkeit des Chatbots wurde jahrelang entwickelt Wie viele neuere Sprachmodelle einschließlich BERT und GPT-3 basiert Lamda auf Transformer einer neuronalen Netzwerkarchitektur die Google Research erfunden und 2017 als Open Source veröffentlicht hat Diese Architektur erzeugt ein Modell das darauf trainiert werden kann viele Wörter zu lesen und darauf zu achten wie diese zueinander in Beziehung stehen Schließlich kann Lamda vorhersagen welche Wörter seiner Meinung nach als nächstes kommen Und im Gegensatz zu den meisten anderen Sprachmodellen wurde die KI auf Dialog trainiert Während ihrer Ausbildung hat sie somit einige der Nuancen aufgegriffen die offene Konversation von anderen Formen der Sprache unterscheiden Doch ob nun Sein oder Nichtsein – ob nun eine KI die sich ihrer selbst bewusst ist oder nicht – das Ganze mutet schon fast tragisch an Oder es kommt zumindest einer verschenkten Chance gleich dass sowohl Mitarbeiter als auch Unternehmen in diesem Fall nicht von Anfang an transparenter und einvernehmlicher agieren konnten Nun tritt man auf der Stelle Stoff für einen weiteren Science-Fiction-Streifen mit aktuellem Bezug bietet das Ganze aber allemal Welche Fragestellungen und Use Cases über den Dialog hinaus mit Künstlicher Intelligenz noch einhergehen können greifen wir in dieser Ausgabe ab Seite 30 auf Unter anderem geht es darum wie sich der Missbrauch von KI unterbinden lässt und wie die Technologie zum Guten für die Umwelt eingesetzt werden kann Ihre Diana Künstler