KI-Kindergarten: Einführung in die künstliche Intelligenz mit Chris Boos

Wie kommt so etwas wie Ethik ins Spiel? Dass Maschinen in einer Situation beispielsweise das geringere von zwei Übeln abwägen und dementsprechend handeln?

Rettet man bei einem sich abzeichnenden Unfall Rentner oder Kind? Die Frage ist eher: Warum erwarten wir, dass eine Maschine das besser entscheiden kann als ein Mensch? Ein Mensch würde im Extremfall wohl gar nicht groß darüber nachdenken, der will zuallererst mal selber überleben.

Erwarten wir zu viel von künstlicher Intelligenz?

Letztlich müssten nämlich wir Menschen die Entscheidungen treffen und in dem Beispiel mit dem Unfall das Auto erziehen. Das Beste, was man tun kann, glaube ich, ist, den Zufall walten zu lassen. Die eigentliche Frage von Ethik sieht man viel schöner anhand des Microsoft-Chatbots.

Sie meinen Tay, den Reddit- und 4chan-Gruppen binnen Stunden auf Twitter zum Rassisten erzogen haben?

Alle hackten deswegen auf Microsoft rum. Stattdessen müsste man doch viel eher ansprechen, dass nicht die Allgemeinheit dem Bot etwas beibringen wollte, sondern nur irgendwelche Radikalisten. Auch Maschinen brauchen ein fruchtbares Umfeld, genau wie Kinder. Das ist eine gesellschaftliche Aufgabe.

Ethik kann man also nicht coden?

Es wäre eine Katastrophe, wollten wir die menschlichen Werte in eine Maschine coden. Wenn das gelöst wäre, gäbe es keine Philosophie mehr. Denn keiner hat bislang die menschlichen Werte als Bullet-Point- Liste aufgeschrieben.

Na ja, die Zehn Gebote …

Aber selbst da stellt man schnell fest, dass sich fast kein Mensch an diese Werte hält. Das halte ich für äußerst gefährlich. Man sollte stattdessen möglichst viele Lehrer haben. Da kristallisiert sich Gut und Böse relativ schnell raus, und am Ende ist Moral ja auch in der philosophischen Diskussion nur das, was für die Mehrheit akzeptabel ist. Wichtig ist: Wir haben immer gesagt, dass wir nicht nur eine Maschine wollen, die selbst lernt und die menschliche Erfahrungen nur durch Zusehen macht, sondern vor allem dadurch, dass sie mit Menschen kommuniziert. Das ist das Tolle an Sprache.

Wie bekommt die KI eine Sprache?

Bei Deep Learning trainiert man lediglich das neuronale Netz, hat aber keine Sprache. Im nächsten Schritt versucht man, langsam aus den Mustern, die sich in den Netzen bilden, Wörter abzuleiten – das nennt man, wie vorhin bereits erwähnt, Konzeptualisierung. Das braucht jedoch Zeit.

Was kommt danach?

Spannend. Zum reinen Reagieren kommt das Argumentieren: Sachen gegeneinander abwägen, logisch gegeneinanderhalten. Als Menschen können wir uns auch Ziele setzen, die kurzfristig die Survival Function beeinträchtigen, solange diese bloß nicht null wird. Weil wir von der Zielerreichung so überzeugt sind. In Gemeinschaften, im Schwarm, lebt man sogar damit, dass einige sich opfern für die anderen.

Ist das der Weg in die vorhin von Ihnen angesprochene Dystopie? Warum macht zum Beispiel Elon Musk so einen Alarm?

Musk hat genau diesen Widerspruch in sich: Auf der einen Seite ist er einer der größten Investoren in KI, auf der anderen Seite ist er skeptisch. Aber bei diesem berühmten Aufruf, den ich übrigens auch unterschrieben habe, wird ja immer nur dieser reißerische Teil zitiert. Der erste Satz lautet bekanntlich, dass KI zu einer der größten Gefahren der Menschheit werden könnte – es steht aber auch drin, dass es sich um die größte Chance für die Menschheit handelt. Der Schritt ist riesig. Wie gesagt: Man braucht viele Menschen, die daran mitarbeiten.

So wie bei dem sehr erfolgreichen AlphaGo-Programm, wo es der KI gelungen ist, erstmals einen Meister zu schlagen?

Moment, das ist ja wieder nur Zugucken. Die Maschine hat nur die Go-Partien gesehen, nicht aber die Go-Meister gefragt: Wie und warum hast du das so und so gemacht? Deswegen trainieren wir mit unserer AI das Spiel Freeciv. Das ist noch mal komplexer als Go, weil der Zufall ins Spiel kommt. Die Maschine tritt gegen Menschen an, und wir fragen die Spieler, warum sie bestimmte strategische Entscheidungen getroffen haben. Wir ergänzen Abschauen durch Kommunikation, was bei Menschen der entscheidende Lernfaktor ist.

Wir brauchen also Kindergärten für unsere KIs?

Ganz genau.

_________________________________________________________

Der Artikel stammt aus der Ausgabe 05/2016 der Business Punk. Titelgeschichte: Wie Siri-Erfinder Dag Kittlaus mit dem Sprachassistenten “Viv“ neue Standards setzen will. Außerdem unser Dossier AI, Ryanair-CEO Michael O’Leary und viele weitere Beiträge. Mehr Infos hier


Alexander Langer

Alexander ist Redakteur bei Business Punk, wo er vor allem den Teil Play Hard betreut. Vorher hat er sich durch den Berliner Startup-Dschungel gehangelt, war außerdem bei 11Freunde. Noch weiter davor tausend Jobs, von denen er dir gerne mal ausführlich erzählt, wenn du nicht aufpasst.

Zum Autor

Das können wir Dir auch empfehlen

placeholder
placeholder