KI-Kindergarten: Einführung in die künstliche Intelligenz mit Chris Boos

Überlasst die künstliche Intelligenz nicht den Nerds! Der Frankfurter KI-Experte Chris Boos will, dass alle mithelfen, die schlauen Computer zu mehr Menschlichkeit zu erziehen.

Vormittag in Berlin, Chris Boos sitzt im Hotel in Mitte. Er wartet auf einer tiefen Couch in einem Nebenraum. Ein entspannter Mensch, einer, der viel lacht. Mit seinem Unternehmen Arago hat er in den Neunzigern angefangen, die IT-Bereiche von Finanz- und Telekomunternehmen mit Tools zur Automatisierung umzukrempeln. Dabei wird er nicht müde, den Vorständen unbequeme Wahrheiten zu erzählen. Etwa, dass IT ein riesiges Geldgrab ist, dass kein junger Mensch mit Potenzial je davon träumt, als System-Admin zu verdörren, außerdem dass nur künstliche Intelligenz den etablierten Wirtschaftszweigen noch helfen kann, die Lücke zu Hightech-Riesen zu schließen. „Obwohl“, sagt Boos, „Hightech-Unternehmen natürlich wiederum die sind, die viel eher für KI Geld ausgeben.“ Boos spricht mit leichtem hessischem Akzent, wodurch er selbst dann sympathisch klingt, wenn er für seine Branche ketzerische Sätze sagt wie: „Ein Computer ist ja eigentlich völlig unnutzbar, weil er nichts über die Welt weiß.“ Das Mission-Statement trägt Boos unmissverständlich auf der Brust: „Denken ist wie googeln, nur krasser.“

Herr Boos, Coder sollen demnächst also Erzieher für KI werden, heißt es. War das Informatikstudium umsonst?

Es wird immer noch klassische Coder geben. Jemand muss die Basis schaffen. Aber ich hoffe, dass wir bald an den Punkt kommen, wo nicht nur Coder und Ingenieure mit der künstlichen Intelligenz zusammenarbeiten können, sondern auch ganz normale Menschen.

Weil man den möglichst breiten Input für eine schlaue KI braucht?

Ich selber bin ja auch so ein Kellerkind und habe eine bestimmte Sichtweise. Aber die Menschen sind so vielfältig, dass man dafür sorgen muss, dass jeder mit der künstlichen Intelligenz interagieren und ihr was beibringen kann. Da muss man Zeit und Geld reinstecken.

Ganz naiv gefragt: Wie bringt man einer KI etwas bei?

Man hört ja in dem Zusammenhang hauptsächlich von Deep Learning. Und das ist noch recht neu. Beim Deep Learning hat man versucht, das Gehirn nachzubauen. Nicht in der Gesamtheit, aber doch entscheidende Teile des Gehirns. Man arbeitet mit neuronalen Netzen und kann in völlig unstrukturierten Datenströmen Muster erkennen, auf die dann reagiert wird. Man übt so lange, bis man die erwünschte Reaktion gefunden hat.

Wie bekommt man das Richtig und das Falsch?

Man muss ein Ziel setzen. Jedes Lebewesen hat diese Zielsetzung, die sogenannte Survival Function. Die ist bei den meisten Lebewesen oft recht simpel: nur nicht sterben. Je höher entwickelt aber ein Wesen ist, desto komplexer wird es. Um diese Komplexität auszudrücken, formt es Konzepte: Katze, Plüschkatze, Raubkatze, Sonstwaskatze. Je komplexer das Gehirn, umso wichtiger die Konzeptionalisierung. Der Mensch ist bislang das einzige Tier, das eine Sprache entwickelt hat. Wir können also Konzepten Namen geben, die dann allgemein verständlich werden.

Deswegen ist das Thema Spracherkennung so komplex?

Die Arbeit mit Sprache ist viel schwieriger als beispielsweise mit Video. Allein hinter dem Wort „Katze“ verbergen sich alle Daten von allen Katzen dieser Erde. Das ist eine wahnsinnige Kompression, die wir mit unseren Gehirnen entwickelt haben. Und jetzt wird es interessant: Deep Learning arbeitet mit Mustern. Diese sind anschließend in diesem neuronalen Netz eincodiert und übertragbar. Man kann sie jetzt schon kopieren, was ja in der Tierwelt nicht geht. Wir machen stattdessen Evolution.

Vergleichsweise langsam.

Nick Bostrom, der eine dystopische Sichtweise auf KI hat, sagt: Wenn wir mit den Maschinen konkurrieren wollen, müssen wir uns so und so viel schneller reproduzieren, weil Maschinen sich eben einfach kopieren können. Ich selber halte das für Quatsch. Aber wir können ohne Sprache nur auf zwei Arten etwas weitergeben: einerseits genetisch. Andererseits per Vormachen und Nachmachen, also mit Trial and Error arbeiten.

Wir machen also den neuronalen Netzwerken Sachen vor?

Darf ich dazu mal ausholen?

Sehr gerne.

Gut. Hier die kurze Geschichte von KI: Anfangs dachte man, dass es für jedes Problem eine Antwort gibt: das sogenannte Expertensystem. Aber das war Quatsch. Man sah ein, dass es für Probleme auch mehrere Antworten geben kann. Da war man dann beim „Reasoning“. Die Schwierigkeit beim Reasoning ist aber, dass ich mir die Welt nicht richtig in ihrer Gesamtheit erschließen kann, wenn ich ausschließlich logisch arbeite. Denn es gibt ja völlig widersprüchliches Wissen. In einem rein logischen System allerdings darf es nichts geben, was sich widerspricht.

Das alles basiert übrigens auf der Chaostheorie. Die lautet in zwei Sätzen zusammengefasst: Erstens ist garantiert alles komplett vorhersagbar, wenn man alle Parameter kennt. Zweitens: Die Wahrscheinlichkeit, dass man alle Parameter kennt, ist gleich null. Mit dieser Vorgabe ist es plötzlich total okay, widersprüchliches Wissen zu haben. Dieser zweite Schritt von KI, also das „Problem Solving“, ist die Art von Reasoning, in dem logische Widersprüche erlaubt sind. Dazu gehört, dass man nicht immer alles weiß, dass man auf falschen Annahmen arbeitet und sich unterwegs das Ziel ändert. Der erste Schritt ist aber die Verwertung unstrukturierter Daten, wie die Verarbeitung mit Sinnesorganen und von Mustern: Das macht man mit Deep Learning.

Vom Ziel abweichen klingt menschlich.

Sehr, oder? Menschen können mit solchen permanenten Abweichungen sehr gut umgehen. Wenn man also eine volle KI haben will, muss man in der Lage sein, auch dies alles Maschinen beizubringen.

Auf der nächsten Seite geht es weiter mit Ethik, Rassistenbots und Gefahren von KI.


Das können wir Dir auch empfehlen

placeholder
placeholder