“Wir haben die Wahl, ob wir so dumm sind, uns von solchen Systemen abhängig zu machen“

Nigel Shadbolt ist Professor an der Universität Oxford. Der studierte Informatiker gründete mit Tim Berners-Lee, dem Erfinder des Internets, das Open Data Institute. Eine NGO, die sich für die öffentliche Verwendung von frei verfügbaren Daten stark macht.

Herr Nigel, was ist die schlaueste KI, die es schon gibt?

Es gibt sehr interessante Entwicklungen unter dem Namen „deep neural networks“. Ich denke ein Grund für den derzeitigen Enthusiasmus ist, dass diese Technologie Probleme lösen kann, die andere nicht lösen konnten. Aufgaben, die sehr datenintensiv sind: Gesichtserkennung, deterministische Brettspiele wie Go, auch Bildanalyse wie zum Beispiel in der Krebsdiagnose. Dazu die Tatsache, dass man KIs nun gegeneinander antreten lassen kann, sogenannte „generalized adversarial networks“. Die zeigen wirkliche schnelle Lernkurven. Die Herausforderung ist, diese Elemente zu verknüpfen, um sie breiter anwendbar zu machen.

Aber trotzdem glauben Sie nicht, dass KI uns überflüssig machen wird?

Nein, denn KI ist normalerweise ein Leistungsverbesserer. Wenn wir uns die KI der Routenplaner auf unseren Smartphones anschauen – wir betrachten das heute kaum noch als KI – die lassen den Verkehr flüssiger laufen. Aber das ist nur Teil der Tradition, manche Aufgaben Maschinen zu übertragen, und für uns selbst eine andere Beschäftigung zu finden.

KI bleibt also ein Werkzeug des Menschen?

So habe ich immer darüber gedacht. Es gibt tiefe philosophische Fragen dazu, ob diese Systeme einige Attribute des menschlichen Geistes erlangen können. Aber zumindest in der absehbaren Zukunft bleibt es ein Werkzeug. Wir sind es, die Alexa oder Google Home soziale und emotionale Attribute zusprechen.

Aber das ist nur unsere Interpretation?

Genau. Wir können den Systemen einige soziale Reize vermitteln, aber das bleibt im Kern eine algorithmische Reaktion.

Ist also keine „starke KI“ zu erwarten, also eine mit menschenähnlichem Bewusstsein?

Nicht in dem Zeitrahmen, der teilweise angesetzt wird. Das ist weit weg. Man kann auf viele Arten intelligent sein, die nicht unserer Intelligenz entsprechen. Wir werden eine Welt mit vielen dieser sehr eingeschränkten, aufgabenbezogenen KIs erschaffen, aber sie werden nicht selbstreflektiert sein.

Können wir menschliche Intelligenz nicht nachbauen, weil wir sie zu wenig verstehen?

Ja, das tun wir nicht. Es ist interessant, da die Neurowissenschaft zu betrachten. Das ist ein Grundproblem, für das es verschiedene Formulierungen gibt. Vielleicht ist es alles ein Spiegelkabinett und wir machen uns etwas vor. Aber es fühlt sich nicht so an, wir vermuten ja doch, dass da jemand zu Hause ist, in den Menschen, mit denen wir interagieren. Es bleibt ein Mysterium. Ich bin sicher, dass unsere Technologien in Zukunft den Turing-Test bestehen werden. Aber das ist Verhaltensäquivalenz, also bloß „ich kann es nicht sicher einordnen.“ Es ist weit weg von den Fragen nach den Rechten der KI und ihren Gefühlen.


Das können wir Dir auch empfehlen

placeholder
placeholder
placeholder