Productivity & New Work “Wir haben die Wahl, ob wir so dumm sind, uns von solchen Systemen abhängig zu machen“

“Wir haben die Wahl, ob wir so dumm sind, uns von solchen Systemen abhängig zu machen“

Gefahren der KI

Beim Turing-Test geht es ja auch nur um die Nachahmung oder die Simulation von Intelligenz.

Richtig. Das ist eine interessante philosophische Frage. Philosophen sagen, dass es keine Garantie gibt, dass ich beweisen kann, dass Sie da drin sind, wenn Sie mich anschauen. Aber mal abgesehen von den philosophischen Rätseln – ich denke nicht, dass unsere KI dieses Problem in den nächsten 20, 30, 40 Jahren lösen wird.

Dennoch kann KI ja auf spezialisierte Weise sehr intelligent sein. Sie schlägt uns in Schach, Go usw. ist KI schlau genug, um gefährlich zu sein?

Ja. Wir haben die Wahl, ob wir so dumm sind, unser Schicksal von solchen Systemen abhängig zu machen, ohne dass menschliche Entscheidungen einbezogen sind. Militärische Systeme vollständig zu automatisieren, das ist eine beängstigende Vorstellung, oder das Bestimmen von Strafmaßen durch Algorithmen. Wir machen uns heute schon Sorgen um solche Fragen, wenn es etwa darum geht, wer entscheidet, wie kreditwürdig wir sind. Es gibt sicherlich Gefahren. Die frühe Geschichte dieses Themas entstammt Konflikten. Ob es das Entschlüsseln von Nachrichten ist oder selbstgesteuerte Waffen. Die Idee war, Technologie vorausschauend handeln zu lassen.

Wie müssten Kontrollen von KI aussehen?

Da werden wir viele Debatten führen, die sich um Regulierung, staatliches Handeln und Ethik drehen. Je mehr Konzernkonzentration wir sehen, Datenmonopole zum Beispiel, kommt die Frage auf, wie man regulieren kann, dass einzelne Unternehmen nicht übermächtig werden. Werden Entscheidungen angemessen und gerecht getroffen?

Reden wir zu viel über die Gefahren der Technologie, wenn wir über die Gefahren der Technologieunternehmen reden sollten?

In die Hände sehr weniger Menschen fallen da Entscheidungen, die uns alle betreffen. Angefangen mit den Steuern – und es ist schön, große Wohltätigkeitsorganisationen auf den eigenen Namen zu taufen. Aber ehrlich gesagt, warum haben sie die größte Ahnung, wie dieses Geld ausgegeben werden sollte? Wenn wir diese Organisationen ernst nehmen sollen, müssen sie die öffentlichen Institutionen respektieren. Es ist nicht genug, nichts Böses zu tun und ein wenig Gutes. Wenn man überlegt, was es bedeutet, Gutes zu tun, dann ist es: kein Trittbrettfahrer sein. Es bedeutet, das Bestimmungsrecht der Menschen über ihre Daten zu respektieren. Es bedeutet, einen Teil der Daten, nicht-persönliche, gemeinfrei zu veröffentlichen. Deswegen unterstützen Tim Berners Lee und ich die Open Data Initiative. Riesige Innovation ist möglich, wenn wir alle an bestimmte Daten kommen können.

Wie würde das funktionieren?

Im Grunde genommen als Genossenschaften mit Abkommen, sich digitale Güter zu teilen, Patente und andere Dienstleistungen. Die könnten in einer an Zünfte angelehnte Art zur Verfügung gestellt werden.

Es gibt interessante Beispiele für Peer-to-Peer-Modelle oder Data Trusts, wo die Daten vor späterer Privatisierung geschützt sind. Daten sind eine neue Art von Infrastruktur. Wenn sie ganz in privaten Händen landen, sollte uns das besorgt machen.

Seite 2 / 3
Vorherige Seite Nächste Seite

Das könnte dich auch interessieren

Glücklicher im Job – mit diesen 7 Tipps Productivity & New Work
Glücklicher im Job – mit diesen 7 Tipps
ChatGPT mit menschlichen Sinnen ausgestattet Productivity & New Work
ChatGPT mit menschlichen Sinnen ausgestattet
Erholung adé: Warum Arbeit im Urlaub immer üblicher wird Productivity & New Work
Erholung adé: Warum Arbeit im Urlaub immer üblicher wird
Toxisches Arbeitsumfeld – Wie man es erkennt und sich daraus befreit Productivity & New Work
Toxisches Arbeitsumfeld – Wie man es erkennt und sich daraus befreit
Warum regelmäßige Pausen für Produktivität unerlässlich sind Productivity & New Work
Warum regelmäßige Pausen für Produktivität unerlässlich sind