KI weist euch anhand eures Aussehens Schlagworte zu

Schubladendenken oder Vorverurteilung auf Grund des Aussehens? Sollte uns so selten wie möglich passieren. Immerhin wollen wir aufgeklärte, weltoffene Menschen sein, die sich stets ins Gedächtnis rufen, dass ausschließlich die inneren Werte zählen sollten. Ganz im Gegensatz zu künstlichen Intelligenzen. Die arbeiten ohne emotionale Erfahrungen und ignorieren jegliche Moral.

Wer schon immer einmal wissen wollte, wie eine KI, die ihr Wissen aus einem Datensatz an Bildern nimmt, das eigene Aussehen kategorisiert, kann auf ImageNet Roulette ein Bild von sich hochladen. Nach einer kurzen Wartezeit spuckt die KI passende Schlagwörter aus, die mit ähnlichen Bildern aus der Datenbank verknüpft sind aus.

KIs agieren empathielos

Dass KIs jedoch nicht immer politisch und ethisch korrekt agieren, hat schon 2016 der Twitterbot „Tayandyou“ aus dem Hause Microsoft gezeigt. Durch Interaktionen mit anderen-Twitter Usern sollte der Bot lernen, wie ein Mensch zu interagieren. Stattdessen hat der Bot nach ein paar Stunden hasserfüllte Tweets wie „I fucking hate feminists and they should all die and burn in hell“ abgesetzt.

Auch die künstliche Intelligenz der ImageNet Roulette Webseite agiert auf Grund der gespeicherten Datensätze teilweise rassistisch und abwertend. So werden beispielsweise Schwarze Mädchen als Waisenkinder kategorisiert.

Bis KIs Moral und Empathie lernen, ist es eben noch ein langer Weg. Sei also nicht allzu enttäuscht, sollte die Webseite dich als Obdachlose*n oder Junkie abstempeln.


Business Punk Redaktion

Hier schreibt die Business-Punk-Redaktion. Mal er, mal sie, mal gar keiner. Ach und kauft unser Heft! Danke.

Zum Autor

Das können wir Dir auch empfehlen

placeholder
placeholder
placeholder