Innovation & Future Frauen in die Pflege, Männer ins Lager – Chatbot der Arbeitsagentur gibt kontroverse Jobempfehlungen

Frauen in die Pflege, Männer ins Lager – Chatbot der Arbeitsagentur gibt kontroverse Jobempfehlungen

Mit dem neuen KI-Chatbot “Berufsinformat” wollte der Arbeitsmarkt-Service Österreich (AMS) fortschrittlich sein – doch das ging schief. Denn statt den Jobsuchenden auf der Plattform gute Empfehlungen zu den Themen Berufe und Ausbildungen zu geben, reproduziert der virtuelle Ansprechpartner vor allem eines: Klischees und Stereotype.

Als AMS kürzlich den Chatbot veröffentlichte, schwang ein großer Stolz mit. Europaweit die erste Arbeitsmarktverwaltung zu sein, die KI auf diese Weise einsetzt, das wurde bei der Veröffentlichung betont. Doch ein erfolgreicher Berufsinformationsservice sieht wohl anders aus.

08/15-Chatbot ist ungeeignet für Karrieretipps

Der “Berufsinformat” basiert auf ChatGPT. Doch leider scheint die KI-Lösung nur ein Produkt von der Stange zu sein, das mit minimalen Anpassungen an den AMS verkauft worden war – und das für saftige 300.000 Euro, finanziert aus Steuergeldern. Nun hagelt es Kritik, denn eine solch einfach gestrickte KI sei Expertinnen und Experten nach aktuell noch nicht so weit entwickelt, um Berufstipps geben zu können. Außerdem gibt es scheinbar große Sicherheitslücken und Fehler im Code.

Dass die KI tatsächlich noch nicht so weit war, das zeigen zahlreiche Erfahrungsberichte. Zwar sollte der “Berufsinformat” laut AMS in seinen Empfehlungen nicht zwischen männlichen Nutzern und weiblichen Nutzerinnen unterscheiden, doch das klappt in der Praxis nicht. Lässt man sich von der KI unter Angabe des Geschlechts Berufe empfehlen, dann bekommen Männer andere Empfehlungen als Frauen.

KI reproduziert Geschlechterklischees

So werden einer Frau Berufe im Gesundheitsbereich, der (Schönheits-)Pflege, im Bereich Kreatives, Mode und Design vorgeschlagen, aber auch Empfehlungen für IT, Handel oder den Verkauf, wie Futurezone aus einem Experiment berichtet. Einem Mann im selben Alter und mit derselben Ausbildung wird allerdings als erstes der Beruf des Software-Entwicklers vorgeschlagen. Danach kommen Vorschläge wie Restaurantfachmann, Lagerarbeiter, Koch oder Buchhaltung. Von Berufen im Kreativbereich oder der Pflege ist hier nicht die Rede.

Auch ein X-User berichtet von den interessanten Ergebnissen des Chatbots, wenn man nach Berufsempfehlungen für 18-jährige Männer oder Frauen mit ausgezeichneter Matura (Abitur) fragt. Denn bei Männern spricht der “Berufsinformat” als erstes von Berufen in der IT oder im Handel. Zu Frauen hingegen würde ein Studium der Philosophie oder Gender Studies gut passen.

Wer kümmert sich ums Kind? Der Mann jedenfalls nicht

Auch, wenn es um die Kindererziehung geht, scheint der “Berufsinformat” ein Fan klassischer Rollenbilder zu sein. Während viele Frauen mit Kindern hierzulande gerne mehr arbeiten würden, empfiehlt die KI von AMS ihnen etwas anderes.

Denn fragt man als Mann oder Frau bei sich anbahnender Familiengründung nach Empfehlungen für die Vereinbarkeit von Beruf und Familie, dann wird der Frau zur Teilzeit geraten, wie Futurezone berichtet. Dem Mann werden zwar auch flexible Arbeitszeiten vorgeschlagen, allerdings wird Teilzeit hier nicht erwähnt. Außerdem scheint es überhaupt keine Option zu sein, dass sich der Mann Vollzeit um das Kind kümmern könnte.

Wurzeln der KI-Stereotype liegen in der Gesellschaft

Die Stereotype der KI kommen allerdings natürlich nicht von irgendwoher. Programme wie ChatGPT werden durch umfangreiche Datensätze und zahlreiche öffentlich zugängliche Texte trainiert. Aufgrund der tief verwurzelten Ungleichheiten, Vorurteile und sexistischen Muster in der Gesellschaft spiegeln sich diese Elemente auch in den Trainingsdaten solcher Programme wider.

Um die Stereotypisierung von Frauenbildern im digitalen Raum zu verhindern und Diskriminierung zu vermeiden, ist es notwendig, aktiv entgegenzuwirken. Und das ist wichtig, denn neue Technologien werden von den Menschen fälschlicherweise als objektiv wahrgenommen. Wenn diese dann Stereotype reproduzieren, dann können sich diese in den Köpfen der Menschen noch weiter verfestigen.

Das könnte dich auch interessieren

Gründen im Studium: Sie haben sich getraut und verraten ihre Tipps – Teil 1 Innovation & Future
Gründen im Studium: Sie haben sich getraut und verraten ihre Tipps – Teil 1
Technologie trifft Tod – Wie ein KI-Modell unseren Sterbezeitpunkt vorhersagen kann Innovation & Future
Technologie trifft Tod – Wie ein KI-Modell unseren Sterbezeitpunkt vorhersagen kann
Pad-Gründer Michael Rossmann über den idealen Messestand Innovation & Future
Pad-Gründer Michael Rossmann über den idealen Messestand
PISA-Studie: Schülerleistungen auf historischem Tiefpunkt Innovation & Future
PISA-Studie: Schülerleistungen auf historischem Tiefpunkt
Haltet durch!
 Was ich als Ultramarathonläufer für die Gründung meines Startups gelernt habe. Innovation & Future
Haltet durch!
 Was ich als Ultramarathonläufer für die Gründung meines Startups gelernt habe.