Kann künstliche Intelligenz vorurteilsfrei sein?

Gegenwärtige künstliche Intelligenz fördert Vorurteile. Wie lässt sich das ändern? Dies zeigte Gülser Corat, die langjährige UNESCO-Direktorin für Geschlechtergleichstellung, an einem Symposium der Uni Bern zum Thema Voreingenommenheit auf.

uniAKTUELL: Frau Corat, als Sie bei der UNESCO waren, haben Sie dazu geforscht, ob virtuelle Assistenten wie Siri von Apple oder Alexa von Amazon geschlechtsspezifische Vorurteile aufweisen. Was haben Sie herausgefunden?

Gülser Corat: 2019 hatten über 90 Prozent der Sprachassistenten weibliche Stimmen, Namen und Persönlichkeiten. Einige Firmen gehen davon aus, dass Menschen in den kommenden Jahren mehr Gespräche mit digitalen Assistenten führen werden als mit ihren Ehepartnern. Und da die meisten Sprachassistenten als weiblich, gehorsam und zuvorkommend dargestellt werden, wird das Signal gesendet, dass Frauen fügsame und willige Helferinnen sind, die auf Knopfdruck oder mit einem plumpen Befehl wie «Hey» verfügbar sind.

Was hat das mit Künstlicher Intelligenz (KI) zu tun?

Diese «Unterwürfigkeit» der virtuellen Assistentinnen veranschaulicht die geschlechtsspezifischen Vorurteile, die in KI-Produkten kodiert sind, und beeinflusst sowohl, wie Menschen mit weiblichen Stimmen sprechen, als auch, wie Frauen auf Anfragen reagieren und sich ausdrücken. Um den Kurs zu ändern, müssen wir viel genauer darauf achten, wie, wann und ob KI-Technologien vergeschlechtlicht werden, und – ganz entscheidend – von wem.

Woher kommen diese Vorurteile?

Neue Technologien wie die KI werden von uns, den Menschen in unserer heutigen Gesellschaft, entwickelt. Daher spiegeln sie die Gesellschaft, ihre Werte, Vorurteile und Verzerrungen wider. All diese Informationen fliessen als Daten in das Training einer KI beziehungsweise in die Programmierung der Algorithmen für eine bestimmte Aufgabe ein.

Das Problem sind also voreingenommene Daten?

Ja, das ist richtig. Unausgewogene Daten sind ein grosses Problem. Das heute am häufigsten verwendete KI-Modell ist das sogenannte «datengesteuerte maschinelle Lernen», und dieses Modell verwendet riesige Datenmengen, von denen die meisten aus dem Internet stammen. Ein Beispiel dafür ist die geschlechterspezifische Verzerrung in den Daten von Wikipedia: Nur 17 Prozent der Wikipedia-Seiten über Menschen handeln von Frauen.

Gibt es eine Möglichkeit, dem entgegenzuwirken?

Mit dem Think Tank «No Bias AI?», den ich 2022 gegründet habe, erforschen wir ein anderes Modell, das als «wissensbasiertes maschinelles Schlussfolgern» bezeichnet werden kann. Dessen Vorteil besteht darin, dass Datensätze nicht das entscheidende Element in der Entwicklung sind und dass sie ein Problem in seinen Kontext «verstehen» können. Die Ergebnisse sind daher erklärbar und begründbar – im Gegensatz zu der «Blackbox», die das maschinelle Lernen oft darstellt.

«Neue Technologien prägen die Werte, die wir vertreten, mit. Es ist wichtig, dass wir darauf achten, wie sie entwickelt und umgesetzt werden.»

 

 

Und über diesen technischen Ansatz hinaus?

Einige Empfehlungen, die wir in unserem Bericht «I'd blush if I could» aufzählen, sind: digitale Assistenten nicht mehr generell weiblich machen, ein neutrales «Maschinengeschlecht» für Sprachassistenten entwickeln, geschlechterspezifische Beleidigungen und Beschimpfungen unterbinden und Frauen und Mädchen gezielt in technischen Fähigkeiten zu fördern, damit sie gemeinsam mit Männern die Entwicklung neuer Technologien lenken können.

Wieso ist Ihnen «Bias» ein so wichtiges Thema?

Ich bin sehr besorgt darüber, dass KI-Technologien in grossem Umfang eingesetzt werden, ohne dass ein gründliches Verständnis der Folgen und der Auswirkungen dieser Technologien auf Menschen und Gesellschaft vorhanden ist. Darin kodierte Vorurteile betreffen nicht nur das Geschlecht, sondern auch Rasse, ethnische Zugehörigkeit, Religion, sozioökonomische Faktoren, Alter und Behinderung. Umgekehrt prägen neue Technologien auch die Werte, die wir vertreten. Daher ist es wichtig, dass wir darauf achten, wie sie entwickelt und eingesetzt werden.

uniAKTUELL-Newsletter abonnieren

Entdecken Sie Geschichten rund um die Forschung an der Universität Bern und die Menschen dahinter.

Zur Person

Gülser Corat

war von 2004 bis 2020 Direktorin für Geschlechtergleichstellung bei der UNESCO. 2019 veröffentlichte sie die wegweisende Studie «I'd Blush if I Could: Closing Gender Divides in Digital Skills in Education», die weitverbreitete unbeabsichtigte geschlechtsspezifische Vorurteile bei den beliebtesten virtuellen KI-Assistenten aufzeigte. Für ihre Folgestudie «Artificial Intelligence and Gender Equality» (Künstliche Intelligenz und Gleichstellung der Geschlechter) wurde sie in die Liste der 100 Most Influential People in Gender Policy 2021 aufgenommen. 2022 gründete sie den globalen Think Tank No Bias AI? mit zwei Zielen: Einen möglichen Paradigmenwechsel in der KI vom datengesteuerten maschinellen Lernen hin zum wissensbasierten maschinellen Schlussfolgern sowie die Bekämpfung geschlechtsspezifischer Vorurteile in KI-Algorithmen und -Datensätzen durch die Entwicklung von Gender-Audit-Tools. Gülser Corat ist eine TED- und internationale Keynote-Speakerin und Mitglied von Women Executives on Boards und Extraordinary Women on Boards.

Oben