Skip to main content
let's make IT happen

Die Daten sind nie neutral – diskriminierende künstliche Intelligenz?

Sie ist Krankenschwester, er ist Arzt. Sie ist Dentalhygienikerin, er Zahnarzt. Handelt es sich bei beiden Beispielen um Klischees? Für Algorithmen ist dies nicht relevant. Sie funktionieren anders: Mit Daten aus dem Internet und der Literatur werden sie gefüttert. Dabei bilden sie die Welt inklusive aller bestehenden und vergangenen Verzerrungen und Ungerechtigkeiten ab.

Die obigen Beispiele kommen bei Übersetzungen mit Google-Translate zustande. Da in der Schweiz tatsächlich 99% aller Dentalhygienikerinnen Frauen sind, könnte man argumentieren, dass dies durchaus plausibel ist. Allerdings wird damit auch ein Stereotyp zementiert, was nicht nur unbewusst zu einer entsprechenden Berufswahl führen kann, sondern gezielt durch potentiell von Algorithmen gesteuerten Berufsvorschlägen.

Nicht nur Suchvorschläge werden beeinflusst. Zahlreiche Beispiele, bei denen Übersetzungen schlichtweg falsch sind, zeigen die heutigen Grenzen der Technologie auf: Noch vor 2 Jahren übersetzte Google-Translate "Pflegepersonal" mit "infirmière", also der weiblichen Form. Google gelobte Besserung und kam dieser Forderung nach. Zumindest teilweise. "The nurse" wird immer noch mit die "Krankenschwester" übersetzt. Frauen arbeiten häufiger in der Pflege, der Algorithmus reproduziert die Muster in den vorhandenen Daten und stellt die Suchresultate aufgrund dieser Erkenntnisse zur Verfügung.

Bei den Big Tech besteht die Welt aus Daten und Daten sind neutral. Mit genügend Daten könnte die Welt im Prinzip erklärt werden, ohne sie genau zu verstehen - in der Theorie!

Neutrale Daten gibt es jedoch nicht. Künstliche Intelligenz (KI) trifft Entscheidungen und macht Vorschläge aufgrund von Datensätzen, die die Welt abbilden, inklusive aller Makel. Zu Verzerrungen kommt es unter anderem auch, weil Algorithmen auf den sogenannten "Standard-Mensch" ausgelegt sind: Weiss, männlich, heterosexuell.

KI kann auch direkten Einfluss auf das Leben von Menschen haben: Ein trauriges Beispiel dafür ist das Amerikanische "Compas" System, welches Schwarze bei der Haftentlassung überproportional benachteiligt hat. Es stellt sich jetzt die Frage, ob bei ethisch fragwürdigen Ergebnissen von Algorithmen die Daten beispielsweise angepasst oder vorselektiert werden müssten. Diese Frage wird erwartungsgemäss sehr schnell politisch. Ausserdem ist die Nachvollziehbarkeit gerade bei KI-System nicht immer gegeben.

Erschwerend kommt hinzu, dass von Künstlicher Intelligenz belastete Daten (beispielsweise Übersetzungen) in den globalen Datenfluss einfliessen. Ungerechtigkeiten und Verzerrungen als Output von KI-Systemen verstärken sich somit selbst.

Warum Daten nie neutral sind:

https://www.republik.ch/2021/04/06/warum-kuenstliche-intelligenz-immer-ideologisch-ist

Dany Benz, Senior Software Entwickler und Mitinhaber, INTEGRATE Informatik AG