Fördert KI die Ungleichheit der Menschen? #KI #GLEICHBERECHTIGUNG #DIVERSITÄT

Aktuell wird das Thema Gleichberechtigung der Geschlechter in den deutschen Medien sehr stark diskutiert. Nicht erst seit der Erscheinung einer Onlinebefragung von Plan International ist deutlich, dass es on- aber auch offline noch ein weiter Weg ist, um Männer und Frauen gleichwertig zu behandeln.

Die jetzige Generation junger Erwachsener verwendet KI bereits ganz natürlich im Alltag. Hier gibt es weniger Berührungsängste und Vorurteile als in den älteren Generationen. Über den Umgang mit Künstlichen Intelligenzen in underem beruflichen Alltag berichteten wir bereits hier im Artikel “Sind KIs die besseren Arbeitnehmer?” oder auch hier in unserem Beitrag “KI = Supermensch? Ein Experiment”. Umso erschreckender ist es da zu erfahren, wie diskriminierend ganze Menschengruppen von KIs behandelt werden sollen und welches Rollenbild junge Männer zwischen 18 und 35 Jahren heute noch verinnerlicht haben.

KIs lernen aus dem, was wir ihnen als Input geben. Sie sind nicht von sich aus rassistisch, frauenfeindlich oder homophob, sondern erzeugen nur Ergebnisse aus den Werkzeugen, die Entwickler:innen und nun auch User:innen ihnen reichen. Mangelnde Vielfalt bei Daten, Programmierteams und auch technischen Ansätzen führen zu verzerrten Ergebnissen der Künstlichen Intelligenzen. Marginalisierte Gruppen sind noch heute in der Erforschung und Gestaltung der Technologien unterrepräsentiert. Anders gesagt bedeutet dies, dass ihre Erfahrungen und Wissensbereiche in der Entwicklung Künstlicher Intelligenzen und deren maschinellem Lernen fehlen.

Um zu verhindern, dass neue Technologien einseitig männlich, heterotiv und bspw. weiß geprägt werden, braucht es diversere Entwicklungsteams als es sie bislang gab. Aber wo fängt man da nur an…

Um Gleichberechtigung aller Menschen in der Technologie zu erreichen, muss zunächst erkannt werden, dass diese nicht vorliegt. Hier nur einige Beispiele, in denen Darstellungen ganzer Menschengruppen durch Technologien verzerrt werden.

  • Medizinische Diagnosen werden häufig aus Daten generiert, die auf männlichen Patienten beruhen. Hier kann es für Frauen gefährlich werden, denn sie erhalten dadurch häufiger Fehldiagnosen, falsche Medikamente oder eine lebensgefährliche Dosierung.
  • Googles Spracherkennungssoftware erkennt männliche Stimmen zu 70% besser als Weibliche. Frauen und andere Menschen mit tendenziell höheren Stimmlagen können diese Technologien also nicht uneingeschränkt nutzen.
  • Whistleblower berichteten davon, dass Algorithmen von META so programmiert wurden, dass sie die Sichtbarkeit von Inhalten schwarzer Menschen drosseln. Für schwarze Content Creater und andere POC bedeutet dies zum Beispiel finanzielle Einbußen, aber auch ein Gefühl des Nicht-gesehen-Werdens.
  • Apples eigene Kreditkarten benachteiligen Frauen bei der Vergabe von Kreditrahmen, auch wenn finanzielle Hintergründe identisch mit denen von Männern waren.
  • Die Rollenverteilung von KIs kann diskriminierend verstanden werden: Sprachassistenzen wie Siri, Alexa oder Cortana haben in der Regel eine weibliche Stimme. Wissensvermittelnde oder lehrende Software hat hingegen häufig eine männliche Stimme.
  • Hier auch ein analoges Beispiele, welches Diskriminierung durch Technologie zeigt: Automatische Seifenspender reagieren auf die Reflektierung des Lichts auf Haut. Bei der Entwicklung dieser Seifenspender wurde bei vielen Herstellern nur mit heller Haut getestet. Bei Menschen mit dunklerer Haut wird nicht genug Licht reflektiert, so dass der Sensor nicht reagiert und somit keine Seife spendet.

Allgemein kann gesagt werden, dass wenn KI in der Vergabe von Arbeitsplätzen, Finanzdienstleistungen oder Ausbildungen, aber auch in der Entwicklung analoger Technologien eingesetzt wird, ohnehin schon unterprivilegierte Personen noch weiter benachteiligt werden.

Haben wir erkannt, dass es eine problematische Entwicklung der KIs gibt, sollten die großen Tech-Unternehmen, die Politik, aber auch wir als Gesellschaft versuchen, die Ungleichberechtigung aufzubrechen. Das gelingt aus Sicht unterschiedlicher Wissenschaftler nur, wenn mehr Frauen in der Gestaltung von Technologien aktiv und in den MINT-Bereichen generell (Mathematik, Informatik, Naturwissenschaften und Technik) tätig werden. Dies würde nicht nur für mehr Gleichberechtigung sorgen, sondern auch eine bessere Generalisierbarkeit und Qualität der Forschungsergebnisse liefern.

Die UNESCO hat deshalb ein Netzwerk aus Expert:innen geschaffen. Bei Women4Ethical AI sollen sich 17 anerkannte Expert:innen aus Wissenschaft, Zivilgesellschaft, Wirtschaft und Regulierungsbehören zu aktuellen Forschungsergebnissen austauschen, Referenzrahmen schaffen und Regierungen sowie Unternehmen beraten. Dadurch sollen diskriminierende Ergebnisse von KIs in allen Bereichen besser erkannt und korrigiert werden. Weiter soll die UNESCO-Plattform diskriminierungsfreie Algorithmen und Datenquellen fördern und Anreize für Frauen und andere unterrepräsentierte Gruppen schaffen, sich an KI zu beteiligen. Denn bis heute sind weltweit nur 20% der Angestellt:innen in technischen Funktionen für maschinelles Lernen, 12% der weltweiten Forscher:innen im Bereich KI und nur 6% der Softwareentwickler:innen Frauen.

Dies bestätigt auch der Global Gender Gap Report des World Economic Forums von 2018. Eine Studie des Deloitte AI Institute spricht von 26% beschäftigter Frauen in der KI-Entwicklung im Jahr 2020. In Deutschland liegen die Zahlen noch darunter, weshalb auch die Bundesregierung Schritte unternehmen muss, um Frauen in Forschung und Entwicklung zu fördern und marginalisierte Gruppen zu schützen. Dafür sollen Frauen und Mädchen von der Kita bis hin zur Hochschule gefördert werden. In Kitas und Schulen werden daher teils schon seit Jahren Projekte umgesetzt, wie das Haus der kleinen Forscher, der Girls´ Day oder auch YouCodeGirls. Der MINT-Aktionsplan 2 will darüber hinaus die Kooperation von Schulen und Unternehmen ausbauen, aber auch Eltern dabei unterstützen, ihre Kinder für eine Ausbildung oder ein Studium der MINT-Fächer zu begeistern. Für junge Menschen ist es wichtig, Vorbilder zu haben, die ihre Interessen vertreten und in der Gesellschaft sichtbar sind. Hier stehen Initiativen wie ShetransformsIT oder Women in AI für junge Mädchen ein.

Aktuell arbeitet der Bundestag drei neue Pakete aus, um digitales Leben für die ganze Gesellschaft besser und sicherer zu machen. Ein erstes Paket ist bereits 2022 vom Europäischen Parlament veröffentlicht worden, der Digital Service Act. Darin ist festgelegt, dass KI-Systeme, die Menschen diskriminieren, verboten werden sollen. Den entwickelnden Unternehmen drohen außerdem Geldstrafen. Fraglich ist jedoch, wie hilfreich dies ist. Denn Unternehmen sollen selbst bewerten können, ob sie risikoreiche KIs entwickeln. Eine unabhängige Kontrollstelle ist nicht vorgesehen.

Es scheint, als wären sich Entscheidungsträger:innen global einig, dass Sensibilisierung, Bildung und Diversität der Schlüssel sind, um Ängste und Vorurteile abzubauen und dass nur so auch KI besser werden kann. Bleibt zu hoffen, dass Künstliche Intelligenz in Zukunft als Waffe gegen Diskriminierung genutzt wird und diese nicht weiter verstärkt.

Sie möchten die neuesten Technologien mitentwickeln und für mehr Gleichberechtigung im digitalen Leben sorgen? Dann suchen wir vielleicht genau Sie!

Let´s get in touch!

Quellen: