#BreakTheBias ist das Motto des heutigen internationalen Weltfrauentags. Gemeint ist in diesem Fall der Gender Bias (also die verzerrte Wahrnehmung von Gender z.B. durch Vorurteile). Das Motto steht somit für den aktiven Einsatz gegen ungleiche Behandlung von Frauen. Denn auch wenn die Ungleichheit zwischen den Geschlechtern von Jahr zu Jahr geringer wird, ist Gender Bias weiterhin in vielen Bereichen des Lebens spürbar. Oft wird dabei von „Gaps“ (dt. Lücken) in der Gesellschaft gesprochen: eine der bekanntesten Gaps ist vermutlich der Gender Pay Gap (das geschlechtsspezifische Lohngefälle). In diesem Beitrag soll es jedoch um einen anderen, lange übersehenen Gap gehen, den Gender Data Gap. Er beschreibt den Mangel an Daten über Frauen (und geschlechtliche Minderheiten) und hat Auswirkungen auf alle Bereiche des Lebens. Auch im Kontext von Künstlicher Intelligenz (KI) ist dies relevant: für einen möglichst erfolgsversprechenden Einsatz von KI sollten immer alle Arten von Datenlücken geschlossen werden.
Dieser Artikel beschäftigt sich damit, warum KI (und dadurch auch das Unternehmen, das die KI einsetzt) von einer Überwindung des Gender Data Gaps profitieren kann und welche Voraussetzungen geschaffen werden müssen, um die Lücken zu schließen.
Unsichtbare Frauen
„For too long we have positioned women as a deviation from standard humanity and this is why they have been allowed to become invisible. It’s time for a change in perspective. It’s time for women to be seen.“ (Perez, 2019)
Bei der Erhebung von Daten wurden Frauen und geschlechtliche Minderheiten in der Vergangenheit oftmals nicht ausreichend berücksichtigt (vgl. Azcona und Duerto Valero, 2018). Seit einigen Jahren wird von vielen Seiten auf die Diskrepanzen aufmerksam gemacht. Nach und nach werden immer mehr Datenlücken aufgedeckt und an ihrer Beseitigung gearbeitet. Der Gender Data Gap ist beispielsweise eines der Themen der 17 Nachhaltigkeitszielen der UN (vgl. Buviniv und Levine, 2016).
Dennoch führt der Gender Data Gap weiterhin zu verzerrten Ergebnissen. Manche Beispiele mögen banal scheinen, andere haben jedoch schwerwiegende Folgen z.B. für die Gesundheit von Frauen. Fehlende Daten im Bereich Arbeitssicherheit, in der Medizin oder im Produktdesign führen dazu, dass Frauen häufiger und schwerer verletzt werden als Männer oder krank und nicht adäquat behandelt werden.  Die Probleme und Gefahren ziehen sich durch alle Lebensbereiche von Frauen, doch auf Grund der mangelnden Daten können die Ursachen nicht immer belegt und behoben werden (vgl. Perez, 2019, 113ff.).
Im nächsten Abschnitt wird sich zeigen, wie sich der Data Gap speziell in KI-Anwendungen ausdrückt. In diesem spezifischen Bereich sind Wissenschaftler:innen in Bezug auf Bias zu interessanten Erkenntnissen gekommen.
KI und Gender Data Gap
Mein Kollege und KI-Experte, Florian Schneider, hat bereits in einem vorherigen Blogbeitrag sehr treffend beschrieben: „Um einen effektiven Einsatz von KI möglich zu machen, muss zunächst eine solide Datengrundlage geschaffen werden.“ In zahlreichen Beispielen hat sich gezeigt, dass KI-Systeme, die mit lückenhaften Datensätzen trainiert werden, fehlerhafte Ergebnisse liefern. Wird eine KI auf der Grundlage von Daten entwickelt, die Frauen fehlerhaft oder gar vorurteilsbehaftetet darstellen, kann es passieren, dass der entstehende Gender Bias von der KI reproduziert wird. Oder noch schlimmer, wie Caroline Criado Perez in ihrem Bestseller-Buch „Invisible Women: Exposing Data Bias in a World Designed for Men“ beschreibt, der Bias wird sogar verstärkt. Sie beschreibt unter anderem das Beispiel einer Studie von 2017 zu einem öffentlich zugänglichen Bilder-Datensatz. Die Studie ergab, dass Bilder zum Thema Kochen über 33% häufiger Frauen zeigten als Männer. Algorithmen hingegen, die auf diesem Datensatz trainiert wurden, verbanden Bilder zum Kochen 68% häufiger mit Frauen als mit Männern (vgl. Perez, 2019, S.166).
Ein weiteres bekanntes Beispiel ist ein Recruiting Tool aus dem Hause Amazon, das 2014 entwickelt wurde. Berichten zu Folge wurde das KI-basierte System auf Grundlage von Daten zu Bewerbungsunterlagen der letzten 10 Jahre entwickelt, die insbesondere in Bezug auf technische Berufe hauptsächlich von Männern kamen. Der Algorithmus folgerte daraus, dass Frauen für diese Positionen weniger geeignet seien als Männern und begann Frauen systematisch zu benachteiligen und nicht für Jobs in Erwägung zu ziehen. Nachdem der Fehler auffiel, wurde das Projekt umgehend eingestellt (vgl. Dastin, 2018).
Die Beispiele zeigen, dass scheinbar objektive, aber offensichtlich lückenhafte Datensätze darin resultieren, dass KI-Anwendungen einen Bias entwickeln und die Benachteiligung von Frauen verstärken. Der Gender Data Gap führt also nicht nur zu falschen Ergebnissen, sondern zu Diskriminierung.
Die EU hat 2021 bereits einen ersten Gesetzesentwurf vorgelegt, der verhindern soll, dass diskriminierende KI-Systeme auf den Markt kommen. Hierbei bleibt jedoch offen, ab wann eine KI als diskriminierend gilt (vgl. Europäische Kommission, 2021). Bei dem Recruiting Tool von Amazon ist der Fall klar, doch z.B bei Online-Übersetzern, wie DeepL, die Berufe nach Geschlechterstereotypen übersetzen (nurse wird automatisch zu Krankenschwester statt Krankenpfleger und doctor zu Arzt statt Ärztin), werden sich die Meinungen sicherlich spalten.
Welche Vorteile haben gendergerechte Daten & KI?
Doch die Überwindung des Gender Data Gaps birgt für Unternehmen noch weitere Vorteile, die nicht zu unterschätzen sind, daher sollten Unternehmen danach streben lückenlose und vor allem auch gendergerechte Datensätze zu erheben und einzusetzen.
Nehmen wir die Versicherungsbranche als Beispiel. Derzeit kaufen mehr Männer als Frauen Versicherungsprodukte, doch die Bedeutung von Frauen für den Markt steigt. Eine Studie von AXA, Accenture und der Weltbank IFC hat 2015 prognostiziert, dass der globale Versicherungsmarkt im Jahr 2030 bis zu 1.7 Billionen Dollar an Frauen verdienen wird, was eine Verdoppelung zum Jahr 2013 darstellen würde. In anderen Ländern wie Großbritannien gibt es bereits Versicherungen, die sich bemühen, Frauen gezielter anzusprechen. Auch in Deutschland gab es erste Versuche, die jedoch wieder eingestellt wurden. Ein Grund sei laut eines Artikels der Süddeutschen Zeitung unter anderem „das Urteil des Europäischen Gerichtshofes (EuGH) von 2011 […] wonach Versicherungstarife nicht nach dem Geschlecht differenziert werden dürfen“ (Pfaff und Krüger, 2019).
Statt jedoch genderspezifische Produkte mit Namen wie „Ladyprotect“ oder „Ladylike“ (vgl. Pfaff und Krüger, 2019) einzuführen, könnten Unternehmen davon profitieren, wenn sie geschlechterspezifische Daten dazu nutzen, um umfassende Profile ihrer Kundinnen zu erstellen und die aufbereiteten Datensätze für KI-Projekte (wie z.B. gendergerecht trainierte Chatbots oder die automatisierte Erstellung personalisierter Angebote) nutzbar zu machen . Zudem könnte dadurch nicht nur eine gezieltere Ansprache erreicht werden, sondern neue weibliche Zielgruppen erschlossen werden, die durch fehlende Daten bisher vielleicht nicht auf dem Radar der Versicherung waren.
Die richtigen Voraussetzungen schaffen
Um diese Vorteile gendergerechter Daten und KI ausschöpfen zu können, müssen zunächst bestimmte Voraussetzungen geschaffen werden.
Voraussetzung Nr.1, die wir bei mexxon nicht nur im Kontext von Gender Bias, sondern jeder guten Datenstrategie immer wieder betonen, ist die Sicherstellung qualitativ hochwertiger und vor allem vollständiger Daten. Das bedeutet in diesem Fall, dass die Daten einheitlich geschlechterspezifisch gekennzeichnet werden sollten. Gleichzeitig sollten bestehende Datensätze hinterfragt und auf Gendergerechtigkeit geprüft werden. Nicht immer ist direkt offensichtlich, ob sich ein Bias in den Daten versteckt hat oder nicht. Sind die Daten einmal entsprechend aufbereitet, kann im nächsten Schritt, der Analyse, nachvollzogen werden, ob es Unterschiede zwischen den Geschlechtern gibt, die beim weiteren Vorgehen berücksichtigt werden müssen. Auch hier lässt sich ein Beispiel aus der Versicherungswelt anbringen: so hat eine länderübergreifende Analyse von Axa ergeben, dass Frauen auf Grund ihrer sozialen Verantwortung häufig hohen Wert auf Zeitersparnis legen und gleichzeitig ein größeres Bedürfnis nach ausführlicher Beratung haben als Männer. Basierend auf dem Ergebnis bietet Axa daher zusammen mit vielen Produkten eine Tele-Medizin-Hotline an, die rund um die Uhr und von überall erreichbar ist (vgl. Pfaff und Krüger, 2019).
Eine zweite wichtige Voraussetzung setzt eigentlich schon vor der Einsammlung der Daten ein, nämlich bei der Zusammenstellung des Teams, das mit den Daten und/oder der KI arbeiten wird. Je diverser das Team, desto höher ist die Wahrscheinlichkeit, dass das Resultat frei von Bias ist. „Es konnte auch gezeigt werden, dass eine höhere Diversität der Teams nachweislich zu mehr Innovation, Produktivität und gesteigerter Wettbewerbsfähigkeit […] sowie einer Erhöhung der Problemlösungskompetenzen und der Kreativität führt […]“ (Strobel, 2021, S.37).
Den Anteil von Frauen im IT-Bereich zu erhöhen hat somit zahlreiche Vorteile und sollte gezielter gefördert werden, denn derzeit sind z.B. von den weltweit tätigen AI Professionals lediglich 22% weiblich (Strobel, 2021, S.39).
Was nehmen wir mit?
- Gender Bias ist tief in den Daten unserer Gesellschaft verwurzelt. Den Bias aufzubrechen und die bestehenden Lücken zu schließen, wird eine globale Aufgabe sein, die sich noch durch die nächsten Generationen ziehen wird.
- Aktiv daran zu arbeiten neue Lücken zu vermeiden, ist nicht nur für die betroffenen Frauen wichtig und vorteilhaft, sondern für die ganze Gesellschaft.
- Unternehmen leisten durch das Generieren und den Einsatz gendergerechter Daten nicht nur einen Beitrag zur Geschlechtergerechtigkeit, sie erhalten die Möglichkeit Innovation zu fördern, das Potenzial ihres Geschäfts zu vergrößern und die Bindung zu ihren Kundinnen zu stärken.
- KI ist die Zukunft unserer Gesellschaft und birgt großes Potenzial, unser Leben zu erleichtern. Doch dafür müssen die Daten, auf denen sie basiert, unser Leben auch umfänglich widerspiegeln. Das heißt, sie dürfen Frauen und geschlechtliche Minderheiten nicht ausklammern.
Die Hälfte der Weltbevölkerung ist weiblich und damit auch die Hälfte des Kund:innenpotenzials. Wer dieses Potenzial ausnutzen will, sollte die Hälfte der Bevölkerung nicht aus entscheidenden Daten ausschließen.
Literatur:
Azcona, Ginette und Duerto Valero, Sara (2018): Making women and girls visible: Gender data gaps and why they matter (URL: https://www.unwomen.org/en/digital-library/publications/2018/12/issue-brief-making-women-and-girls-visible), letzter Aufruf: 01.03.2022.
Buviniv, Mayra und Levine, Ruth (2016): Closing the gender data gap, in: Significance, Bd. 13, Nr. 2 (URL: https://rss.onlinelibrary.wiley.com/doi/pdfdirect/10.1111/j.1740-9713.2016.00899.x), letzter Aufruf: 01.03.2022.
Dastin, Jeffrey (2018): Amazon scraps secret AI recruiting tool that showed bias against women (URL: https://www.reuters.com/article/us-amazon-com-jobs-automation-insight-idUSKCN1MK08G), letzter Aufruf: 01.03.2022.
Europäische Kommission (2021): Ein Europa für das digitale Zeitalter: Kommission schlägt neue Vorschriften und Maßnahmen für Exzellenz und Vertrauen im Bereich der künstlichen Intelligenz vor (URL: https://ec.europa.eu/commission/presscorner/detail/de/IP_21_1682), letzter Aufruf: 01.03.2022.
IFC, AXA und Accenture (2015): SheforShield. Insure Women to Better Protect All (URL: https://www.ifc.org/wps/wcm/connect/7a8950dd-db88-4d52-8b88-fbeb771cf89c/Unavailable.pdf?MOD=AJPERES&CVID=nYIN70B), letzter Aufruf: 28.02.2022.
Perez Cridado, Caroline (2019): Invisible Women. Exposing Data Bias in a World Designed for Men, London.
Pfaff, Isabel und Krieger, Friederike (2019: Frauenversicherungen werden immer wichtiger (URL: https://www.sueddeutsche.de/wirtschaft/versicherung-brustkrebs-schwangerschaft-1.4568329), letzter Aufruf: 01.03.2022.
Strobel, Ruth (2021) (Diplomarbeit): Gender, Künstliche Intelligenz und Robotik. Wie Künstliche Intelligenz und Roboter Gender Stereotype und Gender Biases weiterführen, Wien.
Weiterführende Quellen:
Ayoub, Nadja (2021): 5 Beispiele, die zeigen, dass unsere Welt nicht für Frauen gemacht ist URL: https://utopia.de/unsichtbare-frauen-gender-data-gap-234970/), letzter Aufruf: 25.02.2022.
Data2x (URL: https://data2x.org/), letzter Aufruf: 25.02.2022.
Mittendorfer, Elisabeth und Patsalidis, Marlene (2019): Autos bis Smartphones. 7 Dinge von Männern für Männer (URL: https://kurier.at/leben/autos-bis-smartphones-7-dinge-von-maennern-fuer-maenner/400464067), letzter Aufruf: 25.02.2022.
o.A. (2021): Geschlechtsunterschiede in der Pharmaforschung (URL: https://www.vfa.de/de/arzneimittel-forschung/so-funktioniert-pharmaforschung/geschlechtsunterschiede-in-der-medikamentenwirkung.html), letzter Aufruf: 25.02.2022.
Steininger, Sara (2021): „Crash-Test-Dummys gendern“? Wie die Bild eine wichtige Debatte verzerrt (URL: https://utopia.de/crash-test-dummys-gendern-bild-266633/), letzter Aufruf: 25.02.2022.