Gender Data Gap- eine Datenlücke mit Folgen
Der Gender Pay Gap, also, die Tatsache, dass Männer in Österreich durchschnittlich mehr verdienen als Frauen, ist vielen bekannt. Doch haben Sie schon einmal etwas vom Gender Data Gap gehört?
Damit wird das Fehlen von geschlechtsspezifischen Daten (zum Beispiel in der Medizin) bezeichnet, sowie die Tatsache, dass der Großteil der Daten von und mit Männern generiert wird. Die Gründe dafür sind vielfältig, Männer als Stellvertreter für alle Menschen zu betrachten, reiht sich aber in eine lange Tradition ein.
Fehlende Perspektiven
„Daten helfen uns, Dinge einzuordnen und zu vergleichen, das heißt aber nicht, dass sie automatisch die ganze Realität widerspiegeln“, sagt Elisabeth Anna Günther. Sie forscht zu Intersektionalität, also das Zusammenspiel von verschiedener Diskriminierungsformen, in Bildung und Digitalisierung an der Uni Wien.
„Welche Datengrundlage man heranzieht ist das eine Thema, das andere ist, wer die Daten bearbeitet. In Europa arbeiten in der Informations- und Kommunikationstechnologie zu 80 Prozent Männer. Das ist per se kein Problem, aber wenn es darum geht, mit welchen Fragestellungen man an die Daten herangeht, dann fehlen da dennoch Perspektiven“, sagt die Wissenschaftlerin.
Folgen des Data Gaps in der Medizin
Ein Beispiel ist die Medizin. Jahrzehntelang waren Frauen von der Teilnahme an klinischen Testungen von Medikamenten ausgenommen, weil davon ausgegangen wurde, dass sie aufgrund ihrer hormonellen Schwankungen in der Periode schwer zu untersuchen seien. Viele Medikamente wurden daher nur an Männern getestet.
- Das könnte Sie auch interessieren: Metalle in Tampons als Gesundheitsrisiko?
Das Problem daran machten Forschenden an den Universitäten Berkeley und Chicago 2020 deutlich. Sie haben nachgewiesen, dass dieselbe Dosis eines Medikaments bei Frauen zu einer höheren Konzentration im Blut als bei Männern führt. Außerdem dauert der Abbau besagten Medikaments in einem weiblichen Körper deutlich länger als beim männlichen Geschlecht.
Im Klartext: Frauen brauchen eine andere Dosierung. Passiert dies nicht, beeinflusst das auch die Nebenwirkungen. Laut Studie waren diese bei Frauen in 90 Prozent der Fälle heftiger als bei Männer. Symptome wie Übelkeit, Depressionen oder Halluzinationen trafen Frauen deshalb doppelt so oft.
Die Unterrepräsentation von Frauen in klinischen Studien kann auch Auswirkungen darauf haben, wann eine Krankheit diagnostiziert wird. Eine dänische Studie aus dem Jahr 2019 zeigte, dass bei mehr als 700 Krankheiten weibliche Personen eine spätere Diagnose erhielten als Männer. Ein Beispiel dafür ist Diabetes. Frauen warten durchschnittlich viereinhalb Jahre länger auf eine Diagnose.
Tödliche Folgen
Bei Herzinfarkten kann das fehlende Wissen über unterschiedliche Symptome tödlich enden. Weil sich Infarkte anders zeigen, haben Frauen laut dem Österreichischen Frauengesundheitsbericht 2020 ein 20 Prozent höheres Risiko daran zu sterben.
Durch Einsatz von KI verstärkt
Ein weniger drastisches Beispiel zeigt, wie dieser Gender Data Gap sich durch den Einsatz von KI verstärken könnte. Eine künstliche Intelligenz wurde darauf trainiert, Geschlechter von Menschen auf Bildern zu erkennen. Sie klassifizierte Männer, die sich in einer Küche befanden, oft fälschlicherweise als weiblich. Das geschah, weil Frauen bei den Daten mit denen die KI trainiert wurde, häufig in der Küche gezeigt wurden.
- Lesen Sie auch: Österreicher mit hoher Skepsis gegenüber KI
Was auf den ersten Blick nicht tragisch wirkt, kann weitreichende Folgen haben. In ihrem Buch „Unsichtbare Frauen“ macht Autorin Caroline Criado Perez darauf aufmerksam, dass im Zuge der Digitalisierung Daten immer mehr an Bedeutung gewinnen. Viele Entscheidungen, die den Alltag beeinflussen können, werden auf Basis von Datensätzen getroffen. Wenn diese nun mit Daten entwickelt wurden, die vor allem Männer im Fokus haben, könnte das zu weiterer Ungleichbehandlung führen, erläutert die Autorin.
Auch bei der Rekrutierung von neuen Mitarbeitenden wird künstliche Intelligenz mehr und mehr eingesetzt. Schon 2018 machte ein Beitrag in der University of Louisville Law Review darauf aufmerksam, dass Diskriminierungsmuster damit wiederholt und verstärkt werden können.
„Bei Künstlicher Intelligenz, die Personalentscheidungen trifft, geht es darum, wer diese KI mit welchen Bildern im Kopf gestaltet hat“, sagt Elisabeth Anna Günther von der Uni Wien. Wichtig sei, wie man mit den Ergebnissen der KI umgehe, also ob man diese kontrolliere oder sie als objektive Wahrheit ansehe.
Algorithmen, die beispielsweise entscheiden, welche Beiträge wir in welcher Reihenfolge in den sozialen Medien sehen, sind an sich neutral. Die Menschen, die diese entwerfen, die Fragen die an die KI gestellt und die Daten mit denen sie trainiert werden, nicht. Diese fehlenden Perspektiven haben Konsequenzen.