KI-Trialog-Workshop
G³ Arbeitsgemeinschaft für moderne Medizin e.V.
G³ Kompetenz UG
Netzwerk Gendermedizin & Öffentlichkeit
Ministerium für Wirtschaft, Arbeit und Energie
des Landes Brandenburg
Tanja Carstensen
Foto: privat

„Die geschlechtersensible Medizin ist eine Komponente in der Diskussion um KI!“

Interview PD Dr. phil. Tanja Carstensen und ihre Kollegin Dr. rer.pol. Kathrin Ganz vom Fachbereich Sozialökonomie der Uni Hamburg haben, finanziert von der Hans-Böckler-Stiftung, gemeinsam an einem Forschungsprojekt zum Thema „Gender, Künstliche Intelligenz und die Zukunft der Arbeit“ gearbeitet, das Ergebnis wurde jetzt veröffentlicht. Wir sprachen darüber mit Dr. Tanja Carstensen.

Der Aspekt des Geschlechts scheint relativ spät in die Debatte um Künstliche Intelligenz gekommen zu sein. Ist dieser Eindruck richtig?

T.C.: Nicht ganz. Ethische Herausforderungen, Vermeidung von Ungleichheiten oder sogar Diskriminierung waren in der Debatte um die KI schon ziemlich von Anbeginn an Thema. Weniger allerdings die Aspekte, auf die eure Tagung fokussiert – die möglicherweise unterschiedliche Adaption von Technik auf der Grundlage von Erkenntnissen der geschlechtersensiblen Medizin. Ich halte es für hochaktuell, dass dies nun aufgegriffen wird – zu einem Zeitpunkt, an dem in fast allen Bereichen von Wirtschaft und Gesellschaft die Implementierung der KI angegangen wird.

Aus der geschlechtersensiblen Medizin kommend, wissen wir, dass bislang z.B. bei der Entwicklung von Apps Daten weitgehend unberücksichtigt blieben, die auf Geschlechterunterschiede eingehen. Das hatte u.a. seine Ursache in der Zusammensetzung der Entwicklerteams – im Wesentlichen männlich. Nun kann ein Algorithmus nur so zutreffend sein wie die Daten, mit denen er gefüttert wird. So entsteht möglicherweise, wie Sie schreiben, algorithmische Diskriminierung …

T.C.: Wir haben solche Feststellungen z.B. bei Stellenausschreibungen machen müssen. Ich zitiere aus unserem Forschungsbericht:

„Dass dabei auch geschlechterdiskriminierende Effekte von KI ernstgenommen werden müssen, veranschaulicht – neben vielen anderen – eine Studie von AlgorithmWatch aus den Jahr 2020. Im Rahmen eines Experiments wurden Stellenausschreibungen für LKW-Fahrer/innen und Erzieher/innen über Facebook vermarktet, ohne Angaben zur gewünschten Zielgruppe zu machen. Es lag also in der Hand der Algorithmen zu entscheiden, an welche Nutzer/innen die Anzeige ausgespielt wurde. Das Resultat: Die Stelle als LKW-Fahrer/in wurde zu über 92 Prozent an männliche, die Erzieher/innenstelle zu über 96 Prozent an weibliche Facebook-Nutzer/innen ausgespielt.“

Für uns ein Beispiel dafür, dass automatisierte Entscheidungssysteme gesellschaftliche Geschlechterstereotype aufgreifen und sogar verstärken können.

Sie schreiben an anderer Stelle, neue Technologien böten natürlich auch immer Möglichkeiten, Macht und Geschlechterverhältnisse neu zu verhandeln und Arbeitsbedingungen zu gestalten …

T.C.: In der Tat geht es uns ja um die Zukunft der Arbeit, wie der Titel unseres Projekts schon sagt und genderpolitische Dimensionen spielen dabei eine entscheidende Rolle. Mitgestaltung und Teilhabe sind wichtige Positionen … Mit dem Einsatz neuer Technologien entsteht in Arbeitskontexten immer die Gelegenheit, auch über Fragen der Arbeitsteilung, der Bewertung von Tätigkeiten und Arbeitsinhalte zu verhandeln. Hier liegt also auf jeden Fall auch eine Chance, mehr Geschlechtergerechtigkeit herzustellen.

Das entspricht durchaus auch unserer Erfahrung im medizinischen und wissenschaftlichen Bereich. Dort, wo Frauen „mitgestalten“, Führungspositionen innehaben, Teams leiten, gewinnen geschlechtersensible Forschungen – insbesondere solche, die auch die Unterschiedlichkeiten mit dem Ziel einer besseren Diagnostik, Therapie, Rehabilitation usw. erkennen und bewerten – an Akzeptanz.

T.C.: Wir haben natürlich auch feststellen müssen, dass der geringe Frauenanteil in der KI-Branche mitverantwortlich dafür ist, dass das Thema noch viele offene Fragen aufwirft. Nur 16 Prozent der KI-Fachkräfte in Deutschland sind weiblich, das heißt nicht zuletzt, dass eben viele Fragen gar nicht gestellt werden, wie Sie sie jetzt formulieren. Allerdings wäre es auch fatal, den Frauen, die in der KI-Entwicklung arbeiten, die alleinige Verantwortung dafür zuzuschieben, dass KI geschlechtersensibel wird. Diversere Teams sind hierfür aber trotzdem ein Anfang.

Unsere Arbeit hat gezeigt, dass die KI eine Vielzahl von Herausforderungen an die Gesellschaft hervorbringt, die wir möglicherweise noch gar nicht alle in ihrer ganzen Konsequenz überschauen. Ich denke dabei auch an die Diskussionen der vergangenen Wochen um die Gefahren der KI. Deshalb ist es ganz sicher notwendig und wichtig, alle Aspekte – und der geschlechtersensible ist ein mitentscheidender –so früh wie möglich in die Diskussion hineinzubringen, mit der Expertise verschiedener Fächer und gesellschaftlicher Gruppen, wie z. B. auch den Gewerkschaften zu Gestaltungsperspektiven zu kommen.

Wir haben zum Abschluss unserer Arbeit geschrieben:

„KI ist dabei weit mehr als ein Datenschutzthema. Gleichstellungs- und Diversity-Akteur/innen und Betriebs- und Personalrat können hierbei gemeinsam durchaus wirkmächtige Koalitionen schließen“.

Das möchte ich durch eine medizinische, geschlechtersensible Expertise ergänzt wissen, die ebenso wie die anderen Aspekte zu einer humanen und gerechteren Arbeitswelt – auch im Kontext zu KI – gehört.

Link zum Working paper der Hans-Böckler-Stiftung: https://www.boeckler.de/de/faust-detail.htm?sync_id=HBS-008607
Logo Land Brandenburg Logo Land Brandenburg Logo G³ Kompetenz Logo G³ Arbeitsgemeinschaft