Hauptinhalt
Künstliche Intelligenz
In Anbetracht dessen, dass künstliche Intelligenz mit extrem hoher Geschwindigkeit riesige Datenmengen verarbeiten kann, ist es nicht verwunderlich, dass Algorithmen und automatisierte Entscheidungsfindungssysteme in vielen Branchen eingesetzt werden. Oftmals wird davon ausgegangen, dass Entscheidungen, die von einer künstlichen Intelligenz getroffen werden neutral sind (1).
Jedoch zeigt sich in vielen alltäglichen Bereichen, von der Sprach- oder Gesichtserkennung bis hin zur medizinischen Verwendung von künstlicher Intelligenz (KI), dass geschlechtsspezifische Ungleichheiten nicht ausreichend berücksichtigt werden. Mit dem Aufstieg von ChatGPT und der Einbindung von KI in Fahrzeuge, Cybersicherheit, die sozialen Medien, Landwirtschaft und vielen weiteren Branchen, ist Künstliche Intelligenz nicht mehr aus unserem Leben wegzudenken (2). Die Qualität der Algorithmen ist abhängig von den Daten, mit denen sie entwickelt wurde (1). Somit können auch diskriminierende Vorurteile weitertragen werden, wenn diese bereits implizit in den Trainingsdaten enthalten sind (3).
Wie problematisch das sein kann, zeigt ein Beispiel aus 2019. Im Zusammenhang mit der Kreditkarte von Apple wurde ein KI-basiertes System für die Vergabe von Krediten entwickelt. Die KI entschied darüber, wer unter welchen Konditionen eine Kreditkarte bekam. Dabei wurden Frauen und Männer unterschiedlich bewertet. Bei identischen finanziellen Voraussetzungen wurde Frauen ein kleinerer Kreditrahmen zugewiesen (4).
Ähnliche Probleme gab es bei der Sprach- und Gesichtserkennung. Die Spracherkennung von Siri hatte zunächst erhebliche Probleme weibliche Stimmen zu erkennen (3). Das lag daran, dass die Datenbasis, mit der die KI-Modelle trainiert wurden, nicht ausreichend war. Dies kann beispielsweise Auswirkungen in der Wahrnehmung von Kompetenz in Online-Meetings haben (5). Bei virtuellen Assistenzsystemen wie Siri, wird Anwender*innen zwar häufig eine Auswahl an Stimmen angeboten, die voreingestellte Stimme ist jedoch weiblich. Das kann stereotype, traditionelle Rollenbilder verstärken, da Assistenzsysteme auf die Ausführungen von Anweisungen warten (6). Auch Softwares zur Gesichtserkennung funktionieren für Frauen und People of Colour schlechter (3). Laut einer Studie konnten Gesichtserkennungssoftwares weiße, männliche Gesichter mit einer Präzision von 99% erkennen. Bei schwarzen Frauen stieg die Fehlerquote auf 34% (7).
Auch im Personalwesen führte eine verzerrte Datenerhebung zu Benachteiligungen. Eine zur Auswertung von Bewerbungen eingesetzte KI bewertete Bewerber*innen mit stereotyp männlichen Eigenschaften – wie etwa dem Hobby Fußballspielen – als geeigneter für Führungspositionen und technische Berufe (3). Nicht nur Unterschiede zwischen den Geschlechtern, sondern auch andere Vielfältigkeitskriterien, wie Herkunft und Alter müssen bei der Erhebung und Auswertung von Daten berücksichtigt werden. Studien zeigten, dass KI-basierte Methoden zur Hautkrebserkennung schlechter für People of Colour funktionieren. Hierbei wurden als Trainingsdaten überwiegend Hautläsionen von hellen Hauttypen verwendet (8).
Künstliche Intelligenz ist auf dem Prinzip des maschinellen Lernens aufgebaut, also der Verarbeitung von großen Datenmengen. Die KI führt Statistiken und Wahrscheinlichkeitsberechnungen durch und erkennt Muster, aus welchen sie Prognosen stellt (8). In all diesen Beispielen wurden bei der Entwicklung der Technologie vor allem weiße Männer berücksichtigt und zum Teil veraltete Datensätze, welche Frauen, sowie Minderheiten und deren Bedürfnisse nicht ausreichend repräsentieren. Dies führt dazu, dass sich Diskriminierungen und Stereotypisierungen in der Technik wiederfinden (9).
Eine Möglichkeit, dieses Problem anzugehen, wäre, für eine größere Diversität in Teams zu sorgen, denn dies kann dazu führen, dass Diskriminierungen besser erkannt und früher besprochen werden (3).
Einige dieser versteckten Diskriminierungen wurden schon aufgedeckt und können in der Zukunft bei der Weiterentwicklung von KI miteinbezogen werden. So ist die Diskriminierung aufgrund von Geschlecht und Gender relativ gut erforscht, wohingegen Alter sowie körperliche und psychische Beeinträchtigungen bisher weniger stark erforscht wurden (10). Künstliche Intelligenz bietet immense Möglichkeiten, ist allerdings nicht fehlerfrei und durch die herangezogene Datengrundlage stark beeinflussbar. Deshalb ist es wichtig, alle Menschen gleichermaßen in den Daten zu berücksichtigen und darüber aufzuklären, wie künstliche Intelligenz funktioniert.
Literatur
1. Fountain JE. The moon, the ghetto and artificial intelligence: Reducing systemic racism in computational algorithms. Government Information Quarterly 2022; 39(2):101645. Verfügbar unter: https://www.sciencedirect.com/science/article/pii/S0740624X21000812.
2. Europäisches Parlament. Was ist künstliche Intelligenz und wie wird sie genutzt? Verfügbar unter: https://www.europarl.europa.eu/topics/de/article/20200827STO85804/was-ist-kunstliche-intelligenz-und-wie-wird-sie-genutzt.
3. Müller-Stüler E-M. Führt Künstliche Intelligenz zu mehr Diskriminierung von Frauen oder ist sie eine Chance für eine gerechtere Welt? In: Women in Data Science: Springer Gabler, Wiesbaden; 2024. S. 9–15 Verfügbar unter: https://link.springer.com/chapter/10.1007/978-3-658-42219-6_2.
4. Wilhelm K. Überkommene Rollenbilder: Wie sexistisch ist KI? tagesschau.de 08.03.2022 [Stand: 09.04.2025]. Verfügbar unter: https://www.tagesschau.de/wissen/technologie/kuenstliche-intelligenz-ki-sexismus-101.html.
5. Siegert I, Niebuhr O. Case report: women, be aware that your vocal charisma can dwindle in remote meetings 2021. Verfügbar unter: https://repo.bibliothek.uni-halle.de/handle/1981185920/37534.
6. Marsden N, Raudonat K, Pröbster M. Kreislauf der Diskriminierung: Gesellschaft für Informatik e.V. (Vol. 47, Digitale Souveränität). Verfügbar unter: https://dl.gi.de/handle/20.500.12116/42520,
7. Varsha PS. How can we manage biases in artificial intelligence systems – A systematic literature review. International Journal of Information Management Data Insights 2023; 3(1):100165. doi: 10.1016/j.jjimei.2023.100165.
8. Baumgartner R, Ernst W. Künstliche Intelligenz in der Medizin? Intersektionale queerfeministische Kritik und Orientierung.
9. Beck D, S. W.R. Warum KI nicht frei von Vorurteilen ist. Verfügbar unter: https://www.tagesschau.de/wissen/ki-vorurteile-101.html.
10. Kekez I, Lauwaert L, Begičević Ređep N. Is artificial intelligence (AI) research biased and conceptually vague? A systematic review of research on bias and discrimination in the context of using AI in human resource management. Technology in Society 2025; 81:102818. Verfügbar unter: https://www.sciencedirect.com/science/article/pii/S0160791X25000089.