Reiter

Algorithmic Bias

Was bedeutet „Algorithmic Bias?“

Mit Algorithmic Bias sind Verzerrungen in automatisierten Entscheidungsprozessen gemeint, die zu ungerechtfertigten Bevorzugung oder Benachteiligung von Bevölkerungsgruppen führt (Zweig 2019, 210). Ein algorithmisches Entscheidungssystem kann Diskriminierungen aus verschiedenen Gründen erzeugen: 1) Weil sie bereits in den Daten enthalten sind; 2) Weil Daten zu bestimmten Personengruppen fehlen; 3) Weil ein Teil der Daten für alle Personen fehlt; 4) Weil die Methodik des maschinellen Lernens verschiedene Kontexte nicht unterscheidet, 5) Weil System unkontrolliert und dabei falsch weitertrainiert werden (Zweig 2019, 220). In vielen Einsatzgebieten von automatisierten Systemen bzw. KI kommt es zu diskriminierenden Effekten, die inzwischen gut erforscht sind (Dinika/Sloan 2023).

Einige Beispiele für KI Diskriminierungen

Algorithmen können Diskriminierungen u.a. im Zugang zu Bildungsinstitutionen, in der Kreditvergabe oder im Versicherungswesen verstärken (O'Neil 2016). Zum Beispiel, wenn einer Person in einem automatisierten Prozess aufgrund ihrer Sprache, ihres Geschlechts oder Alters ein Kredit verweigert (Matzat/Ruckenstein 2018) oder ein höherer Preis für eine Auto-Versicherung verlangt wird (Sombetzki 2024). Weiter können Menschen Sozialleistungen entzogen (Eubanks 2017) oder Eltern fälschlicherweise des Betruges verdächtigt werden (Burgess et al. 2023, University of Amsterdam 2023), mit verheerenden Folgen für die Betroffenen.

Auch die Jobsuche ist davon betroffen, wenn z.B. Suchmaschinen, die auf Lebensläufe fokussiert sind, mit Textdaten und demographischen Merkmalen Bewertungen erstellen, die nachteilig für gewisse Kandidat:innen ausfallen (Dinika/Sloan 2023). Ein Algorithmus kann bspw. „einheimische“ Lebensläufe bevorzugen oder Ausbilungen im Ausland negativ bewerten (Algorithmwatch 2024).

In der Gesichtserkennungssoftware steckt ebenfalls Potential für folgenreiche Diskriminierung, wenn zum Beispiel entsprechende Produkte von Großunternehmen wie IBM, Google und anderen, die von Polizeikräften eingesetzt werden, Schwarze Frauen viel schlechter erkennt als weiße Männer (s. Projekt gendershades.org; Boulamwini und Gebru 2018), was im schlimmsten Fall zu ungerechten Verurteilungen führen kann (Sombetzki 2024).

Aber schon in gängigen Internet-Suchmaschinen, von denen es relativ wenig Alternativen gibt, sind negative rassistische Vorurteile eingebettet (Noble 2018). Die Automatisierung hat das Potenzial, Diskriminierung zu verbergen, zu beschleunigen und zu vertiefen, während sie im Vergleich zum Rassismus früherer Zeiten neutral und sogar wohlwollend erscheint (Benjamin 2019).

Auch Tools für KI generierte Bilder reproduzieren „konsequent grobe Geschlechts- und Nationalitätsstereotypen“ und „koloniale[ ] Klischees“ (Bellio/Kayser-Bil 2024), zum Beispiel bei der Darstellung von Mediziner:innen oder Präsidentschaftskandidat:innen.
A young black man looks into the camera. He is wearing a dressing gown and has a towel around his neck, and there is green wallpaper behind. His face is mapped with a white wireframe.
Image by Comuzi / © BBC / Better Images of AI / Mirror B / CC-BY 4.0

KI Diskriminierung in der Bildung

In der Bildung werden KI Systeme in ganz unterschiedlichen Bereichen eingesetzt, bspw. für die Identifizierung von Risikoschüler:innen, der Vorhersage von Studienabbrüchen, zur Unterstützung des Klassenmanagements, der Erstellung von individuellen Lernplänen oder in Prüfungssoftware (sogenannte proctoring systems) in der mittels Gesichtserkennungstechnologie der Zugang, die Durchführung und Bewertung von Prüfungen unterstützt wird (Tanksley 2024). In diesen zahlreichen Instanzen von Einordnungen und Bewertungen spielen die oben erwähnten Diskriminierungen mit. Nicht zuletzt, weil die meisten KI Technologien für den Bildungsbereich aus Silicon Valley kommen. Das heißt, westliche Vorurteile und weiße, maskulinisierte Weltbilder werden in generalisierbaren Modellen weltweit implementiert - obwohl die Mehrheit der Weltbevölkerung, und damit der Kinder im Schulalter, dieser Vorstellung nicht entspricht (Tanksley 2024).
Young adults are walking on a street. Two young women are on the pavement to the left of the image and five young men walk in the road. The road is empty of traffic and the people in the picture are relaxed and appear to be engaged in chatting with each other.  Overlaid on the image are identification boxes. All of the figures have ID boxes around them.
Image by Comuzi / © BBC / Better Images of AI / Surveillance View A. / CC-BY 4.0

Fazit

Die Konzentration auf wenige große Unternehmen, die solche Systeme anbieten und verbreiten, ist ein maßgebliches Problem. “Power reproduces what counts as knowledge by shaping knowledge according to its internal objectives. These kinds of knowledge, if their assumptions and structures are left unexamined and unchallenged, may result in continued forms of bias against historically oppressed bodies (Eubanks, 2018; Noble, 2018; O’Neil, 2017)” (Nemorin et al. 2022, 2). Dieser Logik folgend ist es sehr unwahrscheinlich, dass automatisierte Systeme, die in bereits ungleichen oder diskriminierenden Bildungskontexten zum Einsatz kommen, irgendwie zu radikal anderen, befreienden oder emanzipierenden Ergebnissen führen. Es ist eher anzunehmen, dass jede Automatisierung zu Verstärkung und Intensivierung von existierenden Tendenzen und Resultaten führt (Selwyn et al. 2022). Birhane (2021) fasst es wie folgt zusammen: KI-Algorithmen forcieren eine Bestimmbarkeit, limitieren den Horizont des Möglichen und gestalten eine der Vergangenheit angepasste Welt (ebd., 33).
Eine gute Quelle für aktuelle Einsatzgebiete von KI, ihre Entwicklungen und Problematiken ist algorithmwatch.org, von wo einige der oben erwähnten Beispiele stammen.

Wo in der Schweiz KI zum Einsatz kommt, wir hier visualisiert: https://algorithmwatch.ch/de/atlas-der-automatisierung/.

Interessante Doku zum Thema: "Coded Bias" (2020) https://www.codedbias.com/about (4.4.24).

An der PHZH forscht aktuell das Team K. Horvath, A. Frei und M. Steinberg zu „Algorithmic Sorting in Education“: https://www.algorithmic-sorting-in-education.net/ (4.4.24). 
Algorithmwatch/CH (2024) Diskriminierung 2.0, Blog, 21.3.24, https://algorithmwatch.ch/de/tag-gegen-rassismus-21-marz/ (4.4.24).
Bellio, N. und Kayser-Bril N. (2024) Wie Bildgeneratoren die Welt zeigen: Stereotypen statt Vielfalt, Algorithmwatch, https://algorithmwatch.org/de/bildgeneratoren-stereotypen/ (4.4.24).
Benjamin, R. (2019) Race after Technology: Abolitionist Tools for the New Jim Code. Cambridge: Polity.
Birhane, A. (2021) Automating Ambiguity: Challenges and Pitfalls of Artificial Intelligence. University College Dublin - School of Computer Science, 2021.
Buolamwini, J. und Gebru, T. (2018) Gender Shades: Intersectional Accuracy disparities in Commercial Gender Classification, in Sorelle A. Friedler and Christo Wilson (ed)., Proceedings of Machine Learning Research 91:1-15, Conference on Fairness, Accountability, and Transparency, https://proceedings.mlr.press/v81/buolamwini18a/buolamwini18a.pdf.
Burgess, M., Schot, E., and Geiger G. (2023) This Algorithm Could Ruin Your Life, Wired, https://www.wired.com/story/welfare-algorithms-discrimination/ (4.4.24).
Dinika, A.-A., and Sloane, M. (2023) AI and Inequality in Hiring and Recruiting: A Field Scan. In Proceedings of the
Weizenbaum Conference 2023: AI, Big Data, Social Media, and People on the Move (1-13). Berlin: Weizenbaum
Institute for the Networked Society - The German Internet Institute. https://doi.org/10.34669/wi.cp/5.3
Eubanks, V. (2017) Automating Inequality. How High-Tech Tools Profile, Police, and Punish the Poor, New York: St. Martin's Press.
Matzat, L. und Ruckenstein, M. (2018) Kreditscoring: Urteil aus Finnland wirft Fragen zur Diskriminierung auf, Algorithmwatch, https://algorithmwatch.org/de/kreditscoring-urteil-aus-finnland-wirft-fragen-zur-diskriminierung-auf/ (4.4.24).
Nemorin, S., Vlachidis, A., Ayerakwa, H.M., und Andriotis, P. (2022) ‘AI Hyped? A Horizon Scan of Discourse on Artificial Intelligence in Education (AIED) and Development’. Learning, Media and Technology, 5 July 2022. https://www.tandfonline.com/doi/full/10.1080/17439884.2022.2095568.
Noble, S. U. (2018) Algorithms of Oppression: How Search Engines Reinforce Racism. New York: University Press.
O'Neil, C. (2016) Weapons of Math Destruction. How Big Data Increases Inequality and Threatens Democracy. Penguin Random House UK.
Selwyn, N., Hillman, Th., Bergviken-Rensfeldt, A. and Perrotta, C. (2022) ‘Making Sense of the Digital Automation of Education’. Postdigital Science and Education, 23 November 2022. https://doi.org/10.1007/s42438-022-00362-9.
Sombetzki, P. (2023) Ungerechtigkeit vorprogrammiert: Wenn Algorithmen diskriminieren, Algorithmwatch, https://algorithmwatch.org/de/ungerechtigkeit-vorprogrammiert/ (4.4.24).
Tanksley, T. (2024) EdTech Is Not Neutral, How AI Is Automating Educational Inequity, in Faul, M.V. (ed.) ‘AI and Digital Inequalities’. Policy Insights, NORRAG, 48-49, https://resources.norrag.org/resource/download/845/468.
University of Amsterdam (2023) The Dutch childcare benefit scandal shows that we need explainable AI rules, https://www.uva.nl/en/shared-content/faculteiten/en/faculteit-der-rechtsgeleerdheid/news/2023/02/childcare-benefit-scandal-transparency.html?cb, 25.3.24.
Zweig, K. (2019). Ein Algorithmus Hat Kein Taktgefühl. Wo Künstliche Intelligenz Sich Irrt, Warum Uns Das Betrifft Und Was Wir Dagegen Tun Können. 1st ed. München: Wilhelm Heyne Verlag.

Zuletzt geändert: 7. Nov 2024, 11:14, [andreaisabel.frei@phzh.ch]


Bisher wurde noch kein Kommentar abgegeben.