In vielen Ländern weltweit wird Künstliche Intelligenz (KI) zunehmend bei der Verteilung öffentlicher sozialer Leistungen eingesetzt, zum Beispiel bei der Verteilung von Renten- oder Arbeitslosengeldern, der Bewilligung von Asylanträgen oder der Vergabe von Kindergartenplätzen. Die Technologie soll unter anderem dabei helfen, Fairnesskriterien für den individuellen Erhalt solcher Leistungen anzuwenden und Antragstellende dementsprechend zu bewerten – wobei die angelegten Gerechtigkeitsmaßstäbe von Land zu Land variieren. Zum Beispiel richtet sich in Indien die Verteilung sozialer Leistungen nach dem Kastensystem, in China nach der Qualität staatsbürgerlichen Verhaltens. Aber auch innereuropäisch unterscheiden sich Fairnesskonzepte bei der Verteilung knapper staatlicher Ressourcen gewaltig. Das sind einige der zentralen, mittels partizipativer Forschung gewonnenen Ergebnisse des internationalen Forschungsprojekts "AI FORA – Artificial Intelligence for Assessment", die kürzlich in einem online frei verfügbaren Sammelband veröffentlicht worden sind. An dem rund dreieinhalbjährigen Projekt beteiligt waren unter Leitung der Johannes Gutenberg-Universität Mainz (JGU) unter anderem das Deutsche Forschungszentrum für Künstliche Intelligenz in Kaiserslautern, die Universität Augsburg und die University of Surrey, Großbritannien. Das Projekt wurde von der VolkswagenStiftung mit rund 1,5 Millionen Euro gefördert und im Dezember 2024 abgeschlossen.
Vergleich KI-gestützter sozialer Bewertungen in neun Ländern auf vier Kontinenten
Das nun erschienene, rund 300-seitige Buch vergleicht den Status quo und die gewünschten Szenarien KI-gestützter sozialer Bewertungen in neun Ländern auf vier Kontinenten: Deutschland, Spanien, Estland, Ukraine, USA, Nigeria, Iran, Indien und China. "Die Fallstudien machen das Ausmaß deutlich, in dem Gerechtigkeitskriterien für den Erhalt staatlicher Leistungen kultur- und kontextabhängig sind. Auch innerhalb von Gesellschaften gibt es hierzu sehr unterschiedliche Perspektiven, die sich in ständiger Aushandlung befinden. Dies muss sich in der Technologie niederschlagen. Es reicht also nicht aus, ein einziges standardisiertes KI-System für soziale Bewertungen in der öffentlichen Leistungserbringung zu entwickeln und weltweit zum Einsatz zu bringen. Wir brauchen flexible, dynamische und adaptive Systeme. Deren Entwicklung ist auf den Beitrag aller gesellschaftlicher Akteure, auch den von vulnerablen Gruppen, zur Gestaltung von partizipativer, kontextspezifischer und fairer KI angewiesen", betont Prof. Dr. Petra Ahrweiler vom Institut für Soziologie der JGU, die das Projekt AI FORA geleitet hat. Nach ihren Angaben wird demnächst ein weiteres Buch erscheinen, in dem die Forschenden die politikrelevanten Modellierungs- und Simulationsergebnisse des AI FORA-Projekts vorstellen und dann zeigen wollen, wie Künstliche Intelligenz konkret verbessert werden kann, um Gerechtigkeits- oder Diskriminierungsprobleme bei der Vergabe öffentlicher sozialer Leistungen zu lösen.
Weiterführende Links:
- https://www.ai-fora.de/ – Forschungsprojekt "Artificial Intelligence for Assessment" (AI FORA)
Lesen Sie mehr:
- https://presse.uni-mainz.de/bringen-ki-technologien-soziale-gerechtigkeit/ – Pressemitteilung "Bringen KI-Technologien soziale Gerechtigkeit?" (18.07.2024)
Article Title
Participatory Artificial Intelligence in Public Social Services. From Bias to Fairness in Assessing Beneficiaries
Article Publication Date
3-Mar-2025