Fairness in automatischen Entscheidungssystemen (FairADM)

Fragestellung/Ziel: 

Künstliche Intelligenz (KI) bietet enorme Potentiale zur Bewältigung komplexer gesellschaftlicher Herausforderungen. So findet KI etwa im öffentlichen Sektor zunehmend Anwendung in Form algorithmenbasierter Entscheidungsprozesse (Automated Decision-Making, ADM). Ziel hierbei ist die Optimierung bürokratischer Verfahren durch Automatisierung sowie Eliminierung subjektiver und fehlerbehafteter menschlicher Entscheidungen. Allerdings wirft der Einsatz von ADM neue gesellschaftliche und ethische Fragen auf. So wird befürchtet, ADM könne bestehende gesellschaftliche Diskriminierung fortschreiben und verstärken. Forschung zu „algorithmischer Fairness“ befasst sich mit diesen Problemfeldern. Sie stammt überwiegend aus den USA, und aufgrund großer kultureller, politischer und sozialer Unterschiede lassen sich diese Erkenntnisse nur bedingt auf den deutschen Kontext übertragen. Des Weiteren fokussiert die Forschung bisher überwiegend technische Aspekte von ADM und ignoriert weitgehend die Abhängigkeit von Fairness von sozialen und ökonomischen Kontexten. Vor diesem Hintergrund untersucht das Projekt FairADM systematisch die Anwendung und Verbreitung von ADM im öffentlichen Sektor in Deutschland. Dabei wird die bisherige Forschung zu algorithmischer Fairness mit der soziologischen Perspektive auf soziale Ungleichheit und Diskriminierung verknüpft. Um Fairness und Diskriminierung sowie die in der bisherigen Forschung diskutierten Methoden zur Korrektur unfairer Algorithmen empirisch zu untersuchen, entwickelt und evaluiert das Projekt ein ADM basierend auf administrativen Arbeitsmarktdaten.

Fact sheet

Finanzierung: 
Baden-Württemberg Stiftung
Laufzeit: 
2020 bis 2022
Status: 
laufend
Datenart: 
administrative Arbeitsmarktdaten
Geographischer Raum: 
Deutschland

Veröffentlichungen