Algorithmische Diskriminierung: Zwischen KI-Ethik und EU-Regulierung

Die rasante Entwicklung Künstlicher Intelligenz (KI) prägt zunehmend unseren Alltag und wichtige gesellschaftliche Bereiche. Doch mit den Chancen der Effizienzsteigerung und Automatisierung wachsen auch die Risiken, insbesondere jene der algorithmischen Diskriminierung. Diese Diskriminierung ist kein rein technisches Phänomen, sondern spiegelt menschliche Unzulänglichkeiten und gesellschaftliche Schieflagen in algorithmischen Systemen wider.

Die Natur Algorithmischer Diskriminierung und ihre Ursachen

Algorithmische Diskriminierung entsteht, wenn KI-Systeme aufgrund von voreingenommenen Daten oder fehlerhaften Algorithmusdesigns bestimmte Personengruppen systematisch benachteiligen. Algorithmen sind weder neutral noch objektiv, da sie von Menschen gemacht werden und deren Annahmen, Interessen und Ziele widerspiegeln können. Bestehende strukturelle Diskriminierungsmuster können sich so im Output der Algorithmen manifestieren und sogar verstärken.

Woher kommt der Bias?

Die Ursachen für Voreingenommenheit in Algorithmen sind vielfältig:

  • Voreingenommene Trainingsdaten: Oft spiegeln die Datensätze, mit denen KI-Systeme trainiert werden, historische oder gesellschaftliche Ungleichheiten wider. Ein bekanntes Beispiel ist ein Rekrutierungsalgorithmus von Amazon, der Frauen systematisch benachteiligte, weil er mit Daten trainiert wurde, die überwiegend männliche Bewerber enthielten. Ähnlich klassifizierte ein Bilderkennungssystem von Google Fotos von dunkelhäutigen Menschen fälschlicherweise als „Gorilla“, was auf unausgeglichene Trainingsdaten hindeutet.
  • Fehlende Repräsentativität: Wenn Datensätze bestimmte Bevölkerungsgruppen unterrepräsentieren, kann das System diese Gruppen schlechter erkennen oder bewerten. Dies zeigt sich bei Gesichtserkennungssystemen, die eine geringere Genauigkeit bei der Identifizierung von Personen mit dunkler Hautfarbe aufweisen.
  • Design und Parameterwahl: Auch die Art und Weise, wie ein Algorithmus konzipiert und welche Parameter berücksichtigt werden, kann zu Diskriminierung führen.
  • Fehlende Diversität in Entwicklungsteams: Wenn die Entwicklungsteams überwiegend homogen (z.B. weiß und männlich) besetzt sind, ist die Wahrscheinlichkeit geringer, dass diskriminierende Ergebnisse überhaupt erkannt und adressiert werden.

Der Kindergeldskandal in den Niederlanden als Mahnmal

Ein prägnantes Beispiel für die gravierenden Folgen algorithmischer Diskriminierung ist der niederländische Kindergeldskandal („Datenrassismus Niederlande“). Im Jahr 2019 wurde bekannt, dass die Steuerbehörden einen Algorithmus zur Erstellung von Risikoprofilen einsetzten, um möglichen Betrug beim Bezug von Kindergeld aufzudecken. Zehntausende Familien, insbesondere solche mit geringem Einkommen oder Migrationshintergrund, wurden fälschlicherweise der Betrugsabsicht bezichtigt und zur Rückzahlung von Leistungen aufgefordert. Dies führte zu massiver Verschuldung und trieb viele Betroffene in die Armut. Dieses Beispiel verdeutlicht, wie algorithmische Entscheidungsfindung ohne ausreichende Kontrolle und Transparenz zu schwerwiegenden Verletzungen digitaler Menschenrechte führen kann.

Ethik Künstlicher Intelligenz: Die Notwendigkeit eines menschzentrierten Ansatzes

Angesichts dieser Risiken ist die Ethik Künstlicher Intelligenz von zentraler Bedeutung. Es geht darum, sicherzustellen, dass KI-Systeme zum Nutzen der Gesellschaft eingesetzt werden und Grundrechte wahren. Die Debatte über KI-Ethik muss die Frage in den Mittelpunkt stellen, wie allen Menschen im digitalen Zeitalter ein gutes Leben ermöglicht werden kann.

Ethische Leitlinien und Prinzipien

Organisationen wie die Bertelsmann Stiftung haben mit den „Algo.Rules“ neun Regeln für eine gesellschaftlich förderliche Gestaltung und den Einsatz algorithmischer Systeme erarbeitet. Diese Regeln sollen bereits in der Entwicklungsphase von KI-Systemen Beachtung finden. Wichtige Prinzipien umfassen:

  • Fairness und Nichtdiskriminierung: KI-Systeme dürfen keine Diskriminierung fördern oder verstärken. Fairness-Algorithmen können dabei helfen, Verzerrungen in Daten zu erkennen und zu korrigieren.
  • Transparenz und Erklärbarkeit: Die Entscheidungsprozesse von Algorithmen müssen nachvollziehbar gemacht werden, um potenzielle Verzerrungen identifizieren und beheben zu können. Technologien wie LIME und SHAP tragen zur Erklärbaren KI (XAI) bei.
  • Menschliche Kontrolle und Überwachung: Insbesondere bei Hochrisiko-Anwendungen ist menschliche Kontrolle unerlässlich, um Fairness und Objektivität zu gewährleisten.
  • Verantwortlichkeit: Es muss klar sein, wer die Verantwortung für die Entscheidungen und Auswirkungen von KI-Systemen trägt.

Der EU AI Act: Ein globaler Regulierungsrahmen

Die Europäische Union hat mit dem EU AI Act (KI-Verordnung) das weltweit erste umfassende Gesetz zur Regulierung von Künstlicher Intelligenz verabschiedet. Die Verordnung ist seit dem 1. August 2024 in Kraft getreten, und die Mitgliedstaaten sind nun verpflichtet, sie in nationales Recht umzusetzen.

Risikobasierter Ansatz

Der AI Act folgt einem risikobasierten Ansatz, der KI-Systeme in vier Kategorien einteilt:

  1. Unannehmbares Risiko (verboten): Systeme, die Grundrechte verletzen, Menschen manipulieren oder diskriminieren, sind untersagt. Dazu gehören „Social Scoring“ und biometrische Videoüberwachung in öffentlichen Räumen (mit Ausnahmen für Strafverfolgungsbehörden unter strengen Auflagen).
  2. Hochrisiko-KI: Anwendungen in kritischen Bereichen wie dem Gesundheitswesen, der Justiz, der Strafverfolgung, der Migration, im Bildungsbereich oder der öffentlichen Verwaltung. Hier gelten strenge Regeln hinsichtlich Transparenz, Kontrollierbarkeit, Datenqualität, Risikomanagement und menschlicher Aufsicht. Anbieter müssen eine technische Dokumentation erstellen und Konformitätsbewertungen durchführen. Eine Grundrechte-Folgenabschätzung ist für Hochrisiko-KI-Systeme in der öffentlichen Hand vor dem Inverkehrbringen obligatorisch.
  3. Begrenzte Risiken: Systeme, bei denen spezifische Transparenzanforderungen gelten, etwa die Kennzeichnung von KI-generierten Inhalten (Deepfakes, Chatbots).
  4. Minimale Risiken: Für unkritische Systeme, wie Spamfilter, gibt es keine besonderen Vorgaben, aber freiwillige Verhaltenskodizes werden empfohlen.

Auswirkungen auf die öffentliche Verwaltung

Für die öffentliche Verwaltung in Deutschland und der gesamten EU bringt der AI Act tiefgreifende Veränderungen und konkrete Pflichten mit sich. Bis August 2025 müssen alle eingesetzten KI-Systeme erfasst und eingeordnet werden.

  • Neue Pflichten und Prozesse: Behörden müssen Grundrechtsfolgeabschätzungen durchführen, transparente Dokumentationen bereitstellen und Nachvollziehbarkeit gewährleisten. KI-Systeme sollen von Anfang an rechtskonform gestaltet sein.
  • Wissens- und Kompetenzaufbau: Es besteht ein hoher Bedarf an technischem Know-how und Schulungen für Mitarbeitende im Umgang mit KI-Systemen.
  • KI-Governance: Die Implementierung einer robusten KI-Governance-Struktur ist entscheidend, um das Potenzial von KI verantwortungsvoll zu nutzen, rechtliche Vorgaben einzuhalten und einen Mehrwert für die Bürger zu schaffen. Das Vertrauen der Bürger in die Einhaltung ethischer Grundsätze ist dabei von höchster Priorität.

Digitale Menschenrechte und KI-Governance in der öffentlichen Verwaltung

Der Schutz digitaler Menschenrechte ist eng mit der Implementierung einer ethischen und transparenten KI-Governance verbunden. Die öffentliche Verwaltung trägt hier eine besondere Verantwortung, da sie als zentraler Kontaktpunkt zwischen Bürger:innen und Staat fungiert und Verwaltungsentscheidungen weitreichende Auswirkungen auf Individuen und die Gesellschaft haben.

Transparenz Algorithmen und menschliche Aufsicht

Die Forderung nach Transparenz von Algorithmen und die Notwendigkeit menschlicher Kontrolle sind zentrale Säulen der KI-Ethik und des AI Acts. Staatliche Entscheidungen, die auf algorithmischen Systemen basieren, müssen transparent und begründbar sein. Auch in der Justiz, wo KI zur Unterstützung bei der Fallanalyse oder Prognose von Bewährungsdauern eingesetzt werden kann, muss die menschliche juristische Entscheidungshoheit gewahrt bleiben und der Einsatz von KI transparent gemacht werden. Der AI Act stärkt den Schutz vor automatisierter Entscheidungsfindung, indem er detaillierte Transparenz- und Überwachungsanforderungen festlegt. Bürger:innen sollen das Recht haben, Beschwerden über KI-Systeme und algorithmische Entscheidungen einzureichen.

Herausforderungen und Lösungsansätze

Die Gewährleistung von Fairness und die Vermeidung von Bias erfordern kontinuierliche Anstrengungen:

  • Vielfältigere Datensätze: Die Berücksichtigung einer breiteren Palette von Datenquellen, die alle Zielgruppen repräsentieren, ist entscheidend, um Verzerrungen zu minimieren.
  • Regelmäßige Audits und Tests: KI-Systeme müssen regelmäßig auf potenzielle Bias getestet und bei Bedarf neu kalibriert werden, um eine faire und objektive Entscheidungsfindung zu gewährleisten.
  • „Erklärbare KI“ (XAI): Technologien, die die interne Funktionsweise und Ergebnisse von KI-Systemen für Menschen verständlich machen, sind wichtig zur Erkennung und Korrektur von Bias.
  • Ethische Leitfäden und Checklisten: Praxisleitfäden für die digitale Verwaltung, die ethische Prinzipien und regulatorische Anforderungen berücksichtigen, unterstützen die verantwortungsvolle Implementierung von KI.

Fazit

Die zunehmende Verbreitung von Algorithmen und Künstlicher Intelligenz in allen Lebensbereichen, insbesondere in der öffentlichen Verwaltung, birgt das Risiko signifikanter algorithmischer Diskriminierung. Beispiele wie der Kindergeldskandal in den Niederlanden zeigen die realen und verheerenden Auswirkungen von voreingenommenen Algorithmen. Der EU AI Act stellt einen wegweisenden Schritt dar, um einen rechtlichen Rahmen zu schaffen, der die Entwicklung und den Einsatz von KI sicher, ethisch und im Einklang mit den Grundrechten der Bürger:innen gestaltet. Transparenz, menschliche Kontrolle und die Minimierung von Bias durch diverse Daten und Entwicklungsteams sind keine optionalen Ergänzungen, sondern fundamentale Anforderungen für eine vertrauenswürdige und gemeinwohlorientierte KI. Die öffentliche Verwaltung ist nun gefordert, diese Vorgaben aktiv umzusetzen, um die Potenziale der KI zu nutzen und gleichzeitig digitale Menschenrechte zu schützen.

Weiterführende Quellen

https://www.europarl.europa.eu/doceo/document/O-9-2022-000028_DE.html

https://www.humanrights.ch/de/news/algorithmen-diskriminieren

https://algorithmwatch.org/de/wie-und-warum-algorithmen-diskriminieren/

https://mebis.bycs.de/beitrag/algorithmische-diskriminierung

https://www.studysmarter.de/schule/politik/technologie-und-medieneinfluss/algorithmen-bias/

https://relevanzmacher.de/ki/algorithmic-bias/

https://rise-jugendkultur.de/artikel/rassismus-und-diskriminierung-durch-algorithmen/