Algorithmische Diskriminierung: Zwischen KI-Ethik und EU-Regulierung

Algorithmische Diskriminierung: Zwischen KI-Ethik und EU-Regulierung

Die rasan­te Ent­wick­lung Künst­li­cher Intel­li­genz (KI) prägt zuneh­mend unse­ren All­tag und wich­ti­ge gesell­schaft­li­che Berei­che. Doch mit den Chan­cen der Effi­zi­enz­stei­ge­rung und Auto­ma­ti­sie­rung wach­sen auch die Risi­ken, ins­be­son­de­re jene der algo­rith­mi­schen Dis­kri­mi­nie­rung. Die­se Dis­kri­mi­nie­rung ist kein rein tech­ni­sches Phä­no­men, son­dern spie­gelt mensch­li­che Unzu­läng­lich­kei­ten und gesell­schaft­li­che Schief­la­gen in algo­rith­mi­schen Sys­te­men wider.

Die Natur Algorithmischer Diskriminierung und ihre Ursachen

Algo­rith­mi­sche Dis­kri­mi­nie­rung ent­steht, wenn KI-Sys­te­me auf­grund von vor­ein­ge­nom­me­nen Daten oder feh­ler­haf­ten Algo­rith­mus­de­signs bestimm­te Per­so­nen­grup­pen sys­te­ma­tisch benach­tei­li­gen. Algo­rith­men sind weder neu­tral noch objek­tiv, da sie von Men­schen gemacht wer­den und deren Annah­men, Inter­es­sen und Zie­le wider­spie­geln kön­nen. Bestehen­de struk­tu­rel­le Dis­kri­mi­nie­rungs­mus­ter kön­nen sich so im Out­put der Algo­rith­men mani­fes­tie­ren und sogar ver­stär­ken.

Woher kommt der Bias?

Die Ursa­chen für Vor­ein­ge­nom­men­heit in Algo­rith­men sind viel­fäl­tig:

  • Vor­ein­ge­nom­me­ne Trai­nings­da­ten: Oft spie­geln die Daten­sät­ze, mit denen KI-Sys­te­me trai­niert wer­den, his­to­ri­sche oder gesell­schaft­li­che Ungleich­hei­ten wider. Ein bekann­tes Bei­spiel ist ein Rekru­tie­rungs­al­go­rith­mus von Ama­zon, der Frau­en sys­te­ma­tisch benach­tei­lig­te, weil er mit Daten trai­niert wur­de, die über­wie­gend männ­li­che Bewer­ber ent­hiel­ten. Ähn­lich klas­si­fi­zier­te ein Bil­der­ken­nungs­sys­tem von Goog­le Fotos von dun­kel­häu­ti­gen Men­schen fälsch­li­cher­wei­se als „Goril­la“, was auf unaus­ge­gli­che­ne Trai­nings­da­ten hin­deu­tet.
  • Feh­len­de Reprä­sen­ta­ti­vi­tät: Wenn Daten­sät­ze bestimm­te Bevöl­ke­rungs­grup­pen unter­re­prä­sen­tie­ren, kann das Sys­tem die­se Grup­pen schlech­ter erken­nen oder bewer­ten. Dies zeigt sich bei Gesichts­er­ken­nungs­sys­te­men, die eine gerin­ge­re Genau­ig­keit bei der Iden­ti­fi­zie­rung von Per­so­nen mit dunk­ler Haut­far­be auf­wei­sen.
  • Design und Para­me­ter­wahl: Auch die Art und Wei­se, wie ein Algo­rith­mus kon­zi­piert und wel­che Para­me­ter berück­sich­tigt wer­den, kann zu Dis­kri­mi­nie­rung füh­ren.
  • Feh­len­de Diver­si­tät in Ent­wick­lungs­teams: Wenn die Ent­wick­lungs­teams über­wie­gend homo­gen (z.B. weiß und männ­lich) besetzt sind, ist die Wahr­schein­lich­keit gerin­ger, dass dis­kri­mi­nie­ren­de Ergeb­nis­se über­haupt erkannt und adres­siert wer­den.

Der Kindergeldskandal in den Niederlanden als Mahnmal

Ein prä­gnan­tes Bei­spiel für die gra­vie­ren­den Fol­gen algo­rith­mi­scher Dis­kri­mi­nie­rung ist der nie­der­län­di­sche Kin­der­geld­skan­dal („Daten­ras­sis­mus Nie­der­lan­de“). Im Jahr 2019 wur­de bekannt, dass die Steu­er­be­hör­den einen Algo­rith­mus zur Erstel­lung von Risi­ko­pro­fi­len ein­setz­ten, um mög­li­chen Betrug beim Bezug von Kin­der­geld auf­zu­de­cken. Zehn­tau­sen­de Fami­li­en, ins­be­son­de­re sol­che mit gerin­gem Ein­kom­men oder Migra­ti­ons­hin­ter­grund, wur­den fälsch­li­cher­wei­se der Betrugs­ab­sicht bezich­tigt und zur Rück­zah­lung von Leis­tun­gen auf­ge­for­dert. Dies führ­te zu mas­si­ver Ver­schul­dung und trieb vie­le Betrof­fe­ne in die Armut. Die­ses Bei­spiel ver­deut­licht, wie algo­rith­mi­sche Ent­schei­dungs­fin­dung ohne aus­rei­chen­de Kon­trol­le und Trans­pa­renz zu schwer­wie­gen­den Ver­let­zun­gen digi­ta­ler Men­schen­rech­te füh­ren kann.

Ethik Künstlicher Intelligenz: Die Notwendigkeit eines menschzentrierten Ansatzes

Ange­sichts die­ser Risi­ken ist die Ethik Künst­li­cher Intel­li­genz von zen­tra­ler Bedeu­tung. Es geht dar­um, sicher­zu­stel­len, dass KI-Sys­te­me zum Nut­zen der Gesell­schaft ein­ge­setzt wer­den und Grund­rech­te wah­ren. Die Debat­te über KI-Ethik muss die Fra­ge in den Mit­tel­punkt stel­len, wie allen Men­schen im digi­ta­len Zeit­al­ter ein gutes Leben ermög­licht wer­den kann.

Ethische Leitlinien und Prinzipien

Orga­ni­sa­tio­nen wie die Ber­tels­mann Stif­tung haben mit den „Algo.Rules“ neun Regeln für eine gesell­schaft­lich för­der­li­che Gestal­tung und den Ein­satz algo­rith­mi­scher Sys­te­me erar­bei­tet. Die­se Regeln sol­len bereits in der Ent­wick­lungs­pha­se von KI-Sys­te­men Beach­tung fin­den. Wich­ti­ge Prin­zi­pi­en umfas­sen:

  • Fair­ness und Nicht­dis­kri­mi­nie­rung: KI-Sys­te­me dür­fen kei­ne Dis­kri­mi­nie­rung för­dern oder ver­stär­ken. Fair­ness-Algo­rith­men kön­nen dabei hel­fen, Ver­zer­run­gen in Daten zu erken­nen und zu kor­ri­gie­ren.
  • Trans­pa­renz und Erklär­bar­keit: Die Ent­schei­dungs­pro­zes­se von Algo­rith­men müs­sen nach­voll­zieh­bar gemacht wer­den, um poten­zi­el­le Ver­zer­run­gen iden­ti­fi­zie­ren und behe­ben zu kön­nen. Tech­no­lo­gien wie LIME und SHAP tra­gen zur Erklär­ba­ren KI (XAI) bei.
  • Mensch­li­che Kon­trol­le und Über­wa­chung: Ins­be­son­de­re bei Hoch­ri­si­ko-Anwen­dun­gen ist mensch­li­che Kon­trol­le uner­läss­lich, um Fair­ness und Objek­ti­vi­tät zu gewähr­leis­ten.
  • Ver­ant­wort­lich­keit: Es muss klar sein, wer die Ver­ant­wor­tung für die Ent­schei­dun­gen und Aus­wir­kun­gen von KI-Sys­te­men trägt.

Der EU AI Act: Ein globaler Regulierungsrahmen

Die Euro­päi­sche Uni­on hat mit dem EU AI Act (KI-Ver­ord­nung) das welt­weit ers­te umfas­sen­de Gesetz zur Regu­lie­rung von Künst­li­cher Intel­li­genz ver­ab­schie­det. Die Ver­ord­nung ist seit dem 1. August 2024 in Kraft getre­ten, und die Mit­glied­staa­ten sind nun ver­pflich­tet, sie in natio­na­les Recht umzu­set­zen.

Risikobasierter Ansatz

Der AI Act folgt einem risi­ko­ba­sier­ten Ansatz, der KI-Sys­te­me in vier Kate­go­rien ein­teilt:

  1. Unan­nehm­ba­res Risi­ko (ver­bo­ten): Sys­te­me, die Grund­rech­te ver­let­zen, Men­schen mani­pu­lie­ren oder dis­kri­mi­nie­ren, sind unter­sagt. Dazu gehö­ren „Social Scoring“ und bio­me­tri­sche Video­über­wa­chung in öffent­li­chen Räu­men (mit Aus­nah­men für Straf­ver­fol­gungs­be­hör­den unter stren­gen Auf­la­gen).
  2. Hoch­ri­si­ko-KI: Anwen­dun­gen in kri­ti­schen Berei­chen wie dem Gesund­heits­we­sen, der Jus­tiz, der Straf­ver­fol­gung, der Migra­ti­on, im Bil­dungs­be­reich oder der öffent­li­chen Ver­wal­tung. Hier gel­ten stren­ge Regeln hin­sicht­lich Trans­pa­renz, Kon­trol­lier­bar­keit, Daten­qua­li­tät, Risi­ko­ma­nage­ment und mensch­li­cher Auf­sicht. Anbie­ter müs­sen eine tech­ni­sche Doku­men­ta­ti­on erstel­len und Kon­for­mi­täts­be­wer­tun­gen durch­füh­ren. Eine Grund­rech­te-Fol­gen­ab­schät­zung ist für Hoch­ri­si­ko-KI-Sys­te­me in der öffent­li­chen Hand vor dem Inver­kehr­brin­gen obli­ga­to­risch.
  3. Begrenz­te Risi­ken: Sys­te­me, bei denen spe­zi­fi­sche Trans­pa­renz­an­for­de­run­gen gel­ten, etwa die Kenn­zeich­nung von KI-gene­rier­ten Inhal­ten (Deepf­akes, Chat­bots).
  4. Mini­ma­le Risi­ken: Für unkri­ti­sche Sys­te­me, wie Spam­fil­ter, gibt es kei­ne beson­de­ren Vor­ga­ben, aber frei­wil­li­ge Ver­hal­tens­ko­di­zes wer­den emp­foh­len.

Auswirkungen auf die öffentliche Verwaltung

Für die öffent­li­che Ver­wal­tung in Deutsch­land und der gesam­ten EU bringt der AI Act tief­grei­fen­de Ver­än­de­run­gen und kon­kre­te Pflich­ten mit sich. Bis August 2025 müs­sen alle ein­ge­setz­ten KI-Sys­te­me erfasst und ein­ge­ord­net wer­den.

  • Neue Pflich­ten und Pro­zes­se: Behör­den müs­sen Grund­rechts­fol­ge­ab­schät­zun­gen durch­füh­ren, trans­pa­ren­te Doku­men­ta­tio­nen bereit­stel­len und Nach­voll­zieh­bar­keit gewähr­leis­ten. KI-Sys­te­me sol­len von Anfang an rechts­kon­form gestal­tet sein.
  • Wis­sens- und Kom­pe­tenz­auf­bau: Es besteht ein hoher Bedarf an tech­ni­schem Know-how und Schu­lun­gen für Mit­ar­bei­ten­de im Umgang mit KI-Sys­te­men.
  • KI-Gover­nan­ce: Die Imple­men­tie­rung einer robus­ten KI-Gover­nan­ce-Struk­tur ist ent­schei­dend, um das Poten­zi­al von KI ver­ant­wor­tungs­voll zu nut­zen, recht­li­che Vor­ga­ben ein­zu­hal­ten und einen Mehr­wert für die Bür­ger zu schaf­fen. Das Ver­trau­en der Bür­ger in die Ein­hal­tung ethi­scher Grund­sät­ze ist dabei von höchs­ter Prio­ri­tät.

Digitale Menschenrechte und KI-Governance in der öffentlichen Verwaltung

Der Schutz digi­ta­ler Men­schen­rech­te ist eng mit der Imple­men­tie­rung einer ethi­schen und trans­pa­ren­ten KI-Gover­nan­ce ver­bun­den. Die öffent­li­che Ver­wal­tung trägt hier eine beson­de­re Ver­ant­wor­tung, da sie als zen­tra­ler Kon­takt­punkt zwi­schen Bürger:innen und Staat fun­giert und Ver­wal­tungs­ent­schei­dun­gen weit­rei­chen­de Aus­wir­kun­gen auf Indi­vi­du­en und die Gesell­schaft haben.

Transparenz Algorithmen und menschliche Aufsicht

Die For­de­rung nach Trans­pa­renz von Algo­rith­men und die Not­wen­dig­keit mensch­li­cher Kon­trol­le sind zen­tra­le Säu­len der KI-Ethik und des AI Acts. Staat­li­che Ent­schei­dun­gen, die auf algo­rith­mi­schen Sys­te­men basie­ren, müs­sen trans­pa­rent und begründ­bar sein. Auch in der Jus­tiz, wo KI zur Unter­stüt­zung bei der Fall­ana­ly­se oder Pro­gno­se von Bewäh­rungs­dau­ern ein­ge­setzt wer­den kann, muss die mensch­li­che juris­ti­sche Ent­schei­dungs­ho­heit gewahrt blei­ben und der Ein­satz von KI trans­pa­rent gemacht wer­den. Der AI Act stärkt den Schutz vor auto­ma­ti­sier­ter Ent­schei­dungs­fin­dung, indem er detail­lier­te Trans­pa­renz- und Über­wa­chungs­an­for­de­run­gen fest­legt. Bürger:innen sol­len das Recht haben, Beschwer­den über KI-Sys­te­me und algo­rith­mi­sche Ent­schei­dun­gen ein­zu­rei­chen.

Herausforderungen und Lösungsansätze

Die Gewähr­leis­tung von Fair­ness und die Ver­mei­dung von Bias erfor­dern kon­ti­nu­ier­li­che Anstren­gun­gen:

  • Viel­fäl­ti­ge­re Daten­sät­ze: Die Berück­sich­ti­gung einer brei­te­ren Palet­te von Daten­quel­len, die alle Ziel­grup­pen reprä­sen­tie­ren, ist ent­schei­dend, um Ver­zer­run­gen zu mini­mie­ren.
  • Regel­mä­ßi­ge Audits und Tests: KI-Sys­te­me müs­sen regel­mä­ßig auf poten­zi­el­le Bias getes­tet und bei Bedarf neu kali­briert wer­den, um eine fai­re und objek­ti­ve Ent­schei­dungs­fin­dung zu gewähr­leis­ten.
  • „Erklär­ba­re KI“ (XAI): Tech­no­lo­gien, die die inter­ne Funk­ti­ons­wei­se und Ergeb­nis­se von KI-Sys­te­men für Men­schen ver­ständ­lich machen, sind wich­tig zur Erken­nung und Kor­rek­tur von Bias.
  • Ethi­sche Leit­fä­den und Check­lis­ten: Pra­xis­leit­fä­den für die digi­ta­le Ver­wal­tung, die ethi­sche Prin­zi­pi­en und regu­la­to­ri­sche Anfor­de­run­gen berück­sich­ti­gen, unter­stüt­zen die ver­ant­wor­tungs­vol­le Imple­men­tie­rung von KI.

Fazit

Die zuneh­men­de Ver­brei­tung von Algo­rith­men und Künst­li­cher Intel­li­genz in allen Lebens­be­rei­chen, ins­be­son­de­re in der öffent­li­chen Ver­wal­tung, birgt das Risi­ko signi­fi­kan­ter algo­rith­mi­scher Dis­kri­mi­nie­rung. Bei­spie­le wie der Kin­der­geld­skan­dal in den Nie­der­lan­den zei­gen die rea­len und ver­hee­ren­den Aus­wir­kun­gen von vor­ein­ge­nom­me­nen Algo­rith­men. Der EU AI Act stellt einen weg­wei­sen­den Schritt dar, um einen recht­li­chen Rah­men zu schaf­fen, der die Ent­wick­lung und den Ein­satz von KI sicher, ethisch und im Ein­klang mit den Grund­rech­ten der Bürger:innen gestal­tet. Trans­pa­renz, mensch­li­che Kon­trol­le und die Mini­mie­rung von Bias durch diver­se Daten und Ent­wick­lungs­teams sind kei­ne optio­na­len Ergän­zun­gen, son­dern fun­da­men­ta­le Anfor­de­run­gen für eine ver­trau­ens­wür­di­ge und gemein­wohl­ori­en­tier­te KI. Die öffent­li­che Ver­wal­tung ist nun gefor­dert, die­se Vor­ga­ben aktiv umzu­set­zen, um die Poten­zia­le der KI zu nut­zen und gleich­zei­tig digi­ta­le Men­schen­rech­te zu schüt­zen.

Weiterführende Quellen

https://www.europarl.europa.eu/doceo/document/O‑9–2022-000028_DE.html

https://www.humanrights.ch/de/news/algorithmen-diskriminieren

https://algorithmwatch.org/de/wie-und-warum-algorithmen-diskriminieren/

https://mebis.bycs.de/beitrag/algorithmische-diskriminierung

https://www.studysmarter.de/schule/politik/technologie-und-medieneinfluss/algorithmen-bias/

https://relevanzmacher.de/ki/algorithmic-bias/

https://rise-jugendkultur.de/artikel/rassismus-und-diskriminierung-durch-algorithmen/