KI-Recht: Was gilt und was sind Folgen für die Praxis?

KI-Recht: Was gilt und was sind Folgen für die Praxis?

Künst­li­che Intel­li­genz (KI) durch­dringt zuneh­mend unse­ren All­tag und ver­än­dert Wirt­schaft und Gesell­schaft grund­le­gend. Die­se Ent­wick­lung wirft kom­ple­xe recht­li­che Fra­gen auf, die von Daten­schutz über Haf­tung bis hin zu ethi­schen Aspek­ten rei­chen. Die Unsi­cher­heit über gel­ten­de Regeln und deren prak­ti­sche Aus­wir­kun­gen stellt Unter­neh­men und Ein­zel­per­so­nen vor gro­ße Her­aus­for­de­run­gen. Der Arti­kel beleuch­tet die aktu­el­le Rechts­la­ge im KI-Recht, iden­ti­fi­ziert die wich­tigs­ten Pro­blem­fel­der und ana­ly­siert die Kon­se­quen­zen für die prak­ti­sche Anwen­dung von KI-Sys­te­men.

Grundlagen des KI-Rechts: Ein Überblick

Das KI-Recht ist ein Quer­schnitts­be­reich, der ver­schie­de­ne Rechts­ge­bie­te berührt. Es gibt kein ein­zel­nes, umfas­sen­des “KI-Gesetz” im tra­di­tio­nel­len Sin­ne, son­dern eine Viel­zahl von Geset­zen und Ver­ord­nun­gen, die auf KI-Sys­te­me Anwen­dung finden.

Ein wesent­li­cher Bau­stein ist das EU-KI-Gesetz (Arti­fi­ci­al Intel­li­gence Act), das dar­auf abzielt, einen ein­heit­li­chen Rechts­rah­men für die Ent­wick­lung, das Inver­kehr­brin­gen und die Nut­zung von KI-Sys­te­men in der Euro­päi­schen Uni­on zu schaf­fen. Es legt risi­ko­ba­sier­te Anfor­de­run­gen fest, wobei KI-Sys­te­me je nach Gefähr­dungs­po­ten­zi­al in ver­schie­de­ne Kate­go­rien ein­ge­teilt wer­den. Hoch­ri­si­ko-KI-Sys­te­me, wie sie bei­spiels­wei­se in kri­ti­schen Infra­struk­tu­ren, im Bil­dungs­be­reich oder bei der Straf­ver­fol­gung ein­ge­setzt wer­den, unter­lie­gen stren­gen Auf­la­gen, um Grund­rech­te und Sicher­heit zu gewähr­leis­ten. Dazu gehö­ren Anfor­de­run­gen an die Daten­grund­la­ge, Trans­pa­renz, mensch­li­che Auf­sicht und Robustheit.

Neben dem EU-KI-Gesetz ist die Daten­schutz-Grund­ver­ord­nung (DSGVO) von zen­tra­ler Bedeu­tung, ins­be­son­de­re wenn KI-Sys­te­me per­so­nen­be­zo­ge­ne Daten ver­ar­bei­ten. Die DSGVO regelt die Ver­ar­bei­tung per­so­nen­be­zo­ge­ner Daten durch pri­va­te Unter­neh­men und öffent­li­che Stel­len. Unter­neh­men müs­sen sicher­stel­len, dass die Ver­ar­bei­tung per­so­nen­be­zo­ge­ner Daten durch KI-Sys­te­me auf einer recht­mä­ßi­gen Grund­la­ge basiert, trans­pa­rent erfolgt und die Rech­te der betrof­fe­nen Per­so­nen (z.B. Aus­kunfts­recht, Recht auf Berich­ti­gung, Recht auf Löschung) gewahrt werden.

Dar­über hin­aus sind natio­na­le Geset­ze und Vor­schrif­ten zu berück­sich­ti­gen, die spe­zi­fi­sche Aspek­te der KI-Nut­zung regeln. Dies kön­nen bei­spiels­wei­se Geset­ze zur Pro­dukt­haf­tung, zum Wett­be­werbs­recht oder zum Arbeits­recht sein.

Die recht­li­chen Grund­la­gen des KI-Rechts sind kom­plex und ent­wi­ckeln sich ste­tig wei­ter. Unter­neh­men und Ein­zel­per­so­nen, die KI-Sys­te­me ent­wi­ckeln oder ein­set­zen, müs­sen sich daher umfas­send infor­mie­ren und die gel­ten­den Regeln ein­hal­ten, um recht­li­che Risi­ken zu minimieren.

Quel­le: KI-Gesetz | Gestal­tung der digi­ta­len Zukunft Euro­pas (Euro­päi­sche Kom­mis­si­on) — https://digital-strategy.ec.europa.eu/de/policies/regulatory-framework-ai

KI-Systeme in der Praxis: Anwendungsbereiche und Risikobewertung

KI-Sys­te­me wer­den in einer Viel­zahl von Anwen­dungs­be­rei­chen ein­ge­setzt, die von der Auto­ma­ti­sie­rung von Geschäfts­pro­zes­sen über die per­so­na­li­sier­te Medi­zin bis hin zur Ent­wick­lung auto­no­mer Fahr­zeu­ge rei­chen. Jeder Anwen­dungs­be­reich birgt spe­zi­fi­sche recht­li­che Risi­ken, die sorg­fäl­tig bewer­tet wer­den müssen.

Im Gesund­heits­we­sen wer­den KI-Sys­te­me bei­spiels­wei­se zur Dia­gno­se von Krank­hei­ten, zur Ent­wick­lung per­so­na­li­sier­ter Behand­lungs­plä­ne oder zur Unter­stüt­zung von Ope­ra­tio­nen ein­ge­setzt. Recht­li­che Risi­ken erge­ben sich hier ins­be­son­de­re aus dem Daten­schutz­recht, da sen­si­ble Gesund­heits­da­ten ver­ar­bei­tet wer­den, sowie aus dem Haf­tungs­recht, wenn es zu Fehl­ent­schei­dun­gen auf­grund von KI-basier­ten Dia­gno­sen kommt.

Im Finanz­sek­tor wer­den KI-Sys­te­me zur Betrugs­er­ken­nung, zur Kre­dit­wür­dig­keits­prü­fung oder zur algo­rith­mi­schen Han­dels­stra­te­gie ein­ge­setzt. Recht­li­che Risi­ken bestehen hier vor allem im Bereich des Dis­kri­mi­nie­rungs­ver­bots, wenn KI-Sys­te­me auf­grund bestimm­ter Merk­ma­le (z.B. eth­ni­scher Her­kunft) zu unfai­ren oder dis­kri­mi­nie­ren­den Ent­schei­dun­gen füh­ren, sowie im Bereich der Trans­pa­renz, wenn die Funk­ti­ons­wei­se der KI-Sys­te­me nicht nach­voll­zieh­bar ist.

Im Per­so­nal­we­sen wer­den KI-Sys­te­me zur Bewer­ber­aus­wahl, zur Leis­tungs­be­ur­tei­lung oder zur Per­so­nal­pla­nung ein­ge­setzt. Recht­li­che Risi­ken erge­ben sich hier ins­be­son­de­re aus dem Dis­kri­mi­nie­rungs­ver­bot, wenn KI-Sys­te­me auf­grund bestimm­ter Merk­ma­le (z.B. Geschlecht, Alter) zu unfai­ren oder dis­kri­mi­nie­ren­den Ent­schei­dun­gen füh­ren, sowie aus dem Daten­schutz­recht, wenn per­so­nen­be­zo­ge­ne Daten der Mit­ar­bei­ter ver­ar­bei­tet werden.

In der öffent­li­chen Ver­wal­tung wer­den KI-Sys­te­me zur Ent­schei­dungs­fin­dung in ver­schie­de­nen Berei­chen ein­ge­setzt. Die Fraun­ho­fer Stu­die “Künst­li­che Intel­li­genz in der öffent­li­chen Ver­wal­tung” zeigt auf, dass dies Chan­cen und Her­aus­for­de­run­gen mit sich bringt. So kön­nen KI-Sys­te­me bei­spiels­wei­se bei der Bear­bei­tung von Anträ­gen, der Über­wa­chung von Geset­zen oder der Vor­her­sa­ge von Kri­mi­na­li­tät ein­ge­setzt wer­den. Recht­li­che Risi­ken bestehen hier ins­be­son­de­re im Bereich der Trans­pa­renz, wenn die Ent­schei­dun­gen der KI-Sys­te­me nicht nach­voll­zieh­bar sind, sowie im Bereich der Ver­ant­wort­lich­keit, wenn es zu Fehl­ent­schei­dun­gen kommt.

Die Risi­ko­be­wer­tung von KI-Sys­te­men ist ein kom­ple­xer Pro­zess, der eine umfas­sen­de Ana­ly­se der poten­zi­el­len Aus­wir­kun­gen auf Grund­rech­te, Sicher­heit und ande­re Schutz­gü­ter erfor­dert. Unter­neh­men und Orga­ni­sa­tio­nen soll­ten daher früh­zei­tig eine Risi­ko­be­wer­tung durch­füh­ren, um recht­li­che Risi­ken zu iden­ti­fi­zie­ren und geeig­ne­te Maß­nah­men zu ergrei­fen, um die­se zu minimieren.

Quel­le: KÜNSTLICHE INTELLIGENZ IN DER ÖFFENTLICHEN VERWALTUNG (Fraun­ho­fer) — https://publica.fraunhofer.de/bitstreams/d3d9f520-1fd4-4516–98d6-a3370c134155/download

Datenschutzrechtliche Aspekte beim Einsatz von KI

Der Ein­satz von KI-Sys­te­men bringt erheb­li­che daten­schutz­recht­li­che Her­aus­for­de­run­gen mit sich, ins­be­son­de­re im Hin­blick auf die Ver­ar­bei­tung per­so­nen­be­zo­ge­ner Daten. Die Daten­schutz-Grund­ver­ord­nung (DSGVO) stellt hohe Anfor­de­run­gen an die Ver­ar­bei­tung per­so­nen­be­zo­ge­ner Daten und ver­pflich­tet Unter­neh­men und Orga­ni­sa­tio­nen, die KI-Sys­te­me ein­set­zen, sicher­zu­stel­len, dass die Ver­ar­bei­tung auf einer recht­mä­ßi­gen Grund­la­ge basiert, trans­pa­rent erfolgt und die Rech­te der betrof­fe­nen Per­so­nen gewahrt werden.

Eine zen­tra­le Her­aus­for­de­rung ist die Trans­pa­renz­pflicht. Betrof­fe­ne Per­so­nen haben das Recht zu erfah­ren, wel­che Daten über sie ver­ar­bei­tet wer­den und wie die­se Daten ver­wen­det wer­den. Bei KI-Sys­te­men ist es jedoch oft schwie­rig, die Funk­ti­ons­wei­se der Algo­rith­men nach­zu­voll­zie­hen und die Ent­schei­dun­gen der KI-Sys­te­me zu erklä­ren. Unter­neh­men müs­sen daher geeig­ne­te Maß­nah­men ergrei­fen, um die Trans­pa­renz zu gewähr­leis­ten, bei­spiels­wei­se durch die Bereit­stel­lung von Infor­ma­tio­nen über die Funk­ti­ons­wei­se der KI-Sys­te­me oder durch die Mög­lich­keit, Ent­schei­dun­gen der KI-Sys­te­me zu überprüfen.

Ein wei­te­res Pro­blem ist die Ein­wil­li­gung der betrof­fe­nen Per­so­nen. Die Ver­ar­bei­tung per­so­nen­be­zo­ge­ner Daten ist grund­sätz­lich nur dann zuläs­sig, wenn die betrof­fe­ne Per­son in die Ver­ar­bei­tung ein­ge­wil­ligt hat. Bei KI-Sys­te­men ist es jedoch oft schwie­rig, eine infor­mier­te Ein­wil­li­gung zu erhal­ten, da die betrof­fe­nen Per­so­nen oft nicht ver­ste­hen, wie die KI-Sys­te­me funk­tio­nie­ren und wel­che Aus­wir­kun­gen die Ver­ar­bei­tung ihrer Daten hat. Unter­neh­men müs­sen daher sicher­stel­len, dass die Ein­wil­li­gung frei­wil­lig, infor­miert und ein­deu­tig erfolgt.

Die Rech­te der Betrof­fe­nen (z.B. Aus­kunfts­recht, Recht auf Berich­ti­gung, Recht auf Löschung, Recht auf Ein­schrän­kung der Ver­ar­bei­tung, Recht auf Daten­über­trag­bar­keit, Wider­spruchs­recht) müs­sen auch beim Ein­satz von KI-Sys­te­men gewahrt wer­den. Unter­neh­men müs­sen geeig­ne­te Ver­fah­ren ein­rich­ten, um die Aus­übung die­ser Rech­te zu ermög­li­chen und sicher­zu­stel­len, dass die Rech­te der Betrof­fe­nen nicht durch den Ein­satz von KI-Sys­te­men beein­träch­tigt werden.

Die Anony­mi­sie­rung und Pseud­ony­mi­sie­rung von Daten kön­nen dazu bei­tra­gen, das Daten­schutz­ri­si­ko beim Ein­satz von KI-Sys­te­men zu mini­mie­ren. Durch die Anony­mi­sie­rung von Daten wer­den die Daten so ver­än­dert, dass sie nicht mehr einer bestimm­ten Per­son zuge­ord­net wer­den kön­nen. Durch die Pseud­ony­mi­sie­rung von Daten wer­den die Daten so ver­än­dert, dass sie nur noch mit Hil­fe zusätz­li­cher Infor­ma­tio­nen einer bestimm­ten Per­son zuge­ord­net wer­den können.

Unter­neh­men und Orga­ni­sa­tio­nen, die KI-Sys­te­me ein­set­zen, müs­sen die gel­ten­den daten­schutz­recht­li­chen Bestim­mun­gen ein­hal­ten und geeig­ne­te Maß­nah­men ergrei­fen, um den Schutz der per­so­nen­be­zo­ge­nen Daten zu gewähr­leis­ten. Dazu gehört auch die Durch­füh­rung einer Daten­schutz-Fol­gen­ab­schät­zung (DSFA), wenn die Ver­ar­bei­tung per­so­nen­be­zo­ge­ner Daten mit einem hohen Risi­ko für die Rech­te und Frei­hei­ten der betrof­fe­nen Per­so­nen ver­bun­den ist.

Quel­le: Rechts­grund­la­gen im Daten­schutz beim Ein­satz von Künst­li­cher Intel­li­genz (Lan­des­be­auf­trag­ter für Daten­schutz und Infor­ma­ti­ons­frei­heit Baden-Würt­tem­berg) – Umfasst die Rechts­grund­la­gen des Daten­schut­zes beim Ein­satz von KI.

Haftung für KI-Systeme: Wer trägt die Verantwortung?

Die Fra­ge der Haf­tung für Schä­den, die durch KI-Sys­te­me ver­ur­sacht wer­den, ist kom­plex und recht­lich noch nicht abschlie­ßend geklärt. Grund­sätz­lich kom­men ver­schie­de­ne Haf­tungs­mo­del­le in Betracht, wie bei­spiels­wei­se die Pro­dukt­haf­tung nach dem Pro­dukt­haf­tungs­ge­setz (ProdHG) oder die Ver­schul­dens­haf­tung nach dem Bür­ger­li­chen Gesetz­buch (BGB).

Die Pro­dukt­haf­tung greift ein, wenn ein feh­ler­haf­tes Pro­dukt einen Scha­den ver­ur­sacht. Ein KI-Sys­tem kann als Pro­dukt im Sin­ne des ProdHG ange­se­hen wer­den. Aller­dings ist umstrit­ten, wann ein KI-Sys­tem als feh­ler­haft anzu­se­hen ist. Ein Feh­ler kann bei­spiels­wei­se vor­lie­gen, wenn das KI-Sys­tem nicht die erwar­te­ten Ergeb­nis­se lie­fert oder wenn es auf­grund von Feh­lern in den Algo­rith­men zu fal­schen Ent­schei­dun­gen kommt.

Die Ver­schul­dens­haf­tung setzt ein Ver­schul­den des Schä­di­gers vor­aus. Bei KI-Sys­te­men ist es oft schwie­rig, ein Ver­schul­den nach­zu­wei­sen, da die Funk­ti­ons­wei­se der KI-Sys­te­me kom­plex und unvor­her­seh­bar sein kann. Ein Ver­schul­den kann bei­spiels­wei­se vor­lie­gen, wenn der Ent­wick­ler des KI-Sys­tems Feh­ler bei der Ent­wick­lung gemacht hat oder wenn der Betrei­ber des KI-Sys­tems das KI-Sys­tem nicht ord­nungs­ge­mäß über­wacht hat.

Neben der Pro­dukt­haf­tung und der Ver­schul­dens­haf­tung kom­men auch ande­re Haf­tungs­mo­del­le in Betracht, wie bei­spiels­wei­se die Gefähr­dungs­haf­tung. Die Gefähr­dungs­haf­tung setzt kein Ver­schul­den vor­aus, son­dern knüpft an die Gefähr­lich­keit einer Sache oder Tätig­keit an. Es wird dis­ku­tiert, ob eine Gefähr­dungs­haf­tung für KI-Sys­te­me ein­ge­führt wer­den soll­te, da KI-Sys­te­me poten­zi­ell gro­ße Schä­den ver­ur­sa­chen können.

Die EU-Kom­mis­si­on hat im Jahr 2020 einen Vor­schlag für eine Richt­li­nie über die Haf­tung für feh­ler­haf­te Pro­duk­te vor­ge­legt, der auch die Haf­tung für KI-Sys­te­me regeln soll. Der Vor­schlag sieht vor, dass der Her­stel­ler eines KI-Sys­tems für Schä­den haf­tet, die durch das KI-Sys­tem ver­ur­sacht wer­den, es sei denn, er kann nach­wei­sen, dass der Scha­den nicht auf einem Feh­ler des KI-Sys­tems beruht.

Die Fra­ge der Haf­tung für KI-Sys­te­me ist von gro­ßer Bedeu­tung, da sie ent­schei­det, wer für Schä­den auf­kommt, die durch KI-Sys­te­me ver­ur­sacht wer­den. Eine kla­re und ein­deu­ti­ge Rege­lung der Haf­tung ist wich­tig, um das Ver­trau­en in KI-Sys­te­me zu stär­ken und die Ent­wick­lung und den Ein­satz von KI-Sys­te­men zu fördern.

Ethische Fragen und gesellschaftliche Auswirkungen des KI-Rechts

Der Ein­satz von KI wirft eine Viel­zahl von ethi­schen Fra­gen auf, die im Recht berück­sich­tigt wer­den müs­sen. Dazu gehö­ren Fra­gen der Dis­kri­mi­nie­rung, Fair­ness, Trans­pa­renz und Ver­ant­wort­lich­keit. KI-Sys­te­me kön­nen bei­spiels­wei­se zu dis­kri­mi­nie­ren­den Ent­schei­dun­gen füh­ren, wenn sie auf ver­zerr­ten Daten trai­niert wer­den oder wenn die Algo­rith­men selbst dis­kri­mi­nie­rend sind. Es ist daher wich­tig, sicher­zu­stel­len, dass KI-Sys­te­me fair und dis­kri­mi­nie­rungs­frei sind.

Die Trans­pa­renz von KI-Sys­te­men ist ein wei­te­res wich­ti­ges ethi­sches Anlie­gen. Es ist wich­tig, dass die Funk­ti­ons­wei­se der KI-Sys­te­me nach­voll­zieh­bar ist, damit die Ent­schei­dun­gen der KI-Sys­te­me über­prüft und gege­be­nen­falls kor­ri­giert wer­den kön­nen. Unter­neh­men müs­sen daher geeig­ne­te Maß­nah­men ergrei­fen, um die Trans­pa­renz der KI-Sys­te­me zu gewährleisten.

Die Fra­ge der Ver­ant­wort­lich­keit ist eben­falls von gro­ßer Bedeu­tung. Es muss klar sein, wer für die Ent­schei­dun­gen der KI-Sys­te­me ver­ant­wort­lich ist und wer für Schä­den auf­kommt, die durch KI-Sys­te­me ver­ur­sacht wer­den. Eine kla­re Rege­lung der Ver­ant­wort­lich­keit ist wich­tig, um das Ver­trau­en in KI-Sys­te­me zu stärken.

Der Ein­satz von KI hat auch erheb­li­che gesell­schaft­li­che Aus­wir­kun­gen, ins­be­son­de­re auf die Arbeits­welt. KI-Sys­te­me kön­nen Arbeits­plät­ze auto­ma­ti­sie­ren und ver­än­dern, was zu Arbeits­lo­sig­keit und sozia­ler Ungleich­heit füh­ren kann. Es ist daher wich­tig, die Aus­wir­kun­gen von KI auf die Arbeits­welt zu ana­ly­sie­ren und Maß­nah­men zu ergrei­fen, um die nega­ti­ven Aus­wir­kun­gen zu minimieren.

Die ethi­schen Impli­ka­tio­nen von KI müs­sen bei der Ent­wick­lung und dem Ein­satz von KI-Sys­te­men berück­sich­tigt wer­den. Unter­neh­men und Orga­ni­sa­tio­nen soll­ten ethi­sche Leit­li­ni­en ent­wi­ckeln und sicher­stel­len, dass die KI-Sys­te­me im Ein­klang mit die­sen Leit­li­ni­en ent­wi­ckelt und ein­ge­setzt wer­den. Die Poli­tik muss einen Rechts­rah­men schaf­fen, der die ethi­schen Fra­gen berück­sich­tigt und die nega­ti­ven gesell­schaft­li­chen Aus­wir­kun­gen minimiert.

Quel­le: „KI und Arbeits­recht“ — Indi­vi­du­al­ar­beits­recht­li­che Aspek­te (1. Teil) (gvw.com) – Ana­ly­siert die Aus­wir­kun­gen von KI auf das Arbeitsrecht.

Weiterführende Quellen

Fazit

Der Ein­satz von KI birgt erheb­li­che recht­li­che Her­aus­for­de­run­gen, die sowohl Chan­cen als auch Risi­ken mit sich brin­gen. Eine umfas­sen­de Aus­ein­an­der­set­zung mit den gel­ten­den Regeln und deren prak­ti­schen Aus­wir­kun­gen ist uner­läss­lich, um KI-Sys­te­me ver­ant­wor­tungs­voll und im Ein­klang mit dem Recht zu ent­wi­ckeln und ein­zu­set­zen. Die Rechts­la­ge befin­det sich in einem ste­ti­gen Wan­del, wes­halb eine kon­ti­nu­ier­li­che Beob­ach­tung und Anpas­sung erfor­der­lich sind. Unter­neh­men müs­sen sich aktiv mit den The­men Daten­schutz, Haf­tung und ethi­schen Fra­gen aus­ein­an­der­set­zen, um die Poten­zia­le von KI voll aus­zu­schöp­fen und gleich­zei­tig recht­li­che Risi­ken zu minimieren.