Pflichten bei Nutzung von generativer KI

Pflichten bei Nutzung von generativer KI

Die rasant fort­schrei­ten­de Ent­wick­lung und Ver­brei­tung gene­ra­ti­ver KI-Sys­te­me wie ChatGPT, Mid­jour­ney und Co. revo­lu­tio­niert vie­le Arbeits­be­rei­che und krea­ti­ve Pro­zes­se. Wäh­rend die Poten­zia­le enorm sind, wer­fen ihre Nut­zung auch zahl­rei­che recht­li­che und ethi­sche Fra­gen auf. Anwen­der sehen sich mit einer Viel­zahl von Pflich­ten kon­fron­tiert, die oft unklar erschei­nen. Die­ser Arti­kel beleuch­tet die wesent­li­chen Sorgfalts‑, Urhe­ber­rechts- und Daten­schutz­pflich­ten, denen Nut­zer gene­ra­ti­ver KI nach­kom­men müs­sen, um recht­li­che Risi­ken zu mini­mie­ren. Im Fokus ste­hen die Her­aus­for­de­run­gen bei der prak­ti­schen Anwen­dung und die Klä­rung von Haf­tungs­fra­gen im Kon­text der aktu­el­len und zukünf­ti­gen recht­li­chen Rah­men­be­din­gun­gen.

Rechtlicher Rahmen für die Nutzung generativer KI

Die Nut­zung gene­ra­ti­ver KI in Deutsch­land und Euro­pa unter­liegt einem sich ent­wi­ckeln­den recht­li­chen Rah­men. Die KI-Ver­ord­nung (AI Act) der Euro­päi­schen Uni­on spielt hier­bei eine zen­tra­le Rol­le. Sie klas­si­fi­ziert KI-Sys­te­me nach Risi­ko­stu­fen und legt für Anbie­ter und teil­wei­se auch Nut­zer Pflich­ten fest, ins­be­son­de­re bei Hoch­ri­si­ko-KI-Sys­te­men. Dar­über hin­aus sind bestehen­de Geset­ze rele­vant. Das Urhe­ber­recht regelt Fra­gen der Schöp­fungs­hö­he von KI-gene­rier­ten Inhal­ten und der Nut­zung urhe­ber­recht­lich geschütz­ter Wer­ke zum Trai­nie­ren von KI. Die DS-GVO (Daten­schutz-Grund­ver­ord­nung) kommt zur Anwen­dung, sobald per­so­nen­be­zo­ge­ne Daten ver­ar­bei­tet wer­den, sei es bei der Ein­ga­be von Prompts oder im KI-Out­put. Die Ein­hal­tung die­ser Rechts­grund­la­gen ist ent­schei­dend, um Kon­for­mi­tät sicher­zu­stel­len.

Wei­ter­füh­ren­de Quel­len:

Konkrete Pflichten des Nutzers: Sorgfalt und Prüfung

Nut­zer gene­ra­ti­ver KI tra­gen eine akti­ve Ver­ant­wort­lich­keit für die von ihnen ver­wen­de­ten Sys­te­me und die gene­rier­ten Inhal­te (KI-Out­put). Eine zen­tra­le Pflicht ist die Sorg­falts­pflicht. Das bedeu­tet, dass Nut­zer den Out­put der KI nicht blind über­neh­men dür­fen, son­dern die­sen kri­tisch prü­fen müs­sen. Die­se Prü­fungs­pflicht erstreckt sich ins­be­son­de­re auf die Rich­tig­keit der gelie­fer­ten Infor­ma­tio­nen, die Plau­si­bi­li­tät von Aus­sa­gen oder krea­ti­ven Ergeb­nis­sen sowie auf mög­li­che Rechts­ver­let­zun­gen. Hat die KI bei­spiels­wei­se Tex­te gene­riert, muss der Nut­zer prü­fen, ob die­se gegen das Urhe­ber­recht ver­sto­ßen (z. B. durch Pla­gia­te) oder fal­sche, gar ruf­schä­di­gen­de Infor­ma­tio­nen ent­hal­ten. Bei Bil­dern oder Musik ist eben­falls eine Prü­fung auf poten­zi­el­le Urhe­ber­rechts­ver­let­zun­gen uner­läss­lich. Die Veri­fi­ka­ti­on der Fak­ten ist beson­ders wich­tig, wenn der KI-Out­put in beruf­li­chen oder geschäft­li­chen Kon­tex­ten ver­wen­det wird, wo Feh­ler weit­rei­chen­de Fol­gen haben kön­nen. Die Art und Wei­se der erfor­der­li­chen Sorg­falt hängt dabei stark vom Anwen­dungs­be­reich und dem poten­zi­el­len Scha­dens­ri­si­ko ab. Ein ein­fa­cher Ent­wurf für eine E‑Mail erfor­dert weni­ger Prü­fung als ein recht­li­cher Text oder eine tech­ni­sche Anlei­tung.

Wei­ter­füh­ren­de Quel­le:

Urheberrechtliche Pflichten bei der Nutzung

Die Nut­zung gene­ra­ti­ver KI wirft kom­ple­xe urhe­ber­recht­li­che Fra­gen auf, die für Anwen­der von zen­tra­ler Bedeu­tung sind. Eine Haupt­fra­ge betrifft die Nut­zung von KI-gene­rier­ten Inhal­ten: Dür­fen die von einem KI-Modell erzeug­ten Tex­te, Bil­der, Musik­stü­cke oder Codes frei ver­wen­det wer­den? Grund­sätz­lich gilt in Deutsch­land und Euro­pa, dass nur mensch­li­che Schöp­fun­gen urhe­ber­recht­li­chen Schutz genie­ßen. Da die KI selbst kei­ne Rechts­per­sön­lich­keit besitzt, kön­nen die gene­rier­ten Ergeb­nis­se in den meis­ten Fäl­len nicht das Urhe­ber­recht der KI begrün­den. Dies bedeu­tet jedoch nicht zwangs­läu­fig, dass die Inhal­te frei nutz­bar sind. Die Nut­zungs­be­din­gun­gen des jewei­li­gen KI-Anbie­ters sind hier ent­schei­dend. Vie­le Anbie­ter bean­spru­chen ent­we­der das Urhe­ber­recht an den Out­puts für sich, gewäh­ren dem Nut­zer umfas­sen­de Nut­zungs­rech­te oder behan­deln die Out­puts als gemein­frei. Nut­zer müs­sen daher unbe­dingt die Lizenz­be­din­gun­gen des spe­zi­fi­schen KI-Tools prü­fen, bevor sie gene­rier­te Inhal­te kom­mer­zi­ell oder öffent­lich ver­wen­den.

Ein wei­te­res Risi­ko liegt im Trai­ning von KI-Model­len mit urhe­ber­recht­lich geschütz­ten Inhal­ten. Auch wenn dies pri­mär die Ent­wick­ler betrifft, kön­nen Nut­zer in die Pflicht genom­men wer­den, wenn sie die KI bewusst mit geschütz­tem Mate­ri­al füt­tern, um spe­zi­fi­sche Ergeb­nis­se zu erzie­len, die eine unzu­läs­si­ge Ver­viel­fäl­ti­gung dar­stel­len könn­ten. Die recht­li­che Ein­ord­nung des soge­nann­ten „Text and Data Mining“ durch KI ist noch nicht abschlie­ßend geklärt, wird aber durch neue Rege­lun­gen im Urhe­ber­rechts­ge­setz (z.B. § 44b UrhG) für wis­sen­schaft­li­che Zwe­cke und poten­zi­ell durch die KI-Ver­ord­nung beein­flusst.

Schließ­lich stellt sich die Fra­ge nach poten­zi­el­len Kenn­zeich­nungs­pflich­ten. Auch wenn es der­zeit noch kei­ne all­ge­mei­ne gesetz­li­che Pflicht zur Kenn­zeich­nung von KI-gene­rier­ten Inhal­ten gibt, kön­nen ver­trag­li­che Ver­ein­ba­run­gen, ethi­sche Grund­sät­ze oder zukünf­ti­ge gesetz­li­che Anfor­de­run­gen (ins­be­son­de­re durch die KI-Ver­ord­nung) eine sol­che Kenn­zeich­nung not­wen­dig machen, um Trans­pa­renz zu gewähr­leis­ten und Ver­wechs­lun­gen mit mensch­li­chen Wer­ken zu ver­mei­den. Die Ver­wen­dung von KI-gene­rier­ten Inhal­ten ohne ent­spre­chen­de Prü­fung auf Ori­gi­na­li­tät kann zudem leicht zu Pla­gia­ten füh­ren, wenn die KI unbe­ab­sich­tigt exis­tie­ren­de Wer­ke repro­du­ziert. Eine sorg­fäl­ti­ge Prü­fung und ggf. Quel­len­an­ga­be ist daher rat­sam.

Datenschutzrechtliche Pflichten bei der Nutzung

Die Nut­zung gene­ra­ti­ver KI-Sys­te­me, ins­be­son­de­re wenn sie text­ba­siert sind wie Chat­bots, bringt spe­zi­fi­sche daten­schutz­recht­li­che Her­aus­for­de­run­gen mit sich, da die Ver­ar­bei­tung von per­so­nen­be­zo­ge­nen Daten nicht aus­ge­schlos­sen wer­den kann. Gemäß der Daten­schutz-Grund­ver­ord­nung (DS-GVO) unter­lie­gen Nut­zer, die sol­che Sys­te­me im beruf­li­chen Kon­text oder in einer Wei­se nut­zen, die über rein per­sön­li­che oder fami­liä­re Zwe­cke hin­aus­geht, poten­zi­ell der Ver­ant­wort­lich­keit als Daten­ver­ar­bei­ter oder sogar als Ver­ant­wort­li­cher im Sin­ne der DS-GVO.

Die größ­te Her­aus­for­de­rung für Nut­zer liegt in der Ein­ga­be von Infor­ma­tio­nen in das Sys­tem, den soge­nann­ten Prompts. Wer­den in den Prompts per­so­nen­be­zo­ge­nen Daten ein­ge­ge­ben – sei es bewusst oder unbe­wusst –, erfolgt eine Ver­ar­bei­tung die­ser Daten durch das KI-Modell. Dies kann bei­spiels­wei­se gesche­hen, wenn Nut­zer E‑Mails zusam­men­fas­sen las­sen, die Namen von Per­so­nen ent­hal­ten, oder wenn sie inter­ne Doku­men­te mit per­so­nen­be­zo­ge­nen Daten hoch­la­den, um Ana­ly­sen durch­zu­füh­ren. In sol­chen Fäl­len müs­sen Nut­zer sicher­stel­len, dass eine Rechts­grund­la­ge für die Daten­ver­ar­bei­tung gemäß Art. 6 DS-GVO vor­liegt (z.B. Ein­wil­li­gung, Ver­trags­er­fül­lung, berech­tig­tes Inter­es­se).

Zusätz­lich besteht das Risi­ko, dass die KI im Out­put per­so­nen­be­zo­ge­nen Daten gene­riert, auch wenn die­se nicht expli­zit ein­ge­ge­ben wur­den, etwa wenn das Modell auf Trai­nings­da­ten basiert, die per­so­nen­be­zo­ge­ne Daten ent­hiel­ten, oder wenn es Rück­schlüs­se auf Per­so­nen zieht. Nut­zer, die sol­che Out­puts ver­wen­den, müs­sen prü­fen, ob es sich um per­so­nen­be­zo­ge­ne Daten han­delt und ob die wei­te­re Nut­zung mit den Grund­sät­zen der DS-GVO ver­ein­bar ist, ins­be­son­de­re hin­sicht­lich Zweck­bin­dung, Daten­mi­ni­mie­rung und Trans­pa­renz. Es ist rat­sam, kei­ne sen­si­blen oder iden­ti­fi­zie­ren­den per­so­nen­be­zo­ge­nen Daten in Prompts ein­zu­ge­ben, ins­be­son­de­re nicht bei öffent­li­chen oder frei zugäng­li­chen KI-Model­len. Bei der Nut­zung von KI-Sys­te­men im Unter­neh­men ist zudem die Ein­bin­dung des betrieb­li­chen Daten­schutz­be­auf­trag­ten und die Durch­füh­rung einer Daten­schutz-Fol­gen­ab­schät­zung (DSFA) nach Art. 35 DS-GVO zu prü­fen, ins­be­son­de­re bei umfang­rei­cher Ver­ar­bei­tung oder bei hohem Risi­ko für die Betrof­fe­nen­rech­te.

Die Frage der Haftung bei Fehlern aus der KI

Eine der zen­tra­len und recht­lich noch nicht voll­stän­dig geklär­ten Fra­gen bei der Nut­zung gene­ra­ti­ver KI ist die Haf­tung für Schä­den oder Rechts­ver­let­zun­gen, die durch feh­ler­haf­te, irre­füh­ren­de oder schäd­li­che KI-Out­puts ent­ste­hen. Wenn eine KI bei­spiels­wei­se fal­sche recht­li­che Infor­ma­tio­nen lie­fert, medi­zi­ni­sche Rat­schlä­ge gibt, die zu Schä­den füh­ren, oder dif­fa­mie­ren­de Tex­te über Per­so­nen gene­riert, stellt sich die Fra­ge: Wer trägt die Ver­ant­wor­tung?

In den meis­ten Fäl­len wird eine Haf­tung des Nut­zers in Betracht kom­men, ins­be­son­de­re wenn die­ser den KI-Out­put unge­prüft über­nimmt und ver­wen­det. Die bereits dis­ku­tier­te Sorg­falts­pflicht des Nut­zers impli­ziert, dass er die gene­rier­ten Inhal­te auf Rich­tig­keit und Recht­mä­ßig­keit prü­fen muss, bevor er sich auf sie ver­lässt oder sie ver­öf­fent­licht. Han­delt der Nut­zer fahr­läs­sig, indem er eine not­wen­di­ge Prü­fung unter­lässt, kann er für dar­aus resul­tie­ren­de Schä­den haft­bar gemacht wer­den, bei­spiels­wei­se wegen Falsch­be­ra­tung, Ver­let­zung von Ver­kehrs­si­che­rungs­pflich­ten oder Per­sön­lich­keits­rechts­ver­let­zun­gen.

Aller­dings kön­nen auch der Ent­wick­ler oder der Anbie­ter des KI-Sys­tems in die Haf­tung genom­men wer­den. Denk­bar sind Ansprü­che aus Pro­dukt­haf­tung, wenn das KI-Sys­tem als feh­ler­haf­tes Pro­dukt ein­ge­stuft wird, das bei bestim­mungs­ge­mä­ßem Gebrauch Schä­den ver­ur­sacht. Auch ver­trag­li­che Haf­tungs­an­sprü­che gegen­über dem Anbie­ter (z.B. wegen Schlecht­leis­tung) oder delikt­i­sche Ansprü­che (z.B. wegen Ver­let­zung von Ver­kehrs­si­che­rungs­pflich­ten bei der Gestal­tung des Sys­tems) sind mög­lich. Die Abgren­zung der Ver­ant­wort­lich­kei­ten ist kom­plex und hängt stark vom Ein­zel­fall, der Art des Feh­lers und der Gestal­tung des KI-Sys­tems ab.

Aktu­el­le Dis­kus­sio­nen und die KI-Ver­ord­nung zie­len dar­auf ab, kla­re­re Regeln für die Haf­tung im KI-Kon­text zu schaf­fen, ins­be­son­de­re für Hoch­ri­si­ko-KI-Sys­te­me. Ziel ist es, die Beweis­last für Geschä­dig­te zu erleich­tern und kla­re Ver­ant­wort­lich­kei­ten ent­lang der Wert­schöp­fungs­ket­te fest­zu­le­gen. Wie der Arti­kel Wel­che Pflich­ten man bei der Nut­zung gene­ra­ti­ver KI hat aus­führt, ist die Klä­rung der Haf­tung, beson­ders bei Schä­den durch feh­ler­haf­te Anlei­tun­gen oder Infor­ma­tio­nen, ein zen­tra­ler Punkt für die Rechts­si­cher­heit. Bis kla­re gesetz­li­che Rege­lun­gen grei­fen, bleibt eine sorg­fäl­ti­ge Prü­fung des KI-Out­puts durch den Nut­zer uner­läss­lich, um eige­ne Haf­tungs­ri­si­ken zu mini­mie­ren.

Fazit

Die Nut­zung gene­ra­ti­ver KI-Sys­te­me bringt zwei­fel­los enor­me Poten­zia­le mit sich, erfor­dert aber auch ein Bewusst­sein und die Ein­hal­tung ver­schie­dens­ter Pflich­ten. Für Nut­zer ste­hen ins­be­son­de­re die Sorg­falts­pflicht bei der Über­prü­fung der gene­rier­ten Inhal­te, die Beach­tung des Urhe­ber­rechts sowie der Daten­schutz im Vor­der­grund. Es ist ent­schei­dend, die KI-Out­puts kri­tisch zu hin­ter­fra­gen, ins­be­son­de­re auf Rich­tig­keit und poten­zi­el­le Rechts­ver­let­zun­gen. Auch die Ver­ar­bei­tung per­so­nen­be­zo­ge­ner Daten über Prompts ver­langt beson­de­re Vor­sicht und die Ein­hal­tung der DS-GVO. Die Fra­ge der Haf­tung bei Feh­lern ist kom­plex und hängt vom kon­kre­ten Fall ab, wobei eine Prü­fungs­pflicht des Nut­zers die eige­ne Ver­ant­wor­tung erhöht. Da sich der recht­li­che Rah­men für KI, ins­be­son­de­re durch die KI-Ver­ord­nung, noch im Wan­del befin­det, ist es uner­läss­lich, auf dem Lau­fen­den zu blei­ben und pro­ak­ti­ve Com­pli­ance-Stra­te­gien zu ent­wi­ckeln. Eine ver­ant­wor­tungs­vol­le Nut­zung von KI erfor­dert kon­ti­nu­ier­li­che Anpas­sung an neue Gege­ben­hei­ten und ein hohes Maß an Ver­ant­wort­lich­keit.