DSGVO und ChatGPT: Datenschutzkonformität für Unternehmen 2024

DSGVO und ChatGPT: Datenschutzkonformität für Unternehmen 2024

Die Nut­zung von ChatGPT und ande­ren KI-basier­ten Tools nimmt in Unter­neh­men rasant zu. Dabei stel­len sich jedoch drän­gen­de Fra­gen hin­sicht­lich des Daten­schut­zes und der Ein­hal­tung der DSGVO. Die­ser Arti­kel beleuch­tet die Her­aus­for­de­run­gen und zeigt Lösungs­we­ge auf, wie Unter­neh­men ChatGPT im Jahr 2024 daten­schutz­kon­form ein­set­zen kön­nen, um Risi­ken zu mini­mie­ren und das Ver­trau­en der Kun­den zu wah­ren. Wir unter­su­chen die spe­zi­fi­schen Pflich­ten und Ver­ant­wort­lich­kei­ten, die mit der Ver­ar­bei­tung per­so­nen­be­zo­ge­ner Daten durch KI-Sys­te­me einhergehen.

Grundlagen der DSGVO und ihre Relevanz für KI-Systeme wie ChatGPT

Die Daten­schutz­grund­ver­ord­nung (DSGVO) ist das zen­tra­le Regel­werk für den Daten­schutz in der Euro­päi­schen Uni­on. Sie gilt für alle Unter­neh­men, die per­so­nen­be­zo­ge­ne Daten von EU-Bür­gern ver­ar­bei­ten, unab­hän­gig davon, ob das Unter­neh­men sei­nen Sitz inner­halb oder außer­halb der EU hat. Die DSGVO basiert auf grund­le­gen­den Prin­zi­pi­en, die auch bei der Nut­zung von KI-Sys­te­men wie ChatGPT unbe­dingt beach­tet wer­den müssen.

Eines der wich­tigs­ten Prin­zi­pi­en ist die Trans­pa­renz. Unter­neh­men müs­sen betrof­fe­ne Per­so­nen klar und ver­ständ­lich dar­über infor­mie­ren, wel­che Daten von ihnen ver­ar­bei­tet wer­den, zu wel­chem Zweck dies geschieht und wie lan­ge die Daten gespei­chert wer­den. Im Kon­text von ChatGPT bedeu­tet dies, dass Nut­zer dar­über infor­miert wer­den müs­sen, dass ihre Ein­ga­ben von der KI ver­ar­bei­tet wer­den und mög­li­cher­wei­se zur Ver­bes­se­rung des Sys­tems ver­wen­det werden.

Ein wei­te­res wich­ti­ges Prin­zip ist die Daten­mi­ni­mie­rung. Es dür­fen nur so vie­le per­so­nen­be­zo­ge­ne Daten ver­ar­bei­tet wer­den, wie für den jewei­li­gen Zweck unbe­dingt erfor­der­lich sind. Unter­neh­men soll­ten daher prü­fen, ob es mög­lich ist, ChatGPT mit anony­mi­sier­ten oder pseud­ony­mi­sier­ten Daten zu füt­tern, um das Risi­ko von Daten­schutz­ver­let­zun­gen zu minimieren.

Die Zweck­bin­dung schreibt vor, dass per­so­nen­be­zo­ge­ne Daten nur für den Zweck ver­ar­bei­tet wer­den dür­fen, für den sie erho­ben wur­den. Wenn ein Unter­neh­men ChatGPT bei­spiels­wei­se zur Beant­wor­tung von Kun­den­an­fra­gen ein­setzt, dür­fen die dabei gewon­ne­nen Daten nicht ohne wei­te­res für ande­re Zwe­cke ver­wen­det wer­den, etwa für Marketingkampagnen.

Schließ­lich ist die Rechen­schafts­pflicht von zen­tra­ler Bedeu­tung. Unter­neh­men müs­sen in der Lage sein, nach­zu­wei­sen, dass sie die DSGVO ein­hal­ten. Dies erfor­dert die Imple­men­tie­rung geeig­ne­ter tech­ni­scher und orga­ni­sa­to­ri­scher Maß­nah­men (TOMs) sowie die Doku­men­ta­ti­on aller rele­van­ten Pro­zes­se und Ent­schei­dun­gen. Im Zusam­men­hang mit ChatGPT bedeu­tet dies, dass Unter­neh­men bei­spiels­wei­se ein Ver­zeich­nis von Ver­ar­bei­tungs­tä­tig­kei­ten füh­ren und Daten­schutz-Fol­gen­ab­schät­zun­gen (DSFA) durch­füh­ren müssen.

Herausforderungen bei der DSGVO-konformen Nutzung von ChatGPT

Die Nut­zung von ChatGPT bringt eine Rei­he von spe­zi­fi­schen Her­aus­for­de­run­gen im Hin­blick auf die DSGVO mit sich. Eine der größ­ten Her­aus­for­de­run­gen ist die Ver­ar­bei­tung per­so­nen­be­zo­ge­ner Daten durch die KI. Nut­zer kön­nen unbe­ab­sich­tigt sen­si­ble Infor­ma­tio­nen in ihre Ein­ga­ben ein­fü­gen, die dann von ChatGPT ver­ar­bei­tet und gespei­chert wer­den. Die­se Daten kön­nen bei­spiels­wei­se Namen, Adres­sen, Tele­fon­num­mern, E‑Mail-Adres­sen, Gesund­heits­da­ten oder Finanz­in­for­ma­tio­nen enthalten.

Die Spei­che­rung und Über­tra­gung von Daten stellt eine wei­te­re Her­aus­for­de­rung dar. ChatGPT wird in der Regel von exter­nen Anbie­tern betrie­ben, die die Daten auf ihren Ser­vern spei­chern. Dies kann dazu füh­ren, dass die Daten in Län­der außer­halb der EU über­tra­gen wer­den, in denen mög­li­cher­wei­se ein gerin­ge­res Daten­schutz­ni­veau herrscht. Unter­neh­men müs­sen daher sicher­stel­len, dass geeig­ne­te Schutz­maß­nah­men getrof­fen wer­den, um die Daten auch bei der Über­tra­gung und Spei­che­rung im Aus­land zu schützen.

Die Gewähr­leis­tung der Daten­si­cher­heit ist eben­falls von ent­schei­den­der Bedeu­tung. Unter­neh­men müs­sen sicher­stel­len, dass die Daten vor unbe­fug­tem Zugriff, Ver­lust oder Zer­stö­rung geschützt sind. Dies erfor­dert die Imple­men­tie­rung geeig­ne­ter tech­ni­scher und orga­ni­sa­to­ri­scher Maß­nah­men (TOMs), wie bei­spiels­wei­se Ver­schlüs­se­lung, Zugriffs­kon­trol­len und regel­mä­ßi­ge Sicherheitsüberprüfungen.

Eine wei­te­re Her­aus­for­de­rung ist die Ein­hal­tung der Betrof­fe­nen­rech­te. Betrof­fe­ne Per­so­nen haben das Recht auf Aus­kunft, Berich­ti­gung, Löschung, Ein­schrän­kung der Ver­ar­bei­tung, Daten­über­trag­bar­keit und Wider­spruch gegen die Ver­ar­bei­tung ihrer per­so­nen­be­zo­ge­nen Daten. Unter­neh­men müs­sen in der Lage sein, die­se Rech­te zu gewähr­leis­ten, auch wenn die Daten von ChatGPT ver­ar­bei­tet wer­den. Dies kann bei­spiels­wei­se bedeu­ten, dass Unter­neh­men in der Lage sein müs­sen, Daten, die von ChatGPT gespei­chert wur­den, zu löschen oder zu berichtigen.

Konkrete Maßnahmen zur Datenschutzkonformität beim Einsatz von ChatGPT

Um ChatGPT daten­schutz­kon­form zu nut­zen, müs­sen Unter­neh­men eine Rei­he kon­kre­ter Maß­nah­men ergrei­fen. Die­se Maß­nah­men zie­len dar­auf ab, die Risi­ken für die Betrof­fe­nen zu mini­mie­ren und die Ein­hal­tung der DSGVO sicherzustellen.

Ein wich­ti­ger ers­ter Schritt ist die Durch­füh­rung einer Daten­schutz-Fol­gen­ab­schät­zung (DSFA). Eine DSFA ist eine sys­te­ma­ti­sche Ana­ly­se der Risi­ken, die mit der Ver­ar­bei­tung per­so­nen­be­zo­ge­ner Daten ver­bun­den sind. Sie hilft Unter­neh­men, poten­zi­el­le Daten­schutz­pro­ble­me früh­zei­tig zu erken­nen und geeig­ne­te Maß­nah­men zu ergrei­fen, um die­se Risi­ken zu mini­mie­ren. Die DSFA soll­te ins­be­son­de­re die Art der ver­ar­bei­te­ten Daten, den Zweck der Ver­ar­bei­tung, die poten­zi­el­len Risi­ken für die Betrof­fe­nen und die geplan­ten Maß­nah­men zur Risi­ko­mi­ni­mie­rung berücksichtigen.

Ein wei­te­rer wich­ti­ger Schritt ist die Anpas­sung der Daten­schutz­er­klä­rung. Die Daten­schutz­er­klä­rung muss trans­pa­rent und ver­ständ­lich dar­über infor­mie­ren, wie per­so­nen­be­zo­ge­ne Daten durch den Ein­satz von ChatGPT ver­ar­bei­tet wer­den. Dies umfasst Infor­ma­tio­nen über die Art der Daten, den Zweck der Ver­ar­bei­tung, die Rechts­grund­la­ge der Ver­ar­bei­tung, die Emp­fän­ger der Daten und die Rech­te der Betroffenen.

Die Schu­lung der Mit­ar­bei­ter ist eben­falls von ent­schei­den­der Bedeu­tung. Mit­ar­bei­ter, die mit ChatGPT arbei­ten, müs­sen über die daten­schutz­recht­li­chen Anfor­de­run­gen infor­miert sein und wis­sen, wie sie ChatGPT daten­schutz­kon­form ein­set­zen kön­nen. Dies umfasst Schu­lun­gen zu The­men wie Daten­mi­ni­mie­rung, Zweck­bin­dung, Daten­si­cher­heit und Betroffenenrechte.

Die Imple­men­tie­rung von tech­ni­schen und orga­ni­sa­to­ri­schen Maß­nah­men (TOMs) ist ein wei­te­rer wich­ti­ger Aspekt der Daten­schutz­kon­for­mi­tät. TOMs sind Maß­nah­men, die dar­auf abzie­len, die Sicher­heit der ver­ar­bei­te­ten Daten zu gewähr­leis­ten. Dies umfasst Maß­nah­men wie die Ver­schlüs­se­lung von Daten, die Zugriffs­kon­trol­le, die Pro­to­kol­lie­rung von Daten­ver­ar­bei­tungs­ak­ti­vi­tä­ten und die regel­mä­ßi­ge Über­prü­fung der Sicherheitsmaßnahmen.

Schließ­lich ist die Aus­wahl geeig­ne­ter Auf­trags­ver­ar­bei­ter von ent­schei­den­der Bedeu­tung. Wenn Unter­neh­men ChatGPT nicht selbst betrei­ben, son­dern einen exter­nen Dienst­leis­ter (Auf­trags­ver­ar­bei­ter) beauf­tra­gen, müs­sen sie sicher­stel­len, dass die­ser Auf­trags­ver­ar­bei­ter die daten­schutz­recht­li­chen Anfor­de­run­gen erfüllt. Dies umfasst die Prü­fung der Ver­trä­ge mit den Auf­trags­ver­ar­bei­tern und die Durch­füh­rung von Audits, um die Ein­hal­tung der Daten­schutz­be­stim­mun­gen zu über­prü­fen. Die Auf­trags­ver­ar­bei­tung muss gemäß Arti­kel 28 DSGVO erfolgen.

Umgang mit Betroffenenrechten im Kontext von ChatGPT

Die DSGVO gewährt Betrof­fe­nen eine Rei­he von Rech­ten in Bezug auf die Ver­ar­bei­tung ihrer per­so­nen­be­zo­ge­nen Daten. Die­se Rech­te gel­ten auch, wenn per­so­nen­be­zo­ge­ne Daten durch ChatGPT ver­ar­bei­tet wer­den. Unter­neh­men müs­sen sicher­stel­len, dass sie in der Lage sind, die­se Rech­te zu erfüllen.

Zu den wich­tigs­ten Betrof­fe­nen­rech­ten gehören:

  • Aus­kunfts­recht: Betrof­fe­ne haben das Recht, Aus­kunft dar­über zu ver­lan­gen, wel­che per­so­nen­be­zo­ge­nen Daten über sie ver­ar­bei­tet wer­den. Unter­neh­men müs­sen die­se Aus­kunft inner­halb einer ange­mes­se­nen Frist ertei­len und die Infor­ma­tio­nen in einer ver­ständ­li­chen Form bereitstellen.
  • Recht auf Berich­ti­gung: Betrof­fe­ne haben das Recht, die Berich­ti­gung unrich­ti­ger per­so­nen­be­zo­ge­ner Daten zu ver­lan­gen. Unter­neh­men müs­sen unrich­ti­ge Daten unver­züg­lich berichtigen.
  • Recht auf Löschung (“Recht auf Ver­ges­sen­wer­den”): Betrof­fe­ne haben das Recht, die Löschung ihrer per­so­nen­be­zo­ge­nen Daten zu ver­lan­gen, wenn bestimm­te Grün­de vor­lie­gen (z.B. wenn die Daten für den Zweck, für den sie erho­ben wur­den, nicht mehr benö­tigt werden).
  • Recht auf Ein­schrän­kung der Ver­ar­bei­tung: Betrof­fe­ne haben das Recht, die Ein­schrän­kung der Ver­ar­bei­tung ihrer per­so­nen­be­zo­ge­nen Daten zu ver­lan­gen, wenn bestimm­te Grün­de vor­lie­gen (z.B. wenn die Rich­tig­keit der Daten bestrit­ten wird).
  • Recht auf Daten­über­trag­bar­keit: Betrof­fe­ne haben das Recht, ihre per­so­nen­be­zo­ge­nen Daten in einem struk­tu­rier­ten, gän­gi­gen und maschi­nen­les­ba­ren For­mat zu erhal­ten und die­se Daten an einen ande­ren Ver­ant­wort­li­chen zu übertragen.
  • Wider­spruchs­recht: Betrof­fe­ne haben das Recht, gegen die Ver­ar­bei­tung ihrer per­so­nen­be­zo­ge­nen Daten Wider­spruch ein­zu­le­gen, wenn die Ver­ar­bei­tung auf berech­tig­ten Inter­es­sen des Unter­neh­mens oder eines Drit­ten beruht.

Prak­ti­sche Bei­spie­le und Handlungsempfehlungen:

  • Bei­spiel: Ein Kun­de ver­langt Aus­kunft dar­über, wel­che Daten er beim Chat­ten mit einem ChatGPT-basier­ten Kun­den­ser­vice-Bot ange­ge­ben hat. Das Unter­neh­men muss in der Lage sein, die­se Daten zu iden­ti­fi­zie­ren und dem Kun­den in ver­ständ­li­cher Form zur Ver­fü­gung zu stellen.
  • Hand­lungs­emp­feh­lung: Unter­neh­men soll­ten Ver­fah­ren imple­men­tie­ren, um Anfra­gen von Betrof­fe­nen zu bear­bei­ten. Dies umfasst die Ein­rich­tung eines Kon­takt­punkts für Betrof­fe­nen­an­fra­gen, die Schu­lung der Mit­ar­bei­ter im Umgang mit Betrof­fe­nen­rech­ten und die Ent­wick­lung von Pro­zes­sen zur Erfül­lung der Betroffenenrechte.
  • Bei­spiel: Ein Kun­de wider­spricht der Ver­ar­bei­tung sei­ner Daten, die er im Rah­men einer Pro­dukt­be­wer­tung abge­ge­ben hat, wel­che nun in das Trai­ning eines ChatGPT-Modells ein­flie­ßen sol­len. Das Unter­neh­men muss prü­fen, ob der Wider­spruch berech­tigt ist und die Daten gege­be­nen­falls aus dem Trai­nings­da­ten­satz entfernen.

Auswahl und Bewertung von ChatGPT-Alternativen unter Datenschutzaspekten

Neben der direk­ten Nut­zung von ChatGPT gibt es eine wach­sen­de Anzahl von Alter­na­ti­ven, die mög­li­cher­wei­se daten­schutz­freund­li­cher sind. Bei der Aus­wahl und Bewer­tung sol­cher Alter­na­ti­ven soll­ten Unter­neh­men ver­schie­de­ne Kri­te­ri­en berücksichtigen.

Aus­wahl­kri­te­ri­en:

  • Stand­ort des Anbie­ters: Anbie­ter, die ihren Sitz in der EU oder in Län­dern mit einem ver­gleich­ba­ren Daten­schutz­ni­veau haben, sind in der Regel daten­schutz­freund­li­cher als Anbie­ter aus Län­dern mit nied­ri­ge­ren Datenschutzstandards.
  • Daten­ver­ar­bei­tung: Unter­neh­men soll­ten prü­fen, wie die Daten von der Alter­na­ti­ve ver­ar­bei­tet wer­den. Wer­den die Daten ver­schlüs­selt? Wer­den die Daten für Trai­nings­zwe­cke ver­wen­det? Wer­den die Daten an Drit­te weitergegeben?
  • Trans­pa­renz: Der Anbie­ter soll­te trans­pa­rent dar­über infor­mie­ren, wie er mit den Daten umgeht. Dies umfasst Infor­ma­tio­nen über die Daten­er­he­bung, die Daten­ver­ar­bei­tung und die Datenspeicherung.
  • Ein­hal­tung der DSGVO: Der Anbie­ter soll­te nach­wei­sen kön­nen, dass er die Anfor­de­run­gen der DSGVO erfüllt. Dies kann z.B. durch Zer­ti­fi­zie­run­gen oder Audits erfolgen.
  • Anpas­sungs­mög­lich­kei­ten: Bie­tet die Alter­na­ti­ve Mög­lich­kei­ten, die Daten­schutz­ein­stel­lun­gen anzu­pas­sen und die Daten­ver­ar­bei­tung zu kontrollieren?

Bei­spie­le für ChatGPT-Alternativen:

  • Open-Source-Model­le: Es gibt ver­schie­de­ne Open-Source-Sprach­mo­del­le, die Unter­neh­men selbst hos­ten und betrei­ben kön­nen. Dies gibt Unter­neh­men die vol­le Kon­trol­le über die Datenverarbeitung.
  • Spe­zia­li­sier­te KI-Lösun­gen: Eini­ge Anbie­ter bie­ten KI-Lösun­gen an, die auf bestimm­te Anwen­dungs­fäl­le zuge­schnit­ten sind und einen stär­ke­ren Fokus auf Daten­schutz legen.
  • Anony­mi­sier­te Daten­sät­ze: Statt ChatGPT mit sen­si­blen Kun­den­da­ten zu füt­tern, kön­nen Unter­neh­men auf anony­mi­sier­te Daten­sät­ze zurück­grei­fen, um daten­schutz­recht­li­che Risi­ken zu minimieren.

Die Aus­wahl der rich­ti­gen ChatGPT-Alter­na­ti­ve hängt von den spe­zi­fi­schen Anfor­de­run­gen des Unter­neh­mens ab. Unter­neh­men soll­ten sorg­fäl­tig abwä­gen, wel­che Kri­te­ri­en für sie am wich­tigs­ten sind und die ver­schie­de­nen Alter­na­ti­ven ent­spre­chend bewerten.

Neue Ent­wick­lun­gen im Daten­schutz­recht und ihre Aus­wir­kun­gen auf ChatGPT

Die Land­schaft des Daten­schutz­rechts ist stän­dig im Wan­del. Beson­ders rele­vant für den Ein­satz von ChatGPT ist die geplan­te KI-Ver­ord­nung der EU, wel­che weit­rei­chen­de Aus­wir­kun­gen auf die Ent­wick­lung und Nut­zung von KI-Sys­te­men haben wird. Die­se Ver­ord­nung zielt dar­auf ab, ein­heit­li­che Regeln für KI-Anwen­dun­gen inner­halb der EU zu schaf­fen und Risi­ken zu minimieren.

Die KI-Ver­ord­nung wird vor­aus­sicht­lich spe­zi­fi­sche Anfor­de­run­gen an Hoch­ri­si­ko-KI-Sys­te­me stel­len, zu denen auch ChatGPT und ähn­li­che Tech­no­lo­gien gehö­ren könn­ten. Dazu zäh­len unter ande­rem Anfor­de­run­gen an die Trans­pa­renz der Algo­rith­men, die Qua­li­tät der Trai­nings­da­ten und die mensch­li­che Auf­sicht.

Unter­neh­men, die ChatGPT ein­set­zen, soll­ten sich daher früh­zei­tig mit den Inhal­ten der KI-Ver­ord­nung aus­ein­an­der­set­zen und ihre Daten­schutz­stra­te­gien ent­spre­chend anpas­sen. Es emp­fiehlt sich, die Ent­wick­lun­gen auf EU-Ebe­ne genau zu ver­fol­gen und gege­be­nen­falls recht­li­chen Rat ein­zu­ho­len, um sicher­zu­stel­len, dass der Ein­satz von ChatGPT auch in Zukunft DSGVO-kon­form bleibt. Dies umfasst die Anpas­sung der inter­nen Richt­li­ni­en, die Schu­lung der Mit­ar­bei­ter und die Imple­men­tie­rung geeig­ne­ter tech­ni­scher Maß­nah­men. Eine pro­ak­ti­ve Her­an­ge­hens­wei­se hilft, poten­zi­el­le Risi­ken zu mini­mie­ren und das Ver­trau­en der Kun­den zu wahren.

Wei­ter­füh­ren­de Quellen