ChatGPT Datenschutz KI
ChatGPT und der Datenschutz

ChatGPT und der Datenschutz

Was soll all der Hype?

Derzeit wird ChatGPT als großer Durchbruch in der künstlichen Intelligenz gehypt. Nicht ein Tag vergeht, ohne dass ein neuer Artikel dazu veröffentlicht wird. Na ja, dann dürfen wir mit unserer Datenschutzbrille natürlich nicht fehlen. Im nachfolgenden Beitrag schauen wir uns erst an, um was es sich bei ChatGPT überhaupt handelt, was das Neue an ChatGPT ist und gehen dann noch mal in der Tiefe auf die datenschutzrechtlichen Hürden und Entwicklungen ein. In der Tat hat die Technologie das Potenzial, das Leben für uns bequemer zu machen. Doch sie birgt auch Gefahren.

Was ist ChatGPT?

ChatGPT ist eine auf Text spezialisierte künstliche Intelligenz. Sie basiert auf neuronalen Netzwerken und errechnet anhand von Wahrscheinlichkeiten und der vorher gelernten Datenbasis, welches Wort als nächstes am sinnvollsten ist.

In einer Chat-Konsole könnt Ihr ChatGPT Fragen stellen und Anweisungen geben. Dabei ist es wichtig, die Anweisungen so präzise wie möglich zu formulieren. Umso besser kann ChatGPT funktionieren und um so präziser sind die Antworten. Dabei legten die Entwickler großen Wert darauf, dass die Konversation möglichst natürlich abläuft und klingt.

Die KI kann Euch viel Arbeit abnehmen. Eine Anweisung könnte zum Beispiel lauten: „Schreibe mir einen Text zum Thema Digitalisierung“. Um die Anweisungen zu präzisieren, könnt Ihr den Umfang, Schlagwörter die verwendet werden sollen oder auch Unterüberschriften definieren. Je mehr Input Ihr liefert, um so wahrscheinlicher ist es, dass das Ergebnis Euren Erwartungen entspricht. Dann wartet man ein wenig und ChatGPT erstellt den Text. Das Ergebnis ist beeindruckend gut, aber manchmal merkt man, dass es kein Text von einem Menschen ist. Und es können auch fachliche Fehler enthalten sein, die aber einem Laien nicht auffallen, weil ChatGPT Informationen als Fakten darstellt. Dazu aber später noch einmal mehr.

Vorab sollten wir klären, um was es sich bei ChatGPT überhaupt handelt. Viele Begriffe und Abkürzungen schwirren bei diesem Thema durch den Raum.

Was bedeutet AI und ML?

Artificial Intelligence (AI) bzw. künstliche Intelligenz (KI) ist der weiter gefasste Begriff für Maschinen, die in der Lage sind, Aufgaben menschenähnlich (oder besser) und autonom auszuführen. Grundsätzlich wird zwischen starker und schwacher künstlicher Intelligenz unterschieden.

Die starke KI hat alle Eigenschaften der menschlichen Intelligenz und entspricht am ehesten dem Hollywood-Klischee à la C-3PO. Sie ist in der Lage selbstständig zu Problemlösungen zu gelangen und aus gemachten Erfahrungen Vorhersagen treffen zu können.

Die schwache KI beschreibt Maschinen, die in einem Bereich quasi-intelligent handeln können, z.B. im Aktienhandel oder in der Bilderkennung. In den meisten Fällen bezieht sich das aber nur auf ein Gebiet. Die Maschinen verfügen qausi über das Savant-Syndrom – eine Inselbegabung, die sie auf einem Gebiet zu absoluten Experten machen. Meist sind sie in diesen Bereichen dem Menschen überlegen.

Maschine Learning (ML) bzw. Maschinelles Lernen ist ein Teilbereich der künstlichen Intelligenz, ein Anwendungsgebiet, das auf der Fähigkeit von Maschinen beruht, durch den Zugriff auf Daten selbst zu lernen. Dabei verwendet eine Maschine Algorithmen, um große Datenmengen zu analysieren, Muster in den Daten zu erkennen und allgemeine Regeln zu abstrahieren, ohne dass ein Mensch spezifische Anweisungen programmieren muss.

Bei ChatGPT handelt es sich um eine schwache KI, die mit Hilfe von riesigen Datenmengen angelernt wurde. Anhand von Wahrscheinlichkeiten und dem Input des Nutzers, werden die Texte generiert.

Wer steckt hinter ChatGPT?

ChatGPT wurde von OpenAI entwickelt, einem kalifornischen KI-Forschungsunternehmen, das 2015 unter anderem auch von Elon Musk gegründet wurde. Bei OpenAI handelt es sich um eine Non-Profit-Organisation, die sich aus Spenden finanziert. Musk hat sich 2018 aus dem Unternehmen zurückgezogen, ist aber weiterhin noch einer der Spender. Seit 2023 kooperiert nun der Softwareriese Microsoft, als einer der Sponsoren, mit OpenAI. Mircosoft hat sich damit der Möglichkeit versichert die Funktionen für seine Produkte Azure Cloud und die Suchmaschine Bing einzusetzen.

OpenAI entwickelt nicht nur ChatGPT sondern unter anderem auch andere AI-Produkte wie DALL-E, ein Tool, dass geschriebenen Text in Bilder umwandelt oder MuseNet, das bis 4 Minuten lange Musikstücke mit bis zu 10 unterschiedlichen Instrumenten komponiert.

Was kann ChatGPT (noch) nicht?

ChatGPT kann nicht auf aktuelle Ereignisse zugreifen. Außerdem sind die Quellen, auf die sich die KI im Text bezieht, nicht sichtbar oder schlichtweg frei erfunden (Datenhalluzinationen). Es bleibt abzuwarten, ob diese Funktionen von OpenAI noch integriert werden. Da ChatGPT derzeit die am schnellsten wachsende Anwendung ist, ließ die Antwort von Google nicht lange auf sich warten. Der KI-Chatbot heißt Bard und soll auch auf aktuelle Themen antworten und Quellen dazu auflisten können.

Was sind die Gefahren?

Die von ChatGPT gesammelten Daten können sensible Informationen wie persönliche oder finanzielle Daten enthalten. Wie bei jeder Technologie, die persönliche Daten speichert, besteht das Risiko von Datenschutzverletzungen oder anderen Sicherheitsproblemen.

Solange keine personenbezogenen Daten in ChatGPT eingegeben werden, gilt die Datenschutz-Grundverordnung (DSGVO) nicht. Allerdings solltet ihr als Nutzer:innen die von ChatGPT generierten Texte daraufhin überprüfen, ob sie personenbezogene Daten Dritter enthalten. Sollte dies der Fall sein, solltet ihr unbedingt auf die Verwendung der generierten Texte verzichten, wenn euch die Herkunft der personenbezogenen Daten nicht bekannt ist.

 

Europa: ChatGPT und der Datenschutz

ChatGPT greift auf Lerndaten zurück, anhand denen das Sprachmodell trainiert wurde. Allein bei diesen Daten stellt sich häufig schon die Frage nach dem Urheberrecht. Aber auch Informationen zu natürlichen Personen sind in diesen Lerndaten enthalten.

Italien

Ende März verbot die italienische Datenschutzbehörde (GPDP) vorläufig den Sprachchat, da der Dienst gegen Daten- und Jugendschutz verstoße. Die GPDP bemängelte fehlende Transparenz über die Datenverarbeitungen und eine fehlende Rechtsgrundlage. Des Weiteren traten einige Fehlfunktionen auf, bei denen es Nutzern möglich war auf andere Profile zuzugreifen, was einen Datenschutzverstoß darstellt. Zuletzt waren wohl noch Bedenken wegen einer fehlenden Altersbegrenzung ausschlaggebend, dass es zu dem vorläufigen Verbot kam. Die GPDP gab OpenAi 20 Tage Zeit, um diese Missstände zu beseitigen, andernfalls drohte ein hohes Bußgeld.

Anfang Mai ist ChatGPT nun wieder in Italien verfügbar. Es wurde von OpenAI eine Altersgrenze eingeführt und die Nutzer haben inzwischen die Möglichkeit Informationen zu den Verarbeitungen zu erhalten und auch ihre Rechte in Anspruch zu nehmen.

Deutschland

Hierzulande wären für eine Überprüfung von ChatGPT die Landesdatenschutzbehörden verantwortlich. Genau 16 in der Zahl. Also 16 Meinungen? 16 unterschiedliche Interpretationen? 16 unterschiedliche Entscheidungen?

Nicht ganz. Denn es gibt ja noch den Bundesbeauftragten für den Datenschutz und die Informationsfreiheit, Ulrich Kelber, der eine ähnliche Sperrung des Chatbots hierzulande für denkbar hält und die italienischen Kollegen um weiterführende Informationen gebeten hatte, um diese an die zuständigen Landesdatenschutzbehörden und Landesmedienanstalten weiterzugeben.

Und, nicht zu vergessen, das Bundesdigitalministerium. Aus diesem hörte man bereits, dass ein Verbot abgelehnt wird – „Wir wollen anwenden und nicht zurückdrängen“.

Datenschützer stellt Fragenkatalog an OpenAI

Der hessische Beauftragte für Datenschutz und Informationsfreiheit (HBDI) Prof. Dr. Alexander Roßnagel hat einen umfangreichen Fragenkatalog an OpenAI geschickt. Das Unternehmen soll der Behörde gegenüber erklären, wie sie mit personenbezogenen Daten umgeht.

Die Fragen an OpenAI sind mit der deutschen Datenschutzkonferenz (DSK) als auch mit dem europäischen Datenschutzausschuss abgestimmt. Konkret muss das Unternehmen angeben, welche Daten zu welchem Zweck verarbeitet werden und wie personenbezogene Daten geschützt werden, etwa vor Hackerangriffen. Außerdem muss Open AI erklären, wie es mit den Auskunftsrechten der Betroffenen umgeht. Denn diese haben laut DSGVO beispielsweise das Recht zu erfahren, welche Daten OpenAI über sie gespeichert hat. Weitere Fragen betreffen den Jugendschutz. Denn laut den Geschäftsbedingungen von ChatGPT dürfen Kinder unter 13 Jahren den Chatbot gar nicht nutzen.

Da das US-amerikanische Betreiberunternehmen keine Niederlassung in der Europäischen Union hat, sind alle europäischen Datenschutzaufsichtsbehörden zuständig, die Einhaltung der Europäischen Datenschutz-Grundverordnung (DSGVO) durch das Unternehmen in ihrem jeweiligen örtlichen Zuständigkeitsbereich zu überwachen.

Auf alle Fragen fordert der HBDI klare Antworten und betont: „Erst wenn diese Fragen beantwortet wurden, kann ich prüfen, ob sich OpenAI mit ChatGPT an die europäischen Datenschutzvorgaben hält.“

Außerhalb Europas

 

ChatGPT ist die bekannteste relationale KI-Anwendung, die menschliche Gespräche simulieren und verarbeiten kann. Die Anwendung wurde bereits in einer Reihe von Ländern gesperrt, darunter China, Iran, Nordkorea und Russland. Wobei man da sagen muss, dass der Chatbot in diesen Ländern nicht wegen Datenschutzproblemen gesperrt wurde.

Kann man seine Daten gegen ChatGPT schützen?

Da wäre noch eine letzte Frage, die wir noch klären müssen. Ist es möglich, Eure Daten und Euer geistiges Eigentum als Content Creator gegen die Benutzung durch KI zu schützen? Die Antwort ist wie immer nicht ganz eindeutig: Es kommt drauf an.

KIs, wie ChatGPT, leben von Daten, die Sie im Netz finden. Sie crawlen (durchsuchen, analysieren und indentifizieren) Inhalte im Web, um sie als Datenbasis zu verwenden. Gegen diese automatisierten Anfragen könnt Ihr Euch zumindest auf der eigenen Website schützen. Wie Ihr das bewerkstelligt, erfahrt Ihr unter anderem im empfehlenswerten Blog von Klaus Meffert: https://dr-dsgvo.de/chatgpt-crawling-eigener-inhalte-verhindern/.

Informationen, die Ihr über Euch in sozialen Netzwerken teilt, sind hingegen in der Regel nicht vor solchen Crawlern geschützt.

Fazit

Experten fordern kein KI-Verbot, aber klare Regelungen und Gewährleistung von Nachvollziehbarkeit und Transparenz. Die EU diskutiert derzeit eine Verordnung zu KI, die noch dieses Jahr verabschiedet werden soll. Ab dann hätten die Mitgliedstaaten zwei Jahre Zeit, um die Verordnung national umzusetzen.

Ein Verbot würde die deutsche Wirtschaft massiv beeinträchtigen. Regeln und Richtlinien müssen her, welche die Einhaltung der DSGVO gewährleisten. Ferner zeigt die Entscheidung der GPDP trotzdem, dass ein Bewusstsein für die Notwendigkeit besteht, KI-Risiken zu bewerten und angemessene Schutzmaßnahmen zu ergreifen.

In den nächsten Wochen wird sich zeigen, welche Antworten OpenAI auf den Fragenkatalog von Prof. Dr. Alexander Roßnagel gibt und wie ggf. die Schlussfolgerungen der deutschen Aufsichtsbehörden zu lauten hat. Es bleibt also weiter spannend und wir halten Euch selbstverständlich auf dem Laufenden.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

*