ChatGPT: Wunder-KI ist bei Datenschutz und Urheberrecht nicht sicher

16.01.2023

ChatGPT befindet sich derzeit in aller Munde. Nicht nur aufgrund des Medienechos, sondern ebenso wegen der tatsächlich gebotenen Fähigkeiten ist davon auszugehen, dass der Webservice schon bald von zahlreichen Unternehmen genutzt wird. Doch aufgepasst, es existieren rechtliche Risiken, die es zu kennen gilt.

Was ist ChatGPT?

OpenAI, der Entwickler hinter ChatGPT (GPT steht für Generative Pre-Trained Transformer), bezeichnet den Webservice als einen Chatbot. Jedoch ist diese Bezeichnung schon fast eine Herabwürdigung, denn ChatGPT kann viel mehr als nur chatten.

Aufgabe von ChatGPT ist es, eigenständig Texte zu erzeugen. Es befindet sich in der Lage, Antworten auf Fragen zu recherchieren, längere Texte auf Basis konkreter Vorgaben zu verfassen, bestehende Inhalte umzuschreiben und es kann sogar Software entwickeln bzw. Code erzeugen.

Verblüffend ist, wie gut dies funktioniert. Die Generierung von Textinhalten mit einfachem bis mittlerem Anspruch stellt kein Problem dar. Ob Antwortschreiben an einen Kunden oder Hausarbeit für die Schule – ChatGPT erstellt derartige Texte auf Knopfdruck.

Die inhaltliche Tiefe der generierten Inhalte überzeugt und auch sprachlich gibt es meist nichts zu beanstanden. Erst bei komplexen Themen, die umfassendes Fachwissen erfordern, gerät der Chatbot an seine Grenzen. In Summe ist die gebotene Leistung jedoch beeindruckend.

Hinsichtlich der rechtlichen Risiken, die mit der Nutzung von ChatGPT einhergehen, gilt es zumindest grob zu wissen, wie der Webservice funktioniert. Er basiert auf einer KI, die mit einer riesigen Menge an Daten trainiert wurde. Die Entwickler haben die zugrundeliegenden Algorithmen mit Inhalten aus dem Internet, unzähligen Büchern sowie Mitschnitten von Telefonaten angelernt. Aus diesen Inhalten wurden nicht nur Sprachmodelle abgeleitet, ebenso verkörpern sie die Wissensbasis von ChatGPT.

Risiken beim Datenschutz

Bei der Nutzung von ChatGPT ist der Datenschutz zu bedenken. Das Kernproblem geht von der Datenbasis des Webservices aus. Auswertungen belegen, dass personenbezogene Daten im Trainingsmaterial enthalten sind. Somit besteht das Risiko, dass sich Daten mit Personenbezug in die generierten Inhalte einschleichen. Entsprechend kann eine Verarbeitung zu einem Datenschutzvorfall führen.

In Anbetracht dieses Risikos ist es empfehlenswert, per ChatGPT erzeugte Inhalte vor einer weiteren Verarbeitung zu prüfen. Im Rahmen einer gezielten Kontrolle ist zu ermitteln, ob sich kritische Daten wie beispielsweise Adressen oder Geburtsdaten in den Texten befinden.

Aufgepasst beim Urheberrecht

Datenschutzverstöße sind nicht das einzige Rechtsrisiko, die mit der Nutzung von ChatGPT einhergehen. Darüber hinaus besteht das Risiko, dass die Veröffentlichung generierter Inhalte zu Verstößen gegen das Urheberrecht führt.

Wie erwähnt, stammen Daten vom Trainingsmaterial aus verschiedenen Quellen, unter anderem aus Büchern. Somit besteht die Möglichkeiten, dass von ChatGPT erzeugte Inhalte auf Textauszügen basieren, die dem Urheberrecht unterliegen.

Die Überprüfung der automatisch generierten Inhalte ist keineswegs zu unterschätzen. Im Vergleich gestaltet sich das Aufspüren personenbezogener Daten leichter. Im Grunde können hier nur Tools weiterhelfen, die eine Übernahme von fremdem Content gezielt aufdecken. Am Markt finden sich verschiedene Lösungen, die z.B. das Internet oder auch die Datenbanken von Wissenschaftsverlagen durchsuchen.

Fazit

ChatGPT und ähnliche Systeme sind dabei, den Kinderschuhen zu entwachsen. Bereits heute können derartige Webservices beachtliche Leistungen erbringen. Deshalb ist absehbar, dass die Nutzerbasis in den kommenden Jahren drastisch wachsen wird.

Wer schon heute damit experimentiert, sollte jedoch vorsichtig sein. Bei Inhalten, die von einer KI generiert wurden, ist die Herkunft nicht gewiss. Es drohen Verstöße gegen Datenschutzbestimmungen und das Urheberrecht. Nutzer sollten daher Kontrollmechanismen einrichten, um ihr Risiko zu minimieren.