Muss ich die KI-Verordnung einhalten, wenn ich ChatGPT nutze?
6. Januar 2025
Die neuen Möglichkeiten durch die Künstliche Intelligenz wie ChatGPT & Co. nehmen immer weiter zu. Diese Entwicklung zieht auch vermehrt rechtliche Fragen nach sich. Das gilt erst recht, seit die KI-Verordnung in Kraft getreten ist. In diesem Zusammenhang sticht eine Frage ganz besonders heraus, nämlich: Muss ich als natürliche Person die KI-Verordnung einhalten, wenn ich ChatGPT nutze? Dieser Frage geht der vorliegende Blogbeitrag nach. Gleichzeitig gibt er eine Antwort darauf, warum eine Spracherkennungssoftware anders ist als ChatGPT.
Lesedauer: 4 Minuten (ca. 760 Wörter)
Die Nutzung von Künstlicher Intelligenz war bereits vor ChatGPT & Co. allgegenwärtig und aus unserem Alltag nicht mehr wegzudenken. In Betracht zu ziehen sind nur Spracherkennungssoftwares oder die Rechtschreibprüfung in Word. Die seit November 2022 frei zugänglichen großen generativen Sprachmodelle (large language models) wie ChatGPT, Claude oder Llama etc. haben hingegen gezeigt, welche weiteren Möglichkeiten die Künstliche Intelligenz eröffnet. Es ist sicherlich nicht falsch zu behaupten, dass derzeit nahezu jedes Unternehmen mit der Artificial Intelligence experimentiert und für sich auslotet, ob und für welche Aufgabenbereiche es die neuen Möglichkeiten nutzbar machen kann.
Mit den neuen Möglichkeiten entstehen allerdings auch neue juristische Fragestellungen. Diese reichen von der datenschutzschutzkonformen Verwendung der K. I. im Personalwesen über zivilrechtliche Haftungsszenarien selbstfahrender Autos bis hin zu den konkreten Vorgaben der europäischen KI-Verordnung (AI-Act) bei der Nutzung von KI-Tools. Eine besonders interessante Frage, die sich in diesem Zusammenhang stellt, ist: Unterliege ich der KI-Verordnung, wenn ich ChatGPT nutze? Dieser Frage geht der vorliegende Beitrag nach und wagt eine erste Analyse des AI-Acts.
ChatGPT ist ein KI-Modell
Eine Folge daraus, dass ich als natürliche Person der KI-Verordnung unterläge, wäre zum Beispiel die Angabe eines ausdrückliches Hinweises auf bestimmte K.-I.-generierte Inhalte. Dabei hängt die Bindung an die neue KI-Verordnung bei Nutzung von ChatGPT, Claude, Llama oder anderen großen generativen Sprachmodellen entscheidend vom verwendeten KI-Tool ab. Der AI-Act unterscheidet zwischen zwei Kategorien: KI-Systeme und sog. “KI-Modelle mit allgemeinem Verwendungszweck”. ChatGPT als großes generatives Sprachmodell wird nach der KI-Verordnung als KI-Modell mit allgemeinen Verwendungszweck (ErwG 99) kategorisiert.
Eine Spracherkennungssoftware und die Rechtschreibprüfung in Word sind dagegen keine KI-Modelle. Denn es dürfte regelmäßig an der vorausgesetzten Fähigkeit fehlen, “ein breites Spektrum unterschiedlicher Aufgaben kompetent zu erfüllen” (ErwG 97). Die Spracherkennungssoftware beispielsweise erfüllt mit der Sprache-zu-Text-Übersetzung lediglich eine spezifische Aufgabe und nicht unterschiedliche. In Betracht kommt daher vielmehr, dass es sich hierbei jeweils um ein KI-System handelt.
Spracherkennung im Beruf unterliegt KI-Verordnung
KI-Modelle und KI-Systeme werden von der KI-Verordnung nicht nur als unterschiedlich betrachtet, sondern auch ungleich stark reguliert. Das ist auf die Differenzierung zwischen Anbieter und Betreiber zurückzuführen. Wer KI-Tools nutzt, ist kein Anbieter, aber Betreiber. Denn mit “Anbieter” ist der Hersteller und nicht der Nutzer gemeint. Die Pflichten als Betreiber, die bei der Nutzung von KI-Tools in Frage kommen, betreffen allerdings nur die KI-Systeme und nicht die KI-Modelle. Das hat zur Folge, dass nicht an die Vorgaben der KI-Verordnung gebunden ist, wer ChatGPT nutzt, da es sich hierbei um ein KI-Modell handelt und nicht um ein KI-System.
Das hat zur Folge, dass nicht an die KI-Verordnung gebunden ist, wer ChatGPT nutzt.
Anders ist es demgegenüber bei Spracherkennungssoftwares oder der Rechtsschreibprüfung. Sind diese KI-Tools tatsächlich als KI-Systeme zu kategorisieren, kann deren Nutzung die Betreiber- und Transparenzpflichten nach dem AI-Act auslösen. Eine Ausnahme besteht dann, wenn die Nutzung eines KI-Systems aus persönlichen Gründen erfolgt. Personen, die persönliche – also private oder familiäre und nicht berufliche – Zwecke verfolgen, sind von den Vorgaben des AI-Act befreit. Die private Nutzung von Spracherkennungssoftwares und Rechtsschreibprogrammen ist damit ebenfalls vom AI-Act ausgenommen.
Fazit
Zusammenfassend bedeutet das: Wer ChatGPT nutzt, um privat seinen Urlaub zu planen, ist dabei nicht an die KI-Verordnung gebunden. Es macht auch keinen Unterschied, wenn ChatGPT beruflich zur Erstellung von Kundenberichten verwendet wird, da jegliche Nutzung von KI-Modellen frei ist – ungeachtet des verfolgten Zwecks. Das Ergebnis ändert sich auch dann nicht, wenn die Urlaubsroute anschließend in ein digitales Diktiergerät gesprochen wird. Denn die private Nutzung von KI-Systemen ist ebenfalls vom AI-Act befreit. Wer hingegen einen beruflichen Kundenbericht mittels einer Spracherkennungssoftware in Text umwandeln möchte, wäre dann Betreiber eines KI-Systems und unterläge den einschlägigen Pflichten der KI-Verordnung.
Dieses Ergebnis mag überraschen und durchaus als kontraintuitiv empfunden werden. Gleichwohl ist die Nutzung von ChatGPT nicht völlig grenzenlos: Der AI-Act enthält eine Liste verbotener Praktiken, die für alle Akteure im Bereich der Künstlichen Intelligenz gilt. Demnach sind zum Beispiel manipulative Techniken genauso verboten wie das social scoring oder das predictive policing (Vorhersage von Straftaten). Diese Verbotsregeln müssen auch bei der privaten Nutzung von ChatGPT oder Spracherkennungssoftwares eingehalten werden.
Allen Nutzern kann daher nur empfohlen werden, sich bewusst zu machen, dass nicht jede KI-Nutzung gleich bewertet wird – die Einstufung hängt vom jeweiligen Tool und dem Zweck der Nutzung ab.
Sie kommen aus Kiel oder Schleswig-Holstein und haben Fragen zu ChatGPT? Oder Sie kommen aus dem übrigen Bundesgebiet und möchten sich über die rechtlichen Aspekte der Künstlichen Intelligenz informieren? Dann nehmen Sie gerne unter info@anwalt-daum.de Kontakt zu mir auf.
Dr. Oliver Daum
Fachanwalt für IT-Recht
Datenschutzbeauftragter (IHK)
IT-Sicherheitsbeauftragter (IHK)
Auch interessant: Verantwortung in Unternehmen: Datenschutz und IT-Sicherheit sind Chefsache
- 06.01.2025
- 10:00