KI-Systeme im Unternehmen sicher einsetzen: Rechtliche Anforderungen und praktische Tipps

28. April 2025

Künstliche Intelligenz (KI) wie ChatGPT, Gemini oder Llama hält rasant Einzug in Unternehmen und eröffnet neue Möglichkeiten – insbesondere im Kundenservice, in der Datenanalyse und im Personalwesen (HR). Doch wer KI-Anwendungen nutzen möchte, muss mehr als nur technische Aspekte im Blick behalten: Datenschutz, Urheberrecht und Haftungsfragen bergen erhebliche Risiken. Dieser Beitrag gibt einen kompakten Überblick, worauf Unternehmen beim rechtssicheren Einsatz von KI-Systemen achten müssen, welche rechtlichen Stolperfallen lauern und wie sich diese erfolgreich vermeiden lassen.

Lesedauer: 5 Minuten (ca. 1080 Wörter)

Ein älterer Geschäftsmann in dunklem Anzug präsentiert in einem modernen Konferenzraum vor einem Bildschirm mit der Aufschrift ‚Künstliche Intelligenz‘ und einem stilisierten Gehirn-Symbol. Drei beruflich gekleidete Zuhörer – zwei Männer und eine Frau – folgen der Präsentation aufmerksam.

KI im Unternehmensalltag: Neue Chancen in vielen Bereichen

Künstliche Intelligenz (KI) ist längst kein Zukunftsthema mehr: Was einst technikaffinen Start-ups vorbehalten war, hat sich heute fest in der Unternehmensrealität etabliert. Viele Geschäftsführer und Entscheider planen aktuell, wie sie ChatGPT, Gemini, Llama und andere KI-Anwendungen sinnvoll in ihren Betrieben einsetzen können. Im Fokus steht dabei zunächst die Frage, in welchen Einsatzfeldern KI den größten wirtschaftlichen Nutzen entfalten kann. Typische Einsatzbereiche sind der Kundenservice, die Datenanalyse sowie insbesondere der HR-Bereich. Grundsätzlich ist der KI-Einsatz überall möglich, wo große Datenmengen verarbeitet und Prozesse automatisiert werden können.

Mit dem rasanten technologischen Fortschritt wächst nicht nur der Innovationsdruck auf Unternehmen, sondern auch die Zahl der rechtlichen Anforderungen rund um den Einsatz der Artificial Intelligence (AI). Es existiert mittlerweile eine Vielzahl an Rechtsvorschriften – auf nationaler wie europäischer Ebene –, die Unternehmen beachten müssen. Ein unüberlegter Einsatz von AI birgt erhebliche juristische Risiken und kann zu Datenschutzverstößen oder Haftungsproblemen führen. Dieser Beitrag bietet einen kompakten und praxisnahen Überblick, worauf Unternehmen beim rechtssicheren Einsatz von KI-Systemen achten sollten.

Was ist eigentlich Künstliche Intelligenz?

Der Begriff der Künstlichen Intelligenz ist sowohl juristisch als auch technisch bislang nicht abschließend definiert – auch wenn die KI-Verordnung der EU (Art. 3 Nr. 1) eine rechtliche Begriffsbestimmung liefert. Im Kern versteht man unter KI eine Software, die Aufgaben wie Denken, Lernen, Problemlösen oder Entscheiden eigenständig und menschenähnlich ausführt. Für Unternehmen besonders relevant ist die Unterscheidung zwischen:

  • On-Premise-KI-Systemen (lokal betrieben, höhere Datenschutzkontrolle)
  • Cloud-basierten Lösungen (AI as a Service, AIaaS) (schneller einsetzbar, aber höhere Datenschutzrisiken)

Je nach Einsatzszenario sollten Unternehmen sorgfältig abwägen, welches Betriebsmodell sie wählen: höhere Flexibilität und Datenschutz durch lokale Systeme oder schnellere Skalierbarkeit und geringere Anfangsinvestitionen durch Cloud-Angebote.

Datenschutz und AI: Umgang mit personenbezogenen Daten

Beim Einsatz von AI spielt der Datenschutz eine zentrale Rolle – und zwar immer dann, wenn personenbezogene Daten verarbeitet werden. Typische Beispiele finden sich in der Personalabteilung (HR), etwa bei der Verwaltung von Personalakten oder bei der Vorauswahl von Bewerbern mithilfe von KI-Tools. In diesen Bereichen greifen die Vorgaben der Datenschutz-Grundverordnung (DSGVO) sowie des Bundesdatenschutzgesetzes (BDSG) unmittelbar. Unternehmen müssen daher sorgfältig prüfen, welche rechtlichen Folgen sich aus der Verarbeitung personenbezogener Daten durch KI-Systeme ergeben und wie sie diese rechtskonform gestalten.

In der Unternehmenspraxis ist es essenziell, eine klare Rechtsgrundlage für jede Datenverarbeitung durch KI-Systeme zu schaffen. Für Mitarbeiterdaten kann dies in der Regel durch eine ausdrückliche Einwilligung erfolgen oder im Rahmen der Erfüllung des Arbeitsvertrages begründet werden. Für Bewerber, bei denen eine Einwilligung vor Beginn des Bewerbungsverfahrens oft nicht praktikabel ist, bleibt häufig nur die Abwägung berechtigter Interessen als Grundlage. Wichtig ist hierbei: Nach einem aktuellen Urteil des Europäischen Gerichtshofs (EuGH) kann § 26 Bundesdatenschutzgesetz (BDSG) nicht mehr als alleinige Rechtsgrundlage für die Verarbeitung im Arbeitsverhältnis herangezogen werden.

Informationspflichten, Datenschutz-Folgenabschätzung und automatisierte Entscheidungen

Neben der Wahl einer geeigneten Rechtsgrundlage müssen Unternehmen auch die geltenden Informations- und Dokumentationspflichten beachten. Vor dem Einsatz von KI-Systemen ist eine Datenschutz-Folgenabschätzung durchzuführen, da KI-Anwendungen auf der sogenannten Muss-Liste der DSGVO stehen. Dabei wird geprüft, ob der Einsatz der Technologie ein hohes Risiko für die Rechte und Freiheiten betroffener Personen mit sich bringt. Besonders relevant ist zudem die Regelung in Artikel 22 DSGVO: Automatisierte Einzelentscheidungen, die rechtliche Wirkung entfalten oder die betroffene Person erheblich beeinträchtigen, sind grundsätzlich unzulässig. Das bedeutet konkret: AI darf beispielsweise nicht autonom Bewerbungen bewerten und Bewerber eigenständig zu Vorstellungsgesprächen einladen. Die endgültige Entscheidung muss stets von einem Menschen getroffen werden.

Geistiges Eigentum an KI-generierten Inhalten

Ein weiterer wichtiger Aspekt beim Einsatz von KI-Systemen betrifft die Frage der Rechteinhaberschaft am erzeugten Output. Schon vor der öffentlichen Einführung von ChatGPT im November 2022 galt: Rein maschinell erzeugte Inhalte, unabhängig davon, ob es sich um Texte oder Bilder handelt, sind urheberrechtlich nicht geschützt. Grund dafür ist das Fehlen einer persönlichen geistigen Schöpfung durch einen Menschen, die Voraussetzung für den Urheberrechtsschutz wäre. Das bedeutet in der Praxis: KI-generierte Inhalte können grundsätzlich von Dritten kopiert, verbreitet und anderweitig verwendet werden, ohne dass der Prompter Ansprüche geltend machen kann. Allerdings können Outputs und Prompts, die einen wirtschaftlichen Wert besitzen und durch geeignete Schutzmaßnahmen gesichert werden, unter das Geschäftsgeheimnisgesetz (GeschGehG) fallen. Damit eröffnet sich eine alternative Möglichkeit, bestimmte KI-Outputs rechtlich zu schützen.

Nicht alle KI-generierten Outputs sind automatisch schutzlos. Für Inhalte wie Tonmaterial, Filme oder Videos, bei denen die wirtschaftliche und organisatorische Verantwortung eines Menschen oder Unternehmens im Vordergrund steht, kann ein Urheberrechtsschutz nach dem Urhebergesetz bestehen. In solchen Fällen kommt ergänzend auch der Schutz über das GeschGehG in Betracht. Ebenso kann KI-generierter Output schutzfähig werden, wenn er nachträglich so wesentlich von einem Menschen verändert wird, dass der menschliche Anteil überwiegt. Ob eine Veränderung aber als wesentlich anzusehen ist, hängt stets von den Umständen des Einzelfalls ab und bedarf einer sorgfältigen rechtlichen Bewertung.

Haftung beim Einsatz von KI-Systemen

Auch wenn KI-Systeme scheinbar autonom handeln, gelten sie juristisch betrachtet als Werkzeuge von Menschen. Die Verantwortung für von AI erzeugte Entscheidungen und Ergebnisse liegt daher weiterhin beim Unternehmen, das die AI einsetzt. Für Schäden, die durch Fehlentscheidungen von KI-Systemen entstehen – etwa im Rahmen von Bewerbungsverfahren oder im Zusammenhang mit dem Allgemeinen Gleichbehandlungsgesetz (AGG) –, haften Unternehmen nach den allgemeinen Regeln des Zivilrechts. Zunehmend an Bedeutung gewinnt außerdem die Produkthaftung. Mit der neuen EU-Produkthaftungsrichtlinie wird der Begriff “Produkt” ausdrücklich auf KI-Software ausgeweitet. Hersteller, Entwickler und Importeure haften künftig auch für fehlerhafte Updates, unsichere Trainingsdaten oder unklare Anleitungen. Unternehmen sollten deshalb ihre Beschaffungsverträge mit KI-Anbietern sorgfältig gestalten und Haftungsklauseln sowie Gewährleistungen bezüglich Datenherkunft und Rechten Dritter klar regeln.

Fazit: KI verantwortungsvoll und rechtssicher einsetzen

Der Einsatz von KI in Unternehmen erfordert eine sorgfältige Vorbereitung. Dies beginnt mit der Analyse geeigneter Einsatzfelder und der Entscheidung, ob eine lokale Lösung (On-Premise) oder ein Cloud-basiertes Modell (AI as a Service, AIaaS) gewählt werden soll. Darauf folgt die Erstellung oder Anpassung unternehmensinterner Richtlinien zum Umgang mit KI sowie die rechtliche Prüfung von Beschaffung, Implementierung und Betrieb der Systeme.

Unternehmen sind gut beraten, bei der Einführung von AI nicht nur technische Aspekte zu berücksichtigen, sondern auch die rechtlichen Rahmenbedingungen konsequent einzuhalten. Nur wer KI verantwortungsvoll nutzt, wird langfristig erfolgreich, innovationsfähig und rechtssicher agieren können.

Sie kommen aus Kiel oder Schleswig-Holstein und haben Fragen zum Einsatz von KI im Unternehmen? Oder Sie kommen aus dem übrigen Bundesgebiet und möchten sich über bestimmte Einsatzfelder von Künstlicher Intelligenz aus rechtlicher Perspektive informieren? Dann nehmen Sie gerne unter info@anwalt-daum.de Kontakt zu mir auf.

Dr. Oliver Daum
Fachanwalt für IT-Recht
Datenschutzbeauftragter (IHK)
IT-Sicherheitsbeauftragter (IHK)

Auch interessant: DSGVO und Arbeitsrecht: Wann führt eine verspätete Auskunft zu einem Schadensersatz?

Share on email
Share on whatsapp
Share on twitter
Share on xing

Kommentar verfassen

Deine E-Mail-Adresse wird nicht veröffentlicht.

Scroll to Top