KI und Datenschutz: Was die DSGVO für KI-Systeme bedeutet

DSGVO und AI Act gelten beim KI-Einsatz parallel — jede Verarbeitung personenbezogener Daten durch ein KI-System braucht eine Rechtsgrundlage nach Art. 6 DSGVO.

Ab dem 2. August 2026 treten die zentralen AI-Act-Pflichten für Hochrisiko-KI-Systeme in Kraft; der AI Act sieht Bußgelder bis 35 Millionen Euro oder 7 Prozent des weltweiten Jahresumsatzes vor.

Wie regelt die DSGVO den Einsatz von KI?

Die DSGVO regelt jeden KI-Einsatz, bei dem personenbezogene Daten verarbeitet werden — also Namen, E-Mail-Adressen, IP-Adressen oder biometrische Merkmale.

Sobald ein KI-System solche Daten liest, speichert, analysiert oder ausgibt, gilt das Datenschutzrecht in vollem Umfang. Das betrifft Trainingsphase und Produktivbetrieb gleichermaßen.

Welche Rechtsgrundlagen sind anwendbar?

In der Praxis stützen Unternehmen KI-Verarbeitungen meist auf zwei Grundlagen: die Einwilligung nach Art. 6 Abs. 1 lit. a DSGVO oder das berechtigte Interesse nach Art. 6 Abs. 1 lit. f DSGVO.

Die Einwilligung scheitert oft an der technischen Realität — einmal im neuronalen Netz verankerte Daten lassen sich kaum selektiv löschen, obwohl Betroffene ihre Einwilligung jederzeit widerrufen dürfen. Das berechtigte Interesse trägt deutlich weiter, stößt aber bei sensiblen Daten und Minderjährigen an harte Grenzen.

Gilt die DSGVO auch für das KI-Training?

Ja. Die Trainingsphase ist datenschutzrechtlich nichts anderes als eine Verarbeitung nach Art. 4 Nr. 2 DSGVO und braucht dieselbe Rechtsgrundlage wie jeder andere Datenprozess.

Werden Bestandsdaten für das Training umgewidmet, greift der Grundsatz der Zweckbindung — eine spätere Nutzung für Modelltraining ist nur zulässig, wenn der neue Zweck mit dem ursprünglichen vereinbar ist.

Wann ersetzt der AI Act die DSGVO?

Nie. Erwägungsgrund 63 des AI Act stellt klar, dass die Verordnung keine eigenständige Rechtsgrundlage für die Verarbeitung personenbezogener Daten schafft.

Unternehmen müssen beide Regelwerke parallel erfüllen: DSGVO für den Datenschutz, AI Act für die Produktsicherheit des KI-Systems.

Welche Risiken entstehen durch KI im Datenschutz?

Beim Einsatz von KI entstehen besondere Datenschutzrisiken durch Black-Box-Entscheidungen, großflächiges Web-Scraping für Trainingsdaten und die nachträgliche Zweckänderung bei Bestandsdaten im Unternehmen.

Diese drei Risikofelder zählen zu den zentralen KI-Risiken und unterscheiden KI-Verarbeitung fundamental von klassischer IT.

Black Box und Intransparenz

Deep-Learning-Modelle lernen autonom und liefern Ergebnisse, deren Zustandekommen selbst die Entwickler nicht mehr vollständig rekonstruieren können. Dieses Black-Box-Problem kollidiert direkt mit dem Transparenzgebot des Art. 5 Abs. 1 lit. a DSGVO.

Betroffene haben nach Art. 15 DSGVO ein Auskunftsrecht, und die Informationspflichten aus Art. 13 und 14 verlangen eine nachvollziehbare Darstellung der Verarbeitung. Lösungsansatz ist Explainable AI — Modelle, die ihre Entscheidungen auditierbar machen.

Web-Scraping und Trainingsdaten

Viele Foundation Models wurden mit Milliarden im Netz gefundener Inhalte trainiert, darunter personenbezogene Daten von Menschen, die nie in eine Verarbeitung eingewilligt haben. Eine nachträgliche Einwilligung ist bei solchen Datensätzen praktisch unmöglich.

Für Unternehmen entsteht ein Folgerisiko: Wer ein extern trainiertes Modell nutzt, übernimmt dessen rechtliches Erbe mit. Der Auftragsverarbeitungsvertrag nach Art. 28 DSGVO deckt das nur teilweise ab.

Zweckänderung bei Bestandsdaten

Kundendaten, die einmal zur Vertragsabwicklung oder zum Kundenservice erhoben wurden, lassen sich nicht ohne Weiteres für das Training eines internen KI-Modells nutzen. Art. 5 Abs. 1 lit. b DSGVO verlangt eine Kompatibilitätsprüfung.

Der Kontext der ursprünglichen Erhebung, die Art der Daten und die möglichen Folgen einer Weiterverarbeitung müssen geprüft werden. Ergebnis: In vielen Fällen braucht es eine neue Information der Betroffenen oder eine frische Rechtsgrundlage.

Welche DSGVO-Grundsätze gelten für KI-Systeme?

Für KI-Systeme gelten dieselben fünf Grundsätze wie für jede andere Datenverarbeitung: Rechtmäßigkeit, Zweckbindung, Datenminimierung, Transparenz und sachliche Richtigkeit der Daten.

Art. 5 DSGVO bündelt diese Prinzipien und wirkt als Maßstab für jede Verarbeitungsentscheidung im KI-Lebenszyklus — von der Datenerhebung bis zum Modell-Output.

Rechtmäßigkeit und Zweckbindung

Jede Verarbeitung braucht eine der sechs Rechtsgrundlagen aus Art. 6 DSGVO, und der Verarbeitungszweck muss bei der Erhebung bereits eindeutig und legitim festgelegt sein.

Für KI-Projekte bedeutet das: Wer Trainingsdaten sammelt, dokumentiert Zweck und Rechtsgrundlage vor dem ersten Datenpunkt — nicht erst, wenn das Modell steht.

Datenminimierung bei großen Trainingsdatensätzen

KI-Modelle lernen besser mit mehr Daten, das Datenschutzrecht verlangt aber das Gegenteil. Die Lösung liegt in Technologie: anonymisierte und synthetische Trainingsdaten, Federated Learning und sogenannte Privacy Enhancing Technologies (PETs).

Ziel ist nicht die absolut kleinste Datenmenge, sondern die Verarbeitung auf das für den Zweck erforderliche Minimum zu beschränken.

Transparenz und Auskunftsrechte

Nach Art. 13 und 14 DSGVO müssen Unternehmen vor der Verarbeitung über KI-Einsatz, Zweck, Rechtsgrundlage und eventuelle automatisierte Entscheidungen informieren. Art. 15 DSGVO sichert Betroffenen ein Auskunftsrecht, das auch die Logik hinter KI-Entscheidungen umfasst.

Die Datenschutzerklärung muss KI-Systeme namentlich nennen und erklären, welche Eingaben verarbeitet und welche Daten an externe Anbieter fließen.

Richtigkeit und Datenqualität

Art. 5 Abs. 1 lit. d DSGVO verlangt sachlich richtige und aktuelle Daten — ein Grundsatz, der bei KI-Halluzinationen besondere Relevanz hat. Ungenaue Trainingsdaten produzieren ungenaue Modelle, falsche Modellausgaben über Personen können Datenschutzverstöße darstellen.

Art. 10 Abs. 3 AI Act verdoppelt diese Pflicht für Hochrisiko-Systeme mit eigenen Qualitätsanforderungen an Trainings-, Validierungs- und Testdatensätze.

Wie greifen AI Act und DSGVO ab August 2026 zusammen?

Der AI Act ergänzt die DSGVO und ersetzt sie nicht — ab dem 2. August 2026 gelten die zentralen Pflichten für Hochrisiko-KI-Systeme.

Unternehmen müssen beide Regelwerke parallel erfüllen, für dieselben Systeme und oft für dieselben Datenverarbeitungen. Diese Doppel-Compliance ist das zentrale Governance-Thema des Jahres 2026.

Was gilt ab 2. August 2026?

Ab diesem Datum sind die Regelungen für Hochrisiko-KI-Systeme nach Art. 6 AI Act vollständig anwendbar. Dazu zählen Risikomanagement, Datenqualitäts-Dokumentation, menschliche Aufsicht, technische Dokumentation und Konformitätsbewertung vor Markteinführung.

Erste Regelungen — insbesondere das Verbot bestimmter KI-Praktiken und die AI-Literacy-Pflicht — gelten bereits seit dem 2. Februar 2025.

Welche Risikoklassen definiert der AI Act?

Der AI Act unterscheidet vier Klassen: unannehmbares Risiko (verboten), hohes Risiko (voll reguliert), begrenztes Risiko (Transparenzpflichten) und minimales Risiko (keine Pflichten).

Hochrisiko-Systeme finden sich typischerweise in Personalauswahl, Kreditvergabe, Strafverfolgung, Bildungsbewertung und kritischer Infrastruktur. Für Unternehmen ist die korrekte Einstufung der erste Schritt jeder KI-Compliance.

Welche Bußgelder drohen?

Verstöße gegen das Verbot bestimmter KI-Praktiken werden nach Art. 99 AI Act mit bis zu 35 Millionen Euro oder 7 Prozent des weltweiten Jahresumsatzes geahndet. Für Verstöße gegen sonstige Pflichten liegen die Maxima bei 15 Millionen Euro oder 3 Prozent Jahresumsatz.

DSGVO-Bußgelder nach Art. 83 bleiben davon unberührt und können zusätzlich verhängt werden — beide Sanktionssysteme sind kumulativ.

AI Literacy — Pflicht seit Februar 2025

Art. 4 AI Act verpflichtet Anbieter und Betreiber, für ausreichende KI-Kompetenz ihrer Mitarbeitenden zu sorgen. Diese Pflicht ist seit dem 2. Februar 2025 anwendbar.

Das bedeutet: Jede Person, die beruflich mit einem KI-System arbeitet, braucht nachweisbare Kenntnisse über Funktionsweise, Grenzen und Risiken des eingesetzten Systems. Schulungen müssen dokumentiert und zum jeweiligen Anwendungsfall passen.

Wie setzen Unternehmen KI rechtssicher ein?

Rechtssicherer KI-Einsatz beginnt mit einem vollständigen KI-Inventar, setzt auf verbindliche Datenschutzfolgenabschätzungen bei Hochrisiko-Anwendungen und erfordert geschulte Mitarbeitende auf allen Hierarchie-Ebenen.

Die Umsetzung ist kein einmaliges Projekt, sondern ein laufender Compliance-Prozess mit klaren Verantwortlichkeiten.

DSGVO-konform?

Ob ein Tool als DSGVO-konform gilt, hängt an vier Faktoren: EU-Hosting oder Standardvertragsklauseln, Auftragsverarbeitungsvertrag nach Art. 28 DSGVO, abschaltbares Modelltraining mit den Eingabedaten und ein dokumentierter Löschprozess.

In der Praxis entscheidet die richtige Tool-Auswahl und die saubere Vertragsgestaltung über die Rechtmäßigkeit — eine KI-Agentur für Automatisierung prüft diese Kriterien projektweise und dokumentiert sie.

Wann ist eine Datenschutzfolgenabschätzung Pflicht?

Art. 35 DSGVO verlangt eine DSFA bei voraussichtlich hohem Risiko für die Rechte und Freiheiten natürlicher Personen. Die Aufsichtsbehörden führen Positivlisten, die bei systematischer Bewertung oder neuen Technologien regelmäßig eine DSFA vorschreiben.

KI-Projekte erfüllen fast immer mindestens zwei dieser Kriterien gleichzeitig. Ohne abgeschlossene DSFA darf eine risikoreiche KI-Verarbeitung nicht starten.

Welche technischen Maßnahmen sind Standard?

Auf technischer Ebene haben sich vier Maßnahmen durchgesetzt: Anonymisierung und Pseudonymisierung von Trainingsdaten, Ende-zu-Ende-Verschlüsselung bei Übertragung und Speicherung, rollenbasierte Zugriffskontrollen und regelmäßige Audit-Logs der Modellzugriffe.

Für besonders sensible Anwendungen kommen Federated Learning, differentielle Privatsphäre und synthetische Trainingsdaten hinzu.

Welches KI-Inventar brauchen Unternehmen?

Ein sauberes KI-Inventar listet jedes eingesetzte System mit Zweck, Datenkategorien, Rechtsgrundlage, Anbieter, Risikoklasse nach AI Act und DSFA-Status. Ohne dieses Inventar ist weder die AI-Act-Pflicht zur Konformitätsbewertung noch die DSGVO-Rechenschaftspflicht erfüllbar.

In der Praxis entstehen solche Inventare erst, wenn jemand systematisch durch Abteilungen geht — viele KI-Tools laufen heute inoffiziell über Fachabteilungen.

Häufige Fragen zu KI und Datenschutz +

Ist ChatGPT DSGVO-konform?

ChatGPT kann DSGVO-konform eingesetzt werden, wenn Unternehmen die passende Version wählen — ChatGPT Team oder Enterprise mit Data Processing Addendum —, keine personenbezogenen Daten ohne Rechtsgrundlage verarbeiten und den Trainingsdaten-Opt-out aktivieren.

Die Standard-Free-Version gilt datenschutzrechtlich als kritisch, weil Eingaben für das Modelltraining genutzt werden können und kein Auftragsverarbeitungsvertrag zustande kommt.

Welche KI-Tools gelten als DSGVO-konform?

Als DSGVO-konform gelten KI-Tools, die EU-Hosting oder Standardvertragsklauseln bieten, einen Auftragsverarbeitungsvertrag nach Art. 28 DSGVO abschließen und einen Trainingsdaten-Opt-out erlauben. Dazu zählen Enterprise-Versionen von Claude, ChatGPT Enterprise, Microsoft Copilot for Work und europäische Anbieter wie Aleph Alpha oder Mistral.

Die konkrete Auswahl hängt vom Anwendungsfall und der Datenkategorie ab — in der KI-Beratung wird die Tool-Landschaft projektspezifisch gegen Datenschutz- und AI-Act-Anforderungen geprüft.

Was passiert bei einem DSGVO-Verstoß durch KI?

Aufsichtsbehörden können nach Art. 83 DSGVO Bußgelder bis zu 20 Millionen Euro oder 4 Prozent des weltweiten Jahresumsatzes verhängen.

Der AI Act ergänzt das Sanktionsregime: Verstöße gegen verbotene Praktiken werden mit bis zu 35 Millionen Euro oder 7 Prozent geahndet, Verstöße gegen Hochrisiko-Pflichten (ab 2. August 2026) mit bis zu 15 Millionen Euro oder 3 Prozent.

Beide Sanktionssysteme greifen unabhängig voneinander und können parallel verhängt werden.

Muss KI-Nutzung in der Datenschutzerklärung stehen?

Ja. Sobald eine KI personenbezogene Daten von Website-Besuchern oder Kunden verarbeitet, fordert Art. 13 DSGVO eine transparente Information über Einsatz, Verarbeitungszweck, Rechtsgrundlage und die Empfänger der Daten.

Chatbots, KI-gestützte Formulare und automatisierte Entscheidungen müssen namentlich genannt werden — eine pauschale Formulierung reicht nicht aus.

Wer haftet bei Datenschutzverletzungen durch KI?

Datenschutzrechtlich haftet nach Art. 4 Nr. 7 DSGVO der Verantwortliche — meist das einsetzende Unternehmen, nicht der KI-Anbieter. Ein Auftragsverarbeitungsvertrag verlagert die Verantwortung nicht, er strukturiert sie nur.

Der AI Act unterscheidet zusätzlich zwischen Anbietern und Betreibern; nach Art. 25 AI Act können Betreiber in eine Anbieterrolle rutschen, wenn sie das Modell wesentlich verändern oder unter eigenem Namen vertreiben.

Welche Rolle spielt die DSFA bei KI-Projekten?

Eine Datenschutzfolgenabschätzung nach Art. 35 DSGVO ist bei KI-Projekten fast immer Pflicht, weil sie regelmäßig neue Technologien, systematische Bewertung von Personen oder große Datenmengen umfassen. Sie dokumentiert Risiken, prüft Erforderlichkeit und legt Schutzmaßnahmen fest.

Ohne abgeschlossene DSFA darf eine Hochrisiko-Verarbeitung nicht starten, und bei einer Aufsichtskontrolle ist die Nicht-Durchführung einer der häufigsten Verstoßtatbestände.

Verwendete Quellen

Dieser Beitrag stützt sich auf aktuelle Fachveröffentlichungen aus 2025 und 2026 sowie auf eigene Recherche bei Kundenprojekten. Alle genannten Gesetzestexte entstammen der konsolidierten EU-Fassung.

  • Eigene Recherche bei Kundenprojekten zu KI-Einführung und DSGVO-Compliance
  • IHK München: „AI Act: Regeln für Unternehmen beim Einsatz künstlicher Intelligenz" (2026)
  • Handelsblatt Live: „KI und Datenschutz: So nutzen Sie KI-Systeme DSGVO-konform" (April 2025)
  • Telekom MMS Blog: „Datenschutz & KI richtig verbinden: Leitfaden für DSGVO- & AI-Act-konforme KI-Projekte" (August 2025)
  • Informatik Aktuell: „KI-Datenschutz: DSGVO-konforme Anonymisierung sensibler Daten" (August 2025)
  • eRecht24: „KI und Datenschutz im Unternehmen" (April 2025)
  • Landesbeauftragter für Datenschutz Baden-Württemberg: „Rechtsgrundlagen im Datenschutz beim Einsatz von Künstlicher Intelligenz"
  • Landesbeauftragte NRW: „KI-Verordnung kommt, Datenschutz bleibt"
  • IHK Frankfurt am Main: „KI und Datenschutz"

Unsicher, wie Sie KI DSGVO-konform in Ihrem Unternehmen einsetzen?

30 Minuten. Wir klären Rechtsgrundlage, DSFA-Bedarf und Toolauswahl für Ihr konkretes KI-Projekt.

Kontakt aufnehmen