News
Sonderrechtszone für KI – Der Streit um den „Digitalen Omnibus“ der EU-Kommission entscheidet mit darüber, ob Europa bei KI vor allem auf Datennutzung und Innovationsdruck setzt – oder an der bisherigen, strengen Logik der DSGVO festhält. Im Kern geht es um die Frage, ob KI eine Sonderrolle im Datenschutz erhalten soll, die weitreichende Folgen für Bürgerrechte, Wirtschaft und Aufsicht hätte.
Sonderrechtszone – Digitaler Omnibus – Regeln für KI-Datenverarbeitung in Europa in der Übersicht:
-
Neue KI‑Sonderregeln in der DSGVO
-
Vorwurf einer uferlosen Sonderrechtszone
-
Abschwächung von Datensparsamkeit befürchtet
-
Kommission verspricht mehr Rechtssicherheit
-
Big Tech als Hauptprofiteur kritisiert
-
Konflikt Innovation versus Grundrechtsschutz
KI zwischen Innovation und Grundrechten – Droht der EU eine „Sonderrechtszone für KI“?
Die europäische Regulierung von Künstlicher Intelligenz galt lange als Gegenentwurf zu den weitgehend marktbasierten Modellen der USA und Chinas: technologieoffen, grundrechtsbasiert, rechtsstaatlich. Mit einem neuen Reformpaket der Europäische Kommission geraten diese Prinzipien jedoch unter Druck. Juristische Gutachter sprechen von der Gefahr einer „uferlosen Sonderrechtszone für KI“ – ein Vorwurf, der weit über juristische Spitzfindigkeiten hinausgeht.
Im Zentrum steht die Frage: Darf KI-Entwicklung privilegiert werden – auch wenn dabei Datenschutz und Bürgerrechte relativiert werden?
Sonderrechtszone für KI – Worum geht es konkret?
Im Zuge eines sogenannten digitalen Omnibus-Verfahrens will die EU-Kommission mehrere Digitalgesetze „vereinfachen“ und besser aufeinander abstimmen. Kritiker sehen darin jedoch weniger Entbürokratisierung als vielmehr eine systematische Aufweichung bestehender Schutzstandards, insbesondere der Datenschutz-Grundverordnung. Der „Digitale Omnibus“ ist ein Gesetzespaket, mit dem die Kommission zahlreiche Digitalgesetze anpasst – darunter DSGVO, AI Act, ePrivacy-Regeln und Teile des Cybersecurity-Rechts. Ziel ist offiziell, Widersprüche zu glätten, Bürokratie abzubauen und Datenverarbeitung für KI und Forschung „praxisnäher“ zu regeln.
Ein zentraler Streitpunkt: Neue Ausnahmeregelungen für KI-Systeme könnten es erlauben, personenbezogene Daten breiter, länger und weniger kontrolliert zu verarbeiten – etwa für das Training oder die Weiterentwicklung von Modellen.
Das Problem liegt weniger im Ziel, sondern im Zuschnitt der Regeln.
Die Pläne der EU-Kommission für den „Digitalen Omnibus“ würden die Regeln für KI-Datenverarbeitung in Europa grundlegend umbauen – Kritiker sehen darin eine Sonderrechtszone für KI, Befürworter eine notwendige Modernisierung der DSGVO.
Im Zentrum der Debatte steht ein neuer Artikel 88c DSGVO, der die Entwicklung, das Training und den Betrieb von KI-Systemen ausdrücklich als „berechtigtes Interesse“ nach Artikel 6 Absatz 1 lit. f einstufen soll. Parallel dazu werden in Artikel 9 DSGVO neue Ausnahmen geschaffen, um auch sensible Daten in KI-Trainingsdaten zu dulden, wenn sie sich nur mit unverhältnismäßigem Aufwand entfernen ließen.
Die juristische Sollbruchstelle: Wenn alles KI ist
Die geplanten Regelungen arbeiten mit einer sehr weiten Definition von KI-Systemen. Nach Ansicht mehrerer Gutachter könnte darunter nahezu jede Form automatisierter Datenverarbeitung fallen – von Empfehlungssystemen bis zu statistischen Analyse-Tools.
Damit entstünde faktisch:
-
ein technologiespezifisches Sonderrecht
-
das die technikneutrale Logik der DSGVO unterläuft
-
und Datenschutzrechte nicht abschafft, aber praktisch entwertet
Besonders brisant: Schutzmechanismen wie Widerspruchsrechte oder Zweckbindung würden teils nur noch in unverbindlichen Erwägungsgründen auftauchen – juristisch schwach, politisch folgenreich.
Sonderrechtszone für KI – Spannungsfeld zur bestehenden KI-Regulierung
Eigentlich sollte der AI Act genau das Gegenteil leisten: Risiken systematisch erfassen, Hochrisiko-Anwendungen streng regulieren, Grundrechte absichern.
Die nun diskutierten Ausnahmen laufen diesem Ansatz entgegen. Kritiker sprechen von einem Regulierungsbruch: Auf der einen Seite detaillierte Pflichten, auf der anderen Seite weitreichende Ausnahmen – je nachdem, unter welchem Gesetz ein System subsumiert wird.
Das Gutachten von Spirit Legal sieht im Kommissionsentwurf erhebliche Risiken für den Datenschutz, weil KI-Datenverarbeitung strukturell gegenüber der DSGVO privilegiert würde.
Das von Spirit Legal für den Verbraucherzentrale Bundesverband erstellte Gutachten spricht von einer uferlosen Sonderrechtszone für KI. Der Kernvorwurf: Der extrem weite KI-Begriff erlaubt es Unternehmen, fast jede umfangreiche oder algorithmische Datenverarbeitung als „KI-bezogen“ zu deklarieren und so in ein privilegiertes Regime zu wechseln.
Besonders problematisch sehen die Gutachter:
-
Eine Abkehr von der technikneutralen DSGVO hin zu technologiespezifischen Privilegien für KI, die gerade für Big-Tech-Anbieter mit großen Datenpools attraktiv sind.
-
Die Umkehr der Datensparsamkeit: Je größer der Datensatz, desto eher erscheint die Verarbeitung nach der Logik des Entwurfs gerechtfertigt, sofern sie dem KI-Training dient.
-
Die Öffnung für sensible Daten (Gesundheit, politische Meinung etc.), die eigentlich nur in eng begrenzten Ausnahmefällen verarbeitet werden dürfen.
Das Gutachten weist zudem auf das Risiko hin, dass große KI-Modelle personenbezogene Informationen aus Trainingsdaten wiedergeben können („Data Leakage“) und dass der Entwurf keine harten technischen Mindeststandards zur Vermeidung solcher Re‑Identifikation vorschreibt. Kritisiert wird auch, dass Transparenz- und Opt-out-Regeln teilweise nur in Erwägungsgründen anklingen, statt als durchsetzbare Rechte im Normtext zu stehen.
Aushöhlung der DSGVO-Grundsätze
-
Der neue Art. 88c würde eine breite Ausnahme von den bisherigen DSGVO-Regeln schaffen, sobald sich eine Verarbeitung als „KI-bezogen“ etikettieren lässt.
-
Dadurch geraten zentrale Prinzipien wie Zweckbindung, Datenminimierung und Rechtmäßigkeit der Verarbeitung ins Hintertreffen, weil KI-Praxis pauschal als besonders schutzwürdig für „Innovation“ behandelt wird.
Legitimierung von Massen‑Scraping und Trainingsdaten
-
Das Gutachten warnt, dass der Entwurf massenhaftes Web‑Scraping und die Weiterverarbeitung großer personenbezogener Datensätze für KI-Training erleichtert, ohne dass Betroffene informiert oder gefragt werden.
-
Je größer und ungezielter der Datensatz, desto eher soll die Verarbeitung als gerechtfertigt gelten – faktisch eine Umkehr der datenschutzrechtlichen Logik weg von Datensparsamkeit.
Schwächung von Betroffenenrechten
-
Opt‑out‑Möglichkeiten für Bürger:innen und Transparenzpflichten der Anbieter sind nach Einschätzung von Spirit Legal zu unverbindlich und teilweise nur in Erwägungsgründen angedeutet.
-
Betroffene hätten oft keine realistische Chance zu erfahren, dass ihre Daten in Trainingspools gelandet sind, geschweige denn Löschung oder Einschränkung durchzusetzen.
Umgang mit besonderen Kategorien von Daten
-
Besonders kritisch sehen die Gutachter, dass sensible Daten (z.B. Gesundheitsdaten oder politische Meinung) in großem Umfang für KI genutzt werden können, wenn dies als „notwendig“ für das Training definiert wird.
-
Dies unterlaufe die hohen Schutzschwellen von Art. 9 DSGVO, weil die KI-Ausnahme als pauschale zusätzliche Rechtsgrundlage fungiere.
Risiko von Re‑Identifikation und Modell‑Leaks
-
Spirit Legal hebt hervor, dass große Modelle personenbezogene Informationen aus Trainingsdaten „leaken“ können, also konkrete Datenpunkte reproduzieren.
-
Der Entwurf enthalte keine ausreichenden technischen und organisatorischen Vorgaben, um Re‑Identifikation und solche Leaks verlässlich zu verhindern.
Besondere Gefährdung von Minderjährigen
-
Für Kinder und Jugendliche sieht das Gutachten ein erhöhtes Risiko, weil deren Daten ohne hinreichende elterliche Kontrolle und ohne klares nachträgliches Widerspruchsrecht in KI‑Systemen landen können.
-
Es fehle eine robuste Regelung, nach der volljährig gewordene Betroffene verlangen können, dass ihre in der Minderjährigkeit gesammelten Daten nicht länger für KI-Training genutzt werden.
Pro- und Contra-Analyse: Wer profitiert – wer verliert?
Sicht der Bürgerinnen und Bürger
Pro
-
Schnellere KI-Innovation kann öffentliche Dienstleistungen verbessern
-
Medizin, Mobilität, Verwaltung profitieren von leistungsfähigeren Modellen
Contra
-
Verlust an Kontrolle über eigene Daten
-
Intransparente Nutzung sensibler Informationen
-
Grundrechte werden faktisch zu „Abwägungsmasse“
Einordnung:
Für Bürger entsteht ein klassisches asymmetrisches Risiko: Der individuelle Schaden ist hoch, der individuelle Nutzen oft abstrakt.
Pro-und-Contra-Analyse nach Akteursgruppen
| Akteursperspektive | Pro-Argumente zum Entwurf | Contra-Argumente zum Entwurf |
|---|---|---|
| Bürger | Klare Regeln für KI-Nutzung könnten Transparenz und Kontrollmöglichkeiten sichtbarer machen als heute, wo vieles in einer Grauzone stattfindet. | Abschwächung von Datensparsamkeit, mehr Massen‑Scraping und Risiko von Datenlecks; Betroffene erfahren oft nicht, dass ihre Daten in Trainingssets landen |
| Unternehmen/Wirtschaft | Einheitliche Rechtsgrundlage für KI-Training senkt Rechtsunsicherheit und Transaktionskosten, erleichtert Innovation und Skalierung im Binnenmarkt. | Kleine Anbieter ohne große Datenbestände bleiben gegenüber Big Tech im Nachteil; höhere Compliance-Anforderungen trotz „Erleichterung“ können für KMU komplex bleiben |
| Regulierer/Politik | Harmonisierung von DSGVO, AI Act, ePrivacy und Cybersecurity schafft ein konsistenteres Regelwerk und verringert widersprüchliche Vorgaben. | Abschwächung von Datensparsamkeit, mehr Massen‑Scraping und Risiko von Datenlecks; Betroffene erfahren oft nicht, dass ihre Daten in Trainingssets landen. |
Für die digitale Souveränität besonders kritisch: Wenn einmal trainierte Modelle personenbezogene Muster verinnerlicht haben, lassen sich diese in der Praxis kaum vollständig „zurückdrehen“, selbst wenn Betroffene ihr Widerspruchsrecht ausüben. Die befürchtete „Sonderrechtszone“ wäre damit nicht nur juristisch, sondern auch technisch schwer revidierbar.
Ökonomisch heikel ist allerdings, dass eine solche Öffnung den Wettbewerb zugunsten derjenigen verschiebt, die bereits heute im großen Stil Daten sammeln und verarbeiten können. Spirit Legal und andere Kritiker sehen darin ein implizites Standortprogramm für große Plattformen und Cloud-Anbieter, während datenärmere europäische Mittelständler regulatorisch zwar profitieren, aber strukturell kaum aufholen.
Gleichzeitig warnen Datenschutzbehörden und zivilgesellschaftliche Organisationen, dass das Paket die DSGVO „im Vorbeifahren“ umschreibt und zentrale Schutzmechanismen technologisch relativiert. Der neue Artikel 88c könnte als Präzedenzfall dienen, künftig weitere technologische Bereiche über Sondernormen von den allgemeinen Prinzipien des Datenschutzes zu entkoppeln.
Innovation und Standortargument
-
Brüssel argumentiert, der „digitale Omnibus“ solle einen „Befreiungsschlag gegen Bürokratie“ liefern und so den Einsatz von KI-Systemen in Europa erleichtern, statt ihn durch unklare Datenschutzvorgaben auszubremsen.
-
KI-Entwicklung, ‑Training und ‑Betrieb sollen ausdrücklich als „berechtigtes Interesse“ anerkannt werden, damit Unternehmen nicht in jedem Einzelfall Einwilligungen einholen oder unsichere Rechtsgrundlagen „zusammenkonstruieren“ müssen.
Rechtssicherheit und Vereinheitlichung – Sonderrechtszone für KI
-
Die Kommission präsentiert Artikel 88c als Klarstellung innerhalb der DSGVO, die unterschiedliche Auslegungen der Aufsichtsbehörden eindämmen und europaweit einheitlichere Bedingungen für KI-Anbieter schaffen soll.
-
Durch die gesetzliche Verankerung KI-bezogener Datenverarbeitung auf Basis des berechtigten Interesses sollen langwierige Streitfragen (etwa um Metas oder LinkedIns KI-Training mit Nutzerdaten) in ein regelbasiertes Verfahren überführt werden.
Schutz durch Informations- und Widerspruchsrechte
-
Als Ausgleich betont die Kommission, dass Nutzer:innen informiert werden sollen, wenn ihre personenbezogenen Daten für KI-Training genutzt werden, und dass Widerspruchsrechte vorgesehen sind.
-
Das Narrativ lautet: Die Datenverarbeitung wird zwar erleichtert, aber durch Transparenzpflichten, Opt-out-Möglichkeiten und bestehende Aufsichtsstrukturen der Datenschutzbehörden weiterhin eingehegt.
Effizienz statt „Deregulierung“
-
Öffentlich kommuniziert die Kommission den Omnibus als Projekt „Effizienz statt Deregulierung“: Ziel sei eine Entschlackung und Harmonisierung überlappender Digitalgesetze, nicht die Abschaffung von Grundrechten.
-
Teil der Argumentation ist, dass ohne eine gezielte Öffnung für KI globale Wettbewerber – insbesondere US-Anbieter – de facto einen Vorsprung behalten, während europäische Firmen durch strengere und unklare Regeln benachteiligt würden.
Der größere Kontext: Grundrechte vs. Standortpolitik
Die Debatte zeigt ein strukturelles Dilemma europäischer Digitalpolitik:
-
Will man global mithalten, muss man Innovation ermöglichen.
-
Will man europäisch bleiben, darf man Grundrechte nicht relativieren.
Eine Sonderrechtszone für KI wäre kein technisches Detail, sondern ein Paradigmenwechsel.
Fazit: Vereinfachung ja – Sonderrecht nein
Die Kritik der Gutachter ist kein Innovationsverhinderungsreflex, sondern ein Warnsignal.
Nicht gegen KI.
Nicht gegen Fortschritt.
Sondern gegen die Idee, dass technologische Dynamik Rechtsstaatlichkeit ersetzen darf.
Wenn Europa seinen eigenen Anspruch ernst nimmt, braucht es:
-
klare, enge Ausnahmen
-
harte gesetzliche Schutzmechanismen
-
und keine Privilegierung einzelner Technologien
KI braucht Regeln – nicht weniger, sondern bessere.
Der Begriff beschreibt die Sorge, dass für KI-Systeme künftig Ausnahmen vom bestehenden Datenschutzrecht gelten könnten. Kritiker befürchten, dass KI bei der Verarbeitung personenbezogener Daten privilegiert wird und damit Schutzmechanismen der DSGVO faktisch abgeschwächt werden. Es geht nicht um völlige Rechtlosigkeit, sondern um ein Ungleichgewicht zugunsten der KI-Entwicklung.
Formell bleibt die DSGVO bestehen. Kritisch ist jedoch, dass geplante Ausnahmen für KI-Training und -Entwicklung den Anwendungsbereich der DSGVO einschränken könnten. Werden zentrale Datenschutzrechte nur noch in Erwägungsgründen erwähnt, sinkt ihre Durchsetzbarkeit – was einer indirekten Aushöhlung gleichkommt.
Weil eine sehr weit gefasste KI-Definition dazu führen kann, dass nahezu jede automatisierte Datenverarbeitung als KI gilt. Je breiter der Begriff, desto größer der Kreis der Anwendungen, die von Sonderregeln profitieren – und desto höher das Risiko, dass Datenschutz und Zweckbindung systematisch umgangen werden.
Für Bürger droht ein Verlust an Transparenz und Kontrolle über persönliche Daten. Für Unternehmen entsteht ein zweischneidiges Bild: Große, datenstarke Plattformen profitieren, während kleinere europäische Anbieter und das Vertrauen in digitale Märkte leiden könnten. Langfristig steht die Glaubwürdigkeit der europäischen Digital- und Grundrechtspolitik auf dem Spiel.










Noch kein Kommentar vorhanden.