Open Source AI · Datenschutz
KI und DSGVO.
Kein Widerspruch.
Die meisten Unternehmen scheitern nicht an der Technologie — sie scheitern an der Unsicherheit. Welche KI-Betriebsmodelle sind rechtlich sicher? Was muss der Betriebsrat wissen? Drei Szenarien, klar erklärt.
Die Kernregel: Verarbeitungsort entscheidet — nicht Modell-Herkunft
Das wichtigste Missverständnis zuerst: Es ist nicht relevant, woher ein KI-Modell kommt. DeepSeek ist ein chinesisches Unternehmen — aber wenn du das DeepSeek-Modell lokal auf deinem Server betreibst, verlässt keine einzige Anfrage deine Infrastruktur. Das ist vollständig DSGVO-konform.
Die DSGVO reguliert die Verarbeitung personenbezogener Daten — wo sie stattfindet, wer Zugriff hat, ob Daten übermittelt werden. Ein lokal betriebenes Modell ist in dieser Hinsicht wie eine lokal installierte Software: keine Übermittlung, kein Drittland-Transfer, kein Problem.
Umgekehrt gilt: Ein europäisches Modell, das über eine Cloud-API aus den USA ausgeliefert wird, kann DSGVO-problematisch sein — nicht wegen des Modells, sondern wegen des Verarbeitungsorts.
Drei Szenarien — von kritisch bis vollständig konform
Für die Rechtsabteilung und den Betriebsrat: Was jeweils gilt und was geprüft werden muss.
Daten werden an US-amerikanische Server übermittelt. Das ist grundsätzlich möglich — aber mit Aufwand verbunden:
- Auftragsverarbeitungsvertrag (AVV) mit dem Anbieter: Pflicht und prüfen ob vorhanden
- Datenschutzfolgenabschätzung (DSFA) bei systematischer Verarbeitung personenbezogener Daten
- Drittland-Transfer: Prüfen ob angemessenes Schutzniveau (Standard-Vertragsklauseln, Adequacy Decision)
- Betriebsrat-Information bei systematischer Mitarbeiter-Daten-Verarbeitung
Empfehlung: Nur für öffentliche oder nicht-personenbezogene Daten ohne interne Sensibilität. Bei persönlichen Daten: rechtliche Prüfung unbedingt notwendig.
Verarbeitung findet in der EU statt — das vereinfacht die Compliance erheblich:
- Kein Drittland-Transfer: EU-DSGVO gilt direkt
- AVV meist inklusive und DSGVO-konform gestaltet
- DSFA kann entfallen wenn keine besonderen Kategorien verarbeitet werden
- Ionos AI Model Hub: Europäischer Anbieter, Rechenzentren in Deutschland, DSGVO-konform by Design
Empfehlung: Guter Kompromiss zwischen Einfachheit und Konformität. Für interne Daten ohne besondere Sensibilität gut geeignet.
Modell läuft auf eigenem Server oder eigener Hardware. Höchste Konformität:
- Keine Daten-Übermittlung an Dritte: DSGVO-Anforderungen für Drittland-Transfer entfallen vollständig
- Kein externer AVV nötig (Verarbeitung bleibt intern)
- Auch sensible Daten (Gesundheit, Mitarbeiter, Verträge) können verarbeitet werden
- Volle Kontrolle über Modell-Updates, Logging, Datenhaltung
Empfehlung: Für alle Daten mit erhöhter Schutzbedürftigkeit. Initiale Einrichtung aufwendiger, aber langfristig die sicherste und kontrollierteste Lösung.
AVV und DSFA — was du wissen musst
Zwei rechtliche Instrumente tauchen in fast jeder KI-DSGVO-Diskussion auf. Hier eine praxisnahe Erklärung ohne Juristendeutsch.
Auftragsverarbeitungsvertrag (AVV)
Wenn du personenbezogene Daten an einen Dienstleister weitergibst, der sie in deinem Auftrag verarbeitet — das ist Auftragsverarbeitung. Der Dienstleister (z.B. OpenAI, Mistral) braucht dann einen AVV mit dir.
Was muss der AVV regeln? Zweck der Verarbeitung, Art der Daten, Sicherheitsmaßnahmen, Löschfristen, Unterauftragnehmer.
Praxis-Check: Einfach im Anbieter-Portal nach “Data Processing Agreement” oder “DPA” suchen. OpenAI, Anthropic und Mistral stellen diese bereit.
Datenschutzfolgenabschätzung (DSFA)
Eine DSFA ist Pflicht wenn die Verarbeitung “voraussichtlich ein hohes Risiko für die Rechte und Freiheiten natürlicher Personen” zur Folge hat. Typische Trigger:
- Systematische Verarbeitung von Mitarbeiter-Daten
- Verarbeitung besonderer Kategorien (Gesundheit, politische Meinung)
- KI-gestützte Bewertung oder Profilbildung von Personen
Bei lokalem Betrieb ohne Personenbezug: DSFA häufig nicht erforderlich.
Hinweis: Diese Seite ist kein Rechtsrat. Bei konkreten DSGVO-Fragen zur KI-Einführung in eurem Unternehmen: Datenschutzbeauftragten oder Anwalt einbinden. Die hier dargestellten Muster sind Orientierungshilfen, keine Rechtsauskunft.
“DSGVO und KI sind kein Widerspruch. Sie sind eine Designentscheidung — über Architektur, Betriebsmodell und Datenkategorien.”
— Ralf Kruse
Die hybride Lösung: nach Datenkategorie differenzieren
Kein Unternehmen muss sich für ein einziges Betriebsmodell entscheiden. Der pragmatische Weg: Daten klassifizieren und je nach Schutzbedarf das passende Modell wählen.
Öffentliche / nicht-sensible Daten
Beispiele: Allgemeine Recherche, öffentliche Dokumente, Marketing-Texte, Code-Reviews ohne Geschäftsgeheimnisse
Interne / vertrauliche Daten
Beispiele: Interne Berichte, Projekt-Dokumentation, Angebote, Strategiepapiere
Personenbezogene / sensible Daten
Beispiele: HR-Daten, Mitarbeiter-Profile, Kundendaten, Gesundheitsdaten, Verträge mit Personenbezug
Stand: 2026-05
Was sich gerade entwickelt
Der Anbietermarkt, lokale Optionen und kreative Wege — monatlich aktualisiert.
Cloud-Anbieter: EU-konforme Optionen
EU-konforme Cloud-KI ist 2026 kein Nischenthema mehr — aber die Vertragsdetails entscheiden.
Datenverarbeitung in EU-Region einstellbar. Azure-AGB und Data Processing Addendum prüfen — Subauftragsverarbeiter (Microsoft-Konzern intern) sind in der Kette. Für sensible Daten: "Confidential Compute" Option prüfen.
→ AVV erforderlich
Europäischer Anbieter, kleinere Modelle unter Apache 2.0 auch lokal nutzbar. API-Nutzung mit AVV möglich, Daten verbleiben in der EU. Für viele KMU die pragmatischste Cloud-Option.
→ AVV erforderlich
Deutsches Unternehmen, Luminus-Modelle, expliziter Sovereign-AI-Anspruch. API-Verarbeitung auf deutschen Servern. Teurer als US-Wettbewerb, dafür maximale rechtliche Klarheit. Gut für Behörden und regulierte Branchen.
→ AVV erforderlich
ChatGPT Enterprise und API bieten "Zero Data Retention" — keine Nutzung der Eingaben fürs Training. EU Data Residency in Beta seit 2025/26. Drittland-Transfer formal noch vorhanden; Standard-Vertragsklauseln (SCCs) als Absicherung prüfen.
→ AVV erforderlich
US-Unternehmen ohne EU-Rechenzentrum. Datentransfer außerhalb der EU ist für personenbezogene Daten kritisch — SCCs nötig, Restrisiko bleibt. Geeignet für nicht-personenbezogene Inhalte (Textentwürfe, Code, Recherchen).
→ AVV erforderlich
Lokaler Betrieb: Was sich bewährt
Lokal betriebene Modelle sind 2026 für viele Business-Aufgaben praxistauglich — wenn die Hardware stimmt.
- Ollama + quantisierte Modelle (Q4/Q5): Llama 3, Mistral 7B, Phi-3 Mini laufen auf Standard-Hardware. Für Text-Zusammenfassung, Klassifizierung, interne Dokumente gut geeignet.
- LM Studio als Desktop-Interface: Keine Server-Infrastruktur nötig, lokal auf MacBook/Windows-Laptop, zero networking. Ideal für Einzelnutzer oder kleine Teams.
- Lokaler Ollama-Server im Intranet: Ein dedizierter Rechner (GPU optional) versorgt mehrere Nutzer via HTTP-API — ohne Cloud-Anbindung, DSGVO-Problem strukturell gelöst.
Ehrliche Einschätzung: Für GPT-4-Niveau-Qualität braucht man heute noch starke Hardware (48+ GB RAM oder dedizierte GPU). Für viele Alltagsaufgaben — Zusammenfassung, Klassifizierung, Formulierung — reicht ein modernes MacBook Pro oder ein günstiger Server mit 32 GB RAM.
Kreative Wege: Jenseits der Standard-Szenarien
Pseudonymisierung und hybride Filter-Pipelines machen auch Cloud-KI für sensible Daten nutzbar.
Presidio (Open Source, GitHub: microsoft/presidio) erkennt vor dem API-Call automatisch PII — Namen, IBANs, Sozialversicherungsnummern, E-Mail-Adressen — und ersetzt sie mit Platzhaltern (z.B. "[NAME_1]"). Nach der LLM-Antwort werden Platzhalter zurückgetauscht. Nur anonymisierter Text verlässt das Unternehmen.
Geeignet für: Kundenservice-Automatisierung, Dokumentenanalyse mit Personenbezug, HR-Prozesse mit Cloud-LLM
Ein kleines lokales Modell (z.B. Phi-3 Mini via Ollama) übernimmt die Vorfilterung: Es klassifiziert, ob ein Text PII enthält, und anonymisiert wenn nötig. Der bereinigte Text wird dann an ein leistungsstärkeres Cloud-Modell übergeben. Kein Presidio-Setup nötig — nur zwei Modell-Calls.
Geeignet für: Teams ohne Python-Expertise, einfachere Pipelines, Prototypen
Kein Filter nötig: Das gesamte Modell (Inference + Daten) bleibt im eigenen Netz. Keine API-Calls nach außen, kein AVV, kein Drittland-Risiko. Modellwahl nach Aufgabe: Llama 3 8B für Text, Mistral für Code, spezialisierte Modelle für strukturierte Daten.
Geeignet für: Hochsensible Daten (Personal, Forschung, M&A), regulierte Branchen (Banken, Versicherungen, Kliniken), Unternehmen mit klarer Datenschutzrichtlinie
Was jetzt konkret ansteht
- Datenkategorien klassifizieren: Welche eurer KI-Anwendungsfälle verarbeiten personenbezogene Daten — und welche nicht? Diese Trennung entscheidet über die Architektur.
- Für nicht-personenbezogene Aufgaben jetzt starten: Textentwürfe, Code-Assistenz, Recherchen — hier ist Cloud-KI sofort nutzbar, kein AVV-Problem.
- Presidio oder lokales Modell als Filter evaluieren: Ein Proof-of-Concept mit Microsoft Presidio lässt sich in einem Nachmittag aufsetzen — und gibt Klarheit, ob der hybride Ansatz für euren Kontext funktioniert.
Datenstand: 2026-05-11 · Dieses Feld wird monatlich aktualisiert — der Anbietermarkt entwickelt sich, neue EU-Datenverarbeitungsoptionen entstehen.
Checkliste für die Rechtsabteilung und den Betriebsrat
Was ihr klären müsst bevor KI im Unternehmen eingeführt wird:
- Datenkategorien definieren: Welche Daten werden mit KI verarbeitet? Öffentlich, intern, personenbezogen, besonders sensibel?
- Betriebsmodell je Kategorie wählen: Lokales Modell, EU-Cloud, US-Cloud — je nach Schutzbedarf der Datenkategorie.
- AVV prüfen: Bei Cloud-Anbietern: Auftragsverarbeitungsvertrag vorhanden und DSGVO-konform? Standard-Vertragsklauseln für Drittland-Transfer?
- DSFA bewerten: Systematische Verarbeitung personenbezogener Daten? Profilbildung? Dann Datenschutzfolgenabschätzung durchführen.
- Betriebsrat informieren: Technische Einrichtungen die das Verhalten der Mitarbeitenden überwachen können: mitbestimmungspflichtig (§87 BetrVG).
- Verfahrensverzeichnis: KI-gestützte Verarbeitungen ins Verzeichnis der Verarbeitungstätigkeiten aufnehmen.
- Datenschutzbeauftragten einbinden: Frühzeitig — nicht wenn das System schon läuft.
Weiter im Cluster
Lokal betreiben
Modelle mit Ollama auf eigenem Server betreiben — die DSGVO-sicherste Option.
Ollama erklärt →RAG
Lokales Modell mit internen Dokumenten verbinden — DSGVO-konform und sofort aktuell.
RAG verstehen →Fine-Tuning
Modelle lokal anpassen und betreiben — volle Kontrolle über Modell und Daten.
Fine-Tuning erklärt →Open Source AI
DSGVO-konforme KI-Architektur entwickeln
Ihr wollt KI einführen und braucht eine klare Antwort für Betriebsrat und Rechtsabteilung? Ich helfe euch die richtige Architektur zu definieren.