Im Mai 2025 ordnete ein US-Gericht an, dass OpenAI sämtliche Chat-Verläufe – auch bereits gelöschte – speichern muss. Wer glaubt, Chats nach dem Löschen würden verschwinden, liegt jetzt falsch: Sie bleiben im so genannten „Legal Hold" erhalten. Der Hintergrund: Ein laufender Rechtsstreit, in dem die New York Times OpenAI und Microsoft wegen Urheberrechtsverletzungen verklagt.
Weshalb musste OpenAI Chats dauerhaft speichern?Die New York Times behauptet, OpenAI habe ihre journalistischen Inhalte genutzt, um KI-Modelle zu trainieren. Sie beantragte deshalb, dass OpenAI auch gelöschte Chat-Verläufe weiterhin als Beweismaterial sichert. Ein Gericht stimmte diesem Antrag zu – um zu verhindern, dass potenziell relevante Daten verloren gehen. OpenAI darf daher vorerst nicht alle Chats löschen.
Wer ist betroffen?- Betroffen sind Nutzer von ChatGPT Free, Plus, Pro und Team sowie API-Kunden ohne spezielle Datenschutzvereinbarungen.
- Nicht betroffen sind Nutzer von ChatGPT Enterprise, Edu oder diejenigen mit Vertrag zur Zero Data Retention (ZDR). Diese Nutzer behalten weiterhin eine automatische Löschpraxis nach 30 Tagen.
OpenAI erklärt, die gerichtliche Anordnung sei übertrieben und setze ein schlechtes Signal für den Datenschutz. CEO Sam Altman und COO Brad Lightcap kündigten an, gegen die Order Berufung einzulegen. Sie argumentieren, dass die Maßnahme gegen ihre eigenen Datenschutzzusagen und branchenübliche Standards verstößt. Zudem betonen sie, dass die Daten nur in einem separaten, rechtlich überwachten Bereich gespeichert sind und nur ein kleiner, geprüfter Kreis Zugriff darauf hat.
Was bedeutet der „Legal Hold" für Sie?- Chats bleiben gespeichert, auch wenn Sie sie manuell löschen oder die „temporäre" Chatfunktion nutzen.
- Die Daten sind getrennt abgespeichert, gut gesichert und nur im Falle gerichtlicher Anforderungen zugänglich.
- Kein öffentlicher Zugriff: Die New York Times oder andere Dritte erhalten die Daten nicht automatisch. Sie müssten hierfür gesondert gerichtlich zugreifen.
- Unklarer Endzeitpunkt: Solange das Gerichtsverfahren läuft, bleibt der Legal Hold aktiv – ein genaues Ablaufdatum gibt es nicht.
Für Nutzer, die darauf vertrauten, dass ihre gelöschten Chats dauerhaft verschwinden, stellt diese Situation einen Vertrauensbruch dar.
Diskussion um „AI-Privileg"CEO Altman stellt die Idee eines „AI-Privilegs" zur Diskussion: Gespräche mit KI sollten rechtlich vergleichbar sein mit vertraulichen Unterhaltungen bei Anwälten oder Ärzten.
Signalwirkung für KI-AnbieterJe nach Ausgang des Verfahrens könnte sich diese Entscheidung als Vorbild für andere Gerichte etablieren – mit weitreichenden Folgen für die Datenschutzanforderungen bei KI-Plattformen.
Wie Sie jetzt angemessen reagieren- Geben Sie keine sensiblen Inhalte ein, wenn Sie Free, Plus, Pro oder Team nutzen.
- Nutzen Sie Enterprise-, Edu- oder ZDR-Modelle, wenn Ihnen Datenschutz und tatsächliches Löschen wichtig sind.
- Behalten Sie die rechtliche Entwicklung im Blick, um auf neue Entscheidungen reagieren zu können.
- Erwägen Sie alternative KI‑Lösungen, etwa lokal installierte, Open‑Source‑Modelle ohne zentrale Datenspeicherung.
Das Mai-2025-Urteil zur Aufbewahrung aller ChatGPT-Verläufe – selbst gelöschter – stellt den Datenschutz in der KI-Nutzung in Frage. OpenAI kämpft in Berufung gegen das Urteil und betont, dass die Maßnahme gegen bestehende Datenschutzversprechen verstößt. Während der Legal Hold in Kraft ist, sollten Nutzer sensible Inhalte nur in den abgesicherten Versionen (Enterprise, Edu, ZDR) teilen – oder besser ganz vermeiden.
Wichtig für Sie:
- Vermeiden Sie sensible Informationen in unsicheren Chat-Versionen.
- Enterprise, Edu und ZDR bieten Ihnen weiterhin echte Löschbarkeit.
- Beobachten Sie das Verfahren – es wird deutliche Auswirkungen auf Datenschutz und KI-Regulierung haben.
Sie haben Fragen zu diesem Artikel? Rufen Sie uns gern unter 09122 6937302 an und vereinbaren Sie einen Gesprächstermin. Oder senden Sie uns einfach eine Nachricht. Wir freuen uns, Sie kennenzulernen!
Ihr Team von Datenschutz Prinz