Microsoft Copilot ist in vielen Unternehmen im Einsatz. Der KI-gestützte Assistent erleichtert die Arbeit in Word, Excel, Outlook und Teams. Doch genau diese Automatisierung kann zum Problem werden. Sicherheitsforscher haben eine Schwachstelle gefunden, die zeigt, wie gefährlich es ist, wenn Künstliche Intelligenz ohne Kontrolle agiert.
Was ist passiert?Im Januar 2025 haben Experten von Aim Security eine schwere Sicherheitslücke in Microsoft 365 Copilot entdeckt. Der Fehler war so gravierend, dass Copilot auf E-Mails antwortete, ohne dass ein Nutzer überhaupt geklickt hat. Diese Schwachstelle wurde später unter dem Namen CVE-2025-32711, auch bekannt als EchoLeak, bekannt.
Die KI las eine manipulierte E-Mail, interpretierte diese als Arbeitsauftrag und verschickte automatisch sensible Informationen aus dem Unternehmen. Ganz ohne das Zutun von Menschen. Microsoft hat diese Schwachstelle als kritisch eingestuft.
Wie konnte das passieren?Copilot wurde so entwickelt, dass er Inhalte aus verschiedenen Quellen lesen und verstehen kann. Das Problem dabei: Die KI unterscheidet nicht zwischen vertrauenswürdigen internen Daten und potenziell gefährlichen externen Informationen, zum Beispiel aus E-Mails.
Die Angreifer nutzten genau das aus. Sie formulierten eine scheinbar harmlose E-Mail so, dass Copilot sie falsch interpretierte und eigenständig eine Antwort generierte. Diese Antwort enthielt vertrauliche Informationen, die nie hätten versendet werden dürfen.
Was sagt Microsoft dazu?Microsoft wurde bereits im Januar 2025 informiert. Die offizielle Behebung der Lücke erfolgte jedoch erst im Juni 2025. Laut dem Unternehmen wurde die Lücke zwar geschlossen und bis dahin nicht ausgenutzt, doch viele Experten kritisieren die lange Reaktionszeit von fünf Monaten.
Das Update wurde automatisch in die Systeme eingespielt. Unternehmen müssen selbst nichts tun, um die Lücke zu schließen. Trotzdem bleibt ein bitterer Beigeschmack: Ein Fehler dieser Art hätte enorme Auswirkungen haben können.
Warum ist das so gefährlich?Einige Gründe, warum die EchoLeak-Lücke besonders kritisch ist:
Das Hauptproblem liegt tiefer. Die aktuelle Architektur von Copilot (und ähnlichen KI-Agenten) erlaubt es der KI, Informationen aus verschiedenen Quellen zu vermischen, ohne sie zuverlässig zu bewerten. Sie kann deshalb fremden Anfragen genauso vertrauen wie internen Anweisungen.
Diese fehlende Trennung ist ein grundlegender Designfehler, wie Sicherheitsforscher betonen. Ähnliche Risiken gibt es auch bei anderen Systemen, etwa von Salesforce oder Anthropic.
Was können Unternehmen jetzt tun?Auch wenn Microsoft die Lücke inzwischen geschlossen hat, sollten Unternehmen daraus lernen und ihr Sicherheitskonzept anpassen.
Hier sind konkrete Maßnahmen:
Die Szenarien sind vielfältig und beängstigend:
Und das alles, ohne dass jemand merkt, was passiert ist. Die KI arbeitet im Hintergrund, effizient und schnell – aber eben auch ohne menschliches Urteilsvermögen.
EchoLeak ist ein Weckruf für alle Unternehmen, die KI-Anwendungen wie Copilot nutzen. Automatisierung ist wertvoll, kann aber auch gefährlich sein, wenn die Systeme nicht richtig abgesichert sind.
Microsoft hat zwar reagiert, aber die grundlegende Problematik bleibt: KI-Tools benötigen klare Regeln, kontrollierte Datenzugriffe und laufende Überwachung. Unternehmen müssen sich bewusst machen, dass Künstliche Intelligenz kein Ersatz für gesunden Menschenverstand ist – sondern ein Werkzeug, das geführt werden muss.
Zusammenfassung auf einen BlickSie haben Fragen zu diesem Artikel? Rufen Sie uns gern unter 09122 6937302 an und vereinbaren Sie einen Gesprächstermin. Oder senden Sie uns einfach eine Nachricht. Wir freuen uns, Sie kennenzulernen!
Ihr Team von Datenschutz Prinz
Hier haben Sie die Möglichkeit, für alle Blog-Beiträge, die wir auf unserer Webseite veröffentlichen, Updates zu erhalten.
Damit verpassen Sie keine Neuigkeiten mehr in Sachen Datenschutz!
Um hier diese Inhalte zu sehen, stimmen Sie bitte zu, dass diese in die Webseite von https://www.datenschutz-prinz.de/ geladen werden.