Die Integration von Künstlicher Intelligenz in den Arbeitsalltag verspricht enorme Effizienzgewinne. Mit Microsoft Copilot hat eine der mächtigsten KI-Lösungen Einzug in die Office-Umgebung gehalten. Doch ein aktueller Vorfall wirft einen Schatten auf die technologische Euphorie: Ein Softwarefehler führte dazu, dass der Microsoft Copilot vertrauliche E‑Mails erfasst hat, obwohl diese explizit durch Schutzmaßnahmen und Vertraulichkeitsbezeichnungen (Sensitivity Labels) gesichert waren. Für Unternehmen und Betriebsräte stellt dies ein erhebliches Risiko dar, da sensible Geschäftsgeheimnisse oder personenbezogene Daten unkontrolliert verarbeitet werden könnten. In diesem Artikel analysieren wir die technischen Ursachen dieses „Microsoft Copilot Bug“, untersuchen die datenschutzrechtlichen Konsequenzen und zeigen auf, welche Kontrollmechanismen für die Mitbestimmung der Arbeitnehmervertreter nun entscheidend sind. Wie sicher ist die automatisierte Datenverarbeitung wirklich, wenn selbst etablierte Sicherheitsfilter versagen?
Analyse des Vorfalls: Der Microsoft Copilot Bug und seine Auswirkungen
Der Kern des Vorfalls liegt in einer fehlerhaften Verarbeitung von Zugriffsberechtigungen innerhalb der Microsoft-365-Umgebung. Microsoft Copilot fungiert als Schnittstelle, die auf Basis des Microsoft Graph arbeitet, um Dokumente, E‑Mails und Kalenderdaten zu indizieren und für den Nutzer aufzubereiten. Ein kritischer Programmierfehler führte dazu, dass die KI-Schnittstelle Zugriff auf Inhalte erhielt, die aufgrund ihrer Einstufung als „vertraulich“ eigentlich für die automatisierte Verarbeitung gesperrt sein sollten.
Konkret bedeutet dies: Nutzer konnten den Copilot anweisen, Zusammenfassungen von E‑Mail-Korrespondenzen zu erstellen, auf die die KI nach den geltenden Sicherheitsrichtlinien keinen Zugriff hätte haben dürfen. Berichte verdeutlichen, dass der Bug die logische Trennung zwischen geschützten Daten und der KI-Verarbeitung umging. Dies hebelt das Prinzip der Datensparsamkeit und des zweckgebundenen Zugriffs aus.
Die Auswirkungen für die IT-Sicherheit sind gravierend. Wenn eine KI-Lösung Informationen einliest, die als „streng vertraulich“ klassifiziert sind, besteht die Gefahr, dass diese Informationen in Antworten für andere Nutzer einfließen oder in der Cloud-Infrastruktur auf eine Weise verarbeitet werden, die nicht mehr dem ursprünglichen Schutzniveau entspricht. Ein solches Datenleck ist besonders kritisch, wenn es um sensible Verhandlungen, Personaldaten oder strategische Planungen geht, die einem besonderen Schutz unterliegen.
Schwachstelle Schutzmaßnahmen: Warum Vertraulichkeitsfilter versagten
Das Versagen der Schutzmechanismen ist eng mit der Funktionsweise von Microsoft Purview verknüpft. Purview ist das zentrale Tool zur Daten-Governance, mit dem Unternehmen Sensitivity Labels definieren. Diese Labels sollen sicherstellen, dass Dokumente verschlüsselt bleiben und nur von autorisierten Personen sowie Anwendungen eingesehen werden können.
Der Bug zeigte jedoch eine Schwachstelle in der Kommunikation zwischen dem Semi-Annual Enterprise Channel von Office und den Purview-Diensten auf. In den archivierten Versionshinweisen dokumentiert Microsoft Fehlerbehebungen, die belegen, dass Vertraulichkeitsbezeichnungen teilweise nicht korrekt angezeigt oder von den Hintergrundprozessen der KI ignoriert wurden.
In komplexen Cloud-Infrastrukturen hängen Sicherheitsmechanismen von einer fehlerfreien Synchronisation zahlreicher Teilsysteme ab. Wenn die KI-Komponente (Copilot) Metadaten wie das Sensitivity Label nicht korrekt interpretiert, behandelt sie das geschützte Dokument wie eine gewöhnliche, offene Datei. Dies verdeutlicht das Risiko einer zu starken Abhängigkeit von automatisierten Filtern: Ein einziger Fehler im Code-Update kann die gesamte Governance-Struktur eines Unternehmens unterwandern. Für Unternehmen bedeutet dies, dass technische Schutzmaßnahmen zwar notwendig, aber niemals als absolut fehlerfrei betrachtet werden dürfen. Die IT-Infrastruktur muss daher durch organisatorische Maßnahmen und regelmäßige Audits ergänzt werden.
Compliance und DSGVO: Rechtliche Risiken für Arbeitgeber und Betriebsräte
Der Vorfall rückt die datenschutzrechtliche Verantwortlichkeit unmittelbar in das Zentrum der betrieblichen IT-Governance. Wenn ein KI-System wie Microsoft Copilot Schutzmechanismen umgeht und Zugriff auf als vertraulich klassifizierte Daten erhält, liegt ein potenzieller Verstoß gegen die Datenschutz-Grundverordnung (DSGVO) vor. Insbesondere die Grundsätze der Integrität und Vertraulichkeit (Art. 5 Abs. 1 lit. f DSGVO) sowie die Sicherheit der Verarbeitung (Art. 32 DSGVO) sind hierbei tangiert. Ein solcher „Bug“ kann eine Meldepflicht gegenüber den Aufsichtsbehörden nach Art. 33 DSGVO auslösen, da ein Risiko für die Rechte und Freiheiten natürlicher Personen – etwa bei der Verarbeitung von Personaldaten in E‑Mails – nicht ausgeschlossen werden kann.
Für den Betriebsrat ergibt sich aus diesem Vorfall eine neue Bewertungsgrundlage hinsichtlich der Mitbestimmungsrechte nach § 87 Abs. 1 Nr. 6 BetrVG. Die Einführung und Anwendung von technischen Einrichtungen, die dazu bestimmt sind, das Verhalten oder die Leistung der Arbeitnehmer zu überwachen, unterliegt der zwingenden Mitbestimmung. Da Microsoft Copilot durch die Analyse von E‑Mails und Dokumenten tiefgreifende Einblicke in Arbeitsabläufe und Kommunikationsstrukturen erhält, ist die Überwachungsqualität immanent. Ein technischer Fehler, der Vertraulichkeitsstufen ignoriert, entzieht der ursprünglichen Gefährdungsbeurteilung die Grundlage.
Arbeitgeber und Betriebsräte müssen daher die bestehenden Betriebsvereinbarungen zur KI-Nutzung und die Datenschutz-Folgenabschätzung (DSFA) gemäß Art. 35 DSGVO kritisch prüfen. Wenn technische Filter versagen, auf deren Wirksamkeit die Risikobewertung basierte, muss der Einsatz des Tools unter Umständen temporär eingeschränkt oder durch zusätzliche Kontrollinstanzen flankiert werden. Die Haftung für Datenschutzverstöße verbleibt beim verantwortlichen Unternehmen; die Berufung auf einen Softwarefehler des Herstellers entbindet den Arbeitgeber nicht von seiner Sorgfaltspflicht gegenüber den Beschäftigten.
Prävention und Kontrolle: Strategien zur Absicherung der KI-Nutzung
Um das Risiko technischer Fehlfunktionen zu minimieren, ist eine proaktive Governance-Strategie unerlässlich. Unternehmen dürfen sich nicht allein auf die Standardeinstellungen der Softwarehersteller verlassen. Ein zentraler Baustein ist hierbei der Einsatz von Microsoft Purview, das als übergreifende Compliance-Lösung dient. Durch Purview lassen sich Datenflüsse innerhalb der Cloud-Infrastruktur transparenter gestalten und die Durchsetzung von Richtlinien zentral überwachen.
Eine effektive Prävention setzt an drei Hebeln an:
- Striktes Berechtigungsmanagement (Least Privilege): Unabhängig von KI-Funktionen müssen Zugriffsberechtigungen auf das absolut notwendige Minimum reduziert werden. Wenn ein Nutzer gar keinen Zugriff auf eine Datei hat, kann auch der Copilot in dessen Kontext diese Daten nicht verarbeiten – selbst wenn ein Bug in den Sensitivity Labels vorliegt.
- Kontinuierliches Monitoring und Audits: Die Nutzung von KI-Schnittstellen muss protokolliert werden. Durch regelmäßige Stichproben und automatisierte Audits innerhalb von Microsoft Purview lässt sich feststellen, ob die KI auf unzulässige Datenquellen zugreift.
- Governance-Richtlinien und Schulung: Mitarbeiter müssen sensibilisiert werden, welche Daten für die Verarbeitung durch KI-Tools geeignet sind. Die bloße Kennzeichnung durch Labels reicht nicht aus, wenn das technische Verständnis für deren Wirkungsweise fehlt.
Die IT-Sicherheit muss als dynamischer Prozess verstanden werden. Da Cloud-Dienste kontinuierlich durch Updates verändert werden, ist eine dauerhafte Überwachung der Release-Notes und Sicherheitsbulletins durch die IT-Abteilung zwingend. Nur durch die enge Verzahnung von technischer Kontrolle, organisatorischen Vorgaben und der Einbindung der Arbeitnehmervertreter kann ein Schutzniveau erreicht werden, das auch unvorhergesehenen Softwarefehlern standhält.
Fazit
Der Vorfall um den Microsoft Copilot verdeutlicht, dass die technologische Euphorie im Bereich der Künstlichen Intelligenz (KI) stets durch eine kritische Governance-Struktur flankiert werden muss. Ein Softwarefehler, der etablierte Vertraulichkeitsfilter wie Sensitivity Labels umgeht, stellt nicht nur ein technisches Problem dar, sondern erschüttert das Fundament des digitalen Vertrauens im Unternehmen. Für Arbeitgeber bedeutet dies, dass die bloße Implementierung von Standardlösungen nicht ausreicht, um den strengen Anforderungen der DSGVO und den Sorgfaltspflichten gegenüber Geschäftsgeheimnissen gerecht zu werden.
Für den Betriebsrat unterstreicht dieser Bug die Notwendigkeit, bei der Ausgestaltung von Betriebsvereinbarungen zur KI-Nutzung auf dynamische Kontrollrechte zu bestehen. Starre Regelwerke genügen nicht, wenn Cloud-Systeme durch kontinuierliche Updates ihre Funktionsweise und damit ihr Risikoprofil verändern. Die Mitbestimmung nach § 87 Abs. 1 Nr. 6 BetrVG muss daher als fortlaufender Prozess verstanden werden, der regelmäßige Audits und technische Evaluationen einschließt.
Zukünftig wird der sichere Einsatz von KI-Systemen nur gelingen, wenn IT-Abteilung, Datenschutzbeauftragte und Arbeitnehmervertreter eng verzahnt zusammenarbeiten. Die Lehre aus dem Copilot-Bug ist klar: Technik ist eine Unterstützung, keine finale Instanz für Sicherheit. Ein resilientes Risikomanagement muss stets davon ausgehen, dass automatisierte Filter versagen können, und entsprechende organisatorische Rückfallebenen – wie das Prinzip des Least Privilege und regelmäßige Sensibilisierungen der Belegschaft – etablieren. Nur so lässt sich das Potenzial der KI nutzen, ohne die Integrität sensibler Unternehmens- und Mitarbeiterdaten preiszugeben.
Weiterführende Quellen
- Häufig gestellte Fragen zum Datenschutz für Microsoft Copilot
- Microsoft Copilot sammelte vertrauliche Mails ein, obwohl er das nicht sollte
- Archivierte Versionshinweise für Semi-Annual Enterprise Channel
- Beschreibung des Microsoft Purview-Diensts – Service Descriptions
- Nutzerberichte zur E‑Mail-Zusammenfassung durch Copilot (Reddit-Diskussion)





