Microsoft Copilot „Reprompt“-Exploit ermöglichte heimlichen Datendiebstahl

Die Sicherheitsforscher von Varonis Threat Labs haben eine Sicherheitslücke in Microsoft Copilot entdeckt. Über diese können Angreifer durch einen einzigen Klick auf einen bösartigen Link persönliche Daten stehlen.

Das Wesentliche

Der Exploit namens „Reprompt“ nutzte URL-Q-Parameter, um automatisch Eingabeaufforderungen auszuführen und sensible Daten an vom Angreifer kontrollierte Server weiterzuleiten. Es war nur ein Klick des Benutzers erforderlich, ohne dass zusätzliche Eingaben nötig waren. Zudem funktionierte es auch, wenn Copilot geschlossen war.

Die Angreifer entwickelten Eingabeaufforderungen, um die Sicherheitsvorkehrungen von Copilot zum Abrufen von URLs zu umgehen. Im August 2025 meldete Varonis die Sicherheitslücke an Microsoft. Microsoft hat den Exploit am 13. Januar 2026 gepatcht und damit das Sicherheitsrisiko beseitigt, das durch diesen Exploit entstanden war.

Fazit

Dieser Vorfall macht deutlich, dass KI-Assistenten nach wie vor anfällig für ausgeklügelte Sicherheitslücken sind. Daher ist es wichtig, bei der Weitergabe persönlicher Daten an KI-Tools vorsichtig zu sein und beim Anklicken von Links, insbesondere solchen, die zu KI-Assistenten führen, wachsam zu bleiben.

KI (AI) entmystifiziert

Dieses Ebook erklärt auf einfache und humorvolle Weise, was AI wirklich ist. Lesen Sie über die Anfänge von AI. Erfahren Sie warum die Antworten von AI nicht auf Fakten beruhen können. Lesen Sie warum AI nicht schlussfolgern oder gar denken kann. Erfahren Sie warum der KI-Hype absolut übertrieben ist und was diese Technologie nur leisten kann. Warum Big-Tech voll auf AI setzt und was das zur Folge hat. Dieses Buch entmystifiziert das Thema AI.

Online bestellen:
Amazon Kindle, Apple Books, Google Books, Thalia, Hugendubel, bücher.de, Osiander, ebook.de, genialokal.de, Kobo, Barnes & Noble, Orell Füssli, Morawa, ecobookstore, ecolibri, deutsche-buchhandlung.de


Nach oben scrollen