Der KI-Entwickler Anthropic hat kürzlich einen aufsehenerregenden Bericht veröffentlicht, der die Welt der künstlichen Intelligenz in Aufruhr versetzt hat.
Demnach sollen drei bedeutende chinesische KI-Unternehmen, mamantlich MiniMax, DeepSeek und Moonshot in großem Stil versucht haben, die Fähigkeiten von Anthropics Flaggschiffmodell Claude zu stehlen. Was dabei ans Licht gekommen ist, liest sich wie ein Technologiethriller und wirft grundlegende Fragen über den globalen Wettbewerb im Bereich der künstlichen Intelligenz auf.
Laut Anthropics Bericht haben die drei genannten chinesischen Unternehmen eine koordinierte Kampagne durchgeführt, die das Unternehmen selbst als Angriff in „industriellem Ausmaß“ bezeichnet. Im Kern der Operation standen rund 24.000 betrügerische Konten, die zusammen mehr als 16 Millionen Interaktionen mit Claude generierten. Das Ziel war, die fortschrittlichsten Fähigkeiten des Modells zu extrahieren und für das Training eigener KI-Systeme zu nutzen.
Die Methode, die dabei zum Einsatz kam, nennt sich Destillation. Dabei lernt ein schwächeres Modell, indem es die Ausgaben eines leistungsstärkeren Modells imitiert. Technisch gesehen ist diese Methode in der KI-Branche durchaus üblich und legitim. Große Labore nutzen sie regelmäßig, um aus ihren eigenen riesigen Modellen kleinere, kostengünstigere und effizientere Versionen für spezifische Anwendungen zu erstellen. Das eigentliche Problem entsteht jedoch dann, wenn ein Konkurrent diese Technik einsetzt, um sich mächtige Fähigkeiten anzueignen, ohne die enormen Kosten und den zeitlichen Aufwand zu tragen, die für eine eigenständige Entwicklung notwendig wären.
Besonders bemerkenswert ist die technische Raffinesse der beschriebenen Operation. Die Angreifer nutzten sogenannte „Hydra-Cluster-Architekturen“. Das sind weitverzweigte Netzwerke von Konten, die den Datenverkehr verschleiern und verteilen, um automatische Erkennungssysteme zu umgehen. Diese Methode erinnert an die Taktiken professioneller Cyberkrimineller und zeigt, dass es sich hierbei nicht um spontane oder amateurhafte Versuche handelte, sondern um eine sorgfältig geplante und professionell durchgeführte Kampagne.
Anthropic erklärt, die Verantwortlichen mit hoher Wahrscheinlichkeit identifiziert zu haben. Dies erfolgte durch IP-Adresskorrelation, Anfragemetadaten, Infrastrukturindikatoren und in einigen Fällen durch Bestätigungen von Branchenpartnern. Diese Aussage ist bemerkenswert, denn sie deutet darauf hin, dass Anthropic über ausgefeilte Überwachungs- und Analysesysteme verfügt, die in der Lage sind, selbst gut getarnte koordinierte Angriffe zu erkennen.
Die Angreifer hatten es dabei auf ganz bestimmte Fähigkeiten abgesehen, wie agentisches Denken, Nutzung von Tools und Programmierfähigkeiten. Diese Bereiche gehören zu den wertvollsten und schwierigsten Kompetenzen moderner KI-Systeme und erfordern immense Ressourcen in der Entwicklung. Es ist daher wenig verwunderlich, dass genau diese Fähigkeiten im Fokus der Angriffe standen.
Als Reaktion auf diese Erkenntnisse hat Anthropic mehrere Gegenmaßnahmen eingeleitet. Das Unternehmen hat spezielle Klassifikatoren und Verhaltens-Fingerabdrucksysteme entwickelt, die darauf ausgelegt sind, solche Destillationsangriffsmuster im API-Verkehr zu erkennen. Darüber hinaus teilt Anthropic technische Indikatoren mit anderen KI-Laboren und Cloud-Anbietern, um eine branchenweite Abwehr zu ermöglichen. Auch die Verifizierungsverfahren für Bildungs- und Forschungskonten wurden verschärft. Diese Maßnahmen zeigen, dass Anthropic das Problem nicht nur als eigenes betrachtet, sondern als eine Herausforderung für die gesamte KI-Branche. Die Bereitschaft, Informationen mit Wettbewerbern zu teilen, ist ein ungewöhnlicher Schritt in einer Branche, die ansonsten von intensivem Wettbewerb geprägt ist.
Dieser Vorfall ist symptomatisch für die zunehmenden Spannungen im globalen Wettlauf um die Vorherrschaft in der künstlichen Intelligenz. Die USA und China befinden sich in einem intensiven technologischen Wettbewerb, bei dem KI als Schlüsseltechnologie der Zukunft gilt. Während amerikanische Unternehmen wie Anthropic, OpenAI und Google DeepMind enorme Ressourcen in die Entwicklung fortschrittlicher Modelle investieren, versuchen chinesische Akteure, den Rückstand aufzuholen. DeepSeek hat in den vergangenen Monaten bereits für Aufsehen gesorgt, indem es leistungsstarke Modelle zu einem Bruchteil der Kosten westlicher Konkurrenten vorgestellt hat. Ob und inwieweit dabei Destillationstechniken aus fremden Modellen eine Rolle gespielt haben, ist schwer zu beurteilen. Der Anthropic-Bericht legt jedoch nahe, dass zumindest Versuche in diese Richtung unternommen wurden.
Der Fall wirft auch wichtige rechtliche und ethische Fragen auf. Ist die Destillation aus einem fremden Modell ohne Genehmigung eine Form des geistigen Diebstahls? Die rechtliche Lage ist bislang unklar, da das Urheberrecht und Patentrecht im Bereich der KI noch weitgehend ungeregelt sind. Anthropics Nutzungsbedingungen verbieten zwar ausdrücklich die Nutzung seiner Modelle zum Training konkurrierender Systeme, doch die internationale Durchsetzbarkeit solcher Regelungen ist begrenzt.
Ethisch betrachtet ist die Sache klarer. Wer die Früchte jahrelanger Forschung und milliardenschwerer Investitionen ohne Erlaubnis erntet, handelt nicht fair. Anthropic hat kürzlich eine massive Finanzierungsrunde über 30 Milliarden Dollar abgeschlossen und wird mit 380 Milliarden Dollar bewertet. Diese Zahlen verdeutlichen, wie viel auf dem Spiel steht.
Der Bericht von Anthropic ist ein Weckruf für die gesamte KI-Branche. Er zeigt, dass der Schutz geistigen Eigentums in der Ära der künstlichen Intelligenz eine neue Dimension angenommen hat. Technische Schutzmaßnahmen allein werden nicht ausreichen. Es braucht internationale Abkommen, klare rechtliche Rahmenbedingungen und eine enge Zusammenarbeit zwischen Unternehmen, Regierungen und Regulierungsbehörden. Der globale KI-Wettlauf wird sich weiter verschärfen. Und mit ihm die Frage, wie eine faire und regelbasierte Entwicklung dieser mächtigen Technologie gewährleistet werden kann.