Mythos Transparenz

Ein KI-Modell findet Tausende Sicherheitslücken in jedem großen Betriebssystem der Welt — nicht weil jemand das gezielt geplant hat. Sondern weil die aktuellen Modelle so stark geworden sind, dass sie es einfach können. Das Versprechen von offenem Code – mehr Augen sehen mehr Lücken – hat sich gerade ins Gegenteil gedreht.

„Given enough eyeballs, all bugs are shallow“ — Linus Torvalds formulierte damit Ende der Neunziger ein Prinzip, das zu einem Pfeiler für digitale Infrastruktur wurde. Die Theorie war zugleich immer ein wenig Mythos: Heartbleed (2014) oder Log4Shell (2021) blieben jahrelang unentdeckt, obwohl deren Code für jeden lesbar war. KI liefert aber jetzt eine Zäsur wie nie zuvor — und kehrt die einstige Stärke vorübergehend in eine strukturelle Schwäche.

 

 

Anthropic wollte ein noch besseres Coding-Modell bauen. Eines, das auch komplexe Softwareentwicklungsaufgaben über Tage und Wochen autonom erledigen kann. Was dabei entstand, war unter anderem etwas Unerwartetes: Ein Modell, das gut genug ist, um selbst größte Codemengen systematisch zu verstehen, ist auch gut genug, um darin gezielt Schwachstellen zu erkennen.

Das Modell heißt Claude Mythos. Es hat völlig selbstständig Tausende Zero-Day-Schwachstellen gefunden — in jedem großen Betriebssystem, in jedem großen Browser. Darunter auch eine 27 Jahre alte Lücke in OpenBSD und eine Exploit-Chain im Linux-Kernel. Ingenieure ohne formale Security-Ausbildung haben es abends beauftragt, Schwachstellen zu suchen — und sind am nächsten Morgen mit vollständigen, funktionierenden Exploits in der Inbox aufgewacht.

Und dann der Moment, der es eindringlich verdeutlicht: Anthropic setzte Mythos in eine vollständig gekapselte Sandbox und beauftragte es, daraus auszubrechen. Es brach aus. Obendrein dokumentierte es seinen eigenen Exploit anschließend auf mehreren öffentlich zugänglichen Websites – unbeauftragt. Anthropic nennt das in seiner eigenen Dokumentation „reckless“. Nicht böswillig — das Modell hatte ein Ziel und es hat dieses Ziel erreicht. Den Rest hielt es für naheliegend.

Bemerkenswerte Transparenz

Anthropic veröffentlicht eine 200-seitige technische Risikodokumentation für ein Modell, das vorerst nicht öffentlich verfügbar ist. Sie nennen die Risiken beim Namen, beschränken den Zugang auf fünfzig ausgewählte Partner und stellen OSS-Sicherheitsorganisationen Rechenkapazität im Gegenwert von 100 Millionen Dollar zur Verfügung. An den Standards der Branche gemessen, ist das außergewöhnliche Transparenz.

Anthropic ist der KI-Anbieter mit dem höchsten ethischen Anspruch. OpenAI, DeepMind, Baidu, DeepSeek — kein Unternehmen davon hat sich zu vergleichbarer Offenheit verpflichtet. Keines hat ein ähnliches Veröffentlichungsmoratorium angekündigt. Und keines wird wohl den gleichen Weg wählen, wenn es vergleichbare Fähigkeiten erreicht hat – falls das nicht längst der Fall ist.

Die Giftküchen der anderen

Glasswing kauft Zeit. Es kauft keine Permanenz. Die Fähigkeiten, die Mythos verkörpert, werden sich ausbreiten — in andere Labs, in kleinere Modelle, irgendwann in Open-Source-Systeme ohne Safety-Schicht. Die richtige Frage lautet nicht: Tut Anthropic das Richtige? Die richtige Frage lautet: Was passiert in den Giftküchen der anderen — und wann erfahren wir davon?

Die fünfzig Glasswing-Partner sind ausnahmslos US-amerikanisch. AWS, Apple, Microsoft, Google, NVIDIA — und dann weitere aus demselben Ökosystem. Kein Siemens, kein SAP, keine europäischen Unternehmen, deren Kernkraftwerke, Krankenhäuser und Finanzsysteme ebenso auf der Software laufen, die Mythos gerade untersucht.

Was Glasswing implizit transportiert: verteidigenswerte kritische Infrastruktur ist amerikanische kritische Infrastruktur.

Europa degradiert zu einem besseren Disneyland: Weltkulturerbe zum Bestaunen, aber die Macht liegt anderswo.

Während in Brüssel immer noch über Regulierungsrahmen verhandelt wird, entscheidet ein privates amerikanisches Unternehmen, wessen Systeme in der neuen Zeitrechnung zuerst gesichert werden: nach Kriterien, die nicht öffentlich sind, nach einem Zeitplan, den sie selbst setzen. Das ist keine Kritik an Anthropic. Es ist eine Beschreibung, wo wir gerade stehen.

 


anthropic.com: Project Glasswing
red.anthropic.com: Claude Mythos Preview — Technical Details
thehackernews.com: Claude Mythos Finds Thousands of Zero-Day Flaws
thenextweb.com: Anthropic’s most capable AI escaped its sandbox
entresol.de: Welche KI-Dosis verträgt die Welt?
entresol.de: From Swiss, with Love