Anthropic und Mozilla melden 22 Firefox-Sicherheitslücken aus KI-Red-Teaming und schließen sie in Version 148
Anthropic und Mozilla haben eine gemeinsame Sicherheitskampagne offengelegt, bei der Claude Opus 4.6 innerhalb von zwei Wochen 22 verwertbare Firefox-Schwachstellen fand, die Mozilla in Firefox 148 geschlossen hat.
- Claude Opus 4.6 identifizierte nach Angaben der beiden Unternehmen in zwei Wochen 22 Firefox-Schwachstellen, davon 14 mit hoher Schwere.
- Mozilla spricht zusätzlich von 90 weiteren Fehlern, die größtenteils ebenfalls bereits behoben wurden.
- Anthropic reichte insgesamt 112 Berichte ein und scannte in der Aktion nahezu 6.000 C++-Dateien.
- Die Beteiligten betonen, dass KI die Fundrate stark erhöht, das tatsächliche Ausnutzen von Lücken aber weiter deutlich schwieriger bleibt.
- Für Open-Source-Projekte wächst damit der Druck, Triage-, Validierungs- und Patch-Prozesse auf eine höhere Meldegeschwindigkeit auszurichten.
Die Veröffentlichung von Anthropic und Mozilla ist eines der bisher greifbarsten Beispiele dafür, wie stark generative Modelle in defensive Sicherheitsarbeit hineinwachsen. Laut beiden Unternehmen identifizierte Claude Opus 4.6 innerhalb von zwei Wochen 22 sicherheitsrelevante Firefox-Schwachstellen, die Mozilla in Firefox 148 geschlossen hat. Hinzu kamen 90 weitere Bugs mit geringerer Tragweite. Das ist deshalb bemerkenswert, weil Firefox zu den am intensivsten geprüften und über Jahre gehärteten Open-Source-Projekten im Netz zählt. Wenn selbst ein derart stark beobachteter Codebestand in kurzer Zeit zusätzliche Fehler preisgibt, verändert das die Erwartungen an die Geschwindigkeit, mit der Schwachstellen künftig entdeckt werden können.
Der Ablauf zeigt zugleich, dass nicht die reine Modellleistung, sondern der Prozess um die Funde entscheidend ist. Anthropic beschreibt, wie zunächst einzelne Bugs validiert und an Mozilla weitergegeben wurden, bevor sich die Zusammenarbeit ausweitete. Am Ende standen 112 eingereichte Reports und nahezu 6.000 gescannte C++-Dateien. Mozilla wiederum hebt hervor, dass die Bug-Berichte reproduzierbare Minimaltests enthielten und deshalb schneller verifiziert werden konnten als viele unsaubere KI-Meldungen, die Maintainer andernorts bereits belasten. Der Qualitätsunterschied zwischen verwertbarer Sicherheitsmeldung und bloßem Rauschen wird damit zu einer Kernfrage des KI-gestützten Bug-Huntings.
Wichtig ist auch, was die Veröffentlichung nicht sagt. Weder Anthropic noch Mozilla zeichnen das Bild einer KI, die komplexe Browser kompromisslos und vollautomatisch aushebelt. Anthropic schreibt selbst, dass Claude beim Schreiben tatsächlicher Exploits deutlich schwächer war als beim Auffinden von Fehlern. In Tests gelang die automatische Ausnutzung nur in wenigen Fällen und zudem unter Bedingungen, die zentrale Schutzmechanismen moderner Browser nicht vollständig abbildeten. Das bremst alarmistische Deutungen, nimmt der Entwicklung aber nicht die Brisanz. Denn schon eine stark steigende Fundrate kann Verteidigerorganisationen organisatorisch unter Druck setzen.
Genau darin liegt die eigentliche Marktfolge. Wenn leistungsfähige Modelle die Entdeckung von Schwachstellen billiger und schneller machen, steigen die Anforderungen an Triage, Priorisierung, Reproduktion, Patchentwicklung und Rollout. Großprojekte wie Firefox können darauf mit dedizierten Security-Teams reagieren. Viele kleinere Open-Source-Komponenten, Bibliotheken oder Infrastrukturwerkzeuge verfügen jedoch nicht über solche Reserven. Für sie könnte eine Welle plausibel wirkender KI-Berichte schnell zur Belastungsprobe werden. Das schafft Raum für neue Werkzeuge, die eingehende Meldungen automatisiert clustern, verifizieren und priorisieren.
Für Mozilla ist die Episode dennoch ein Gewinn. Die Fixes sind ausgerollt, der Browser kann die Kooperation als Beleg für proaktive Sicherheitsarbeit nutzen, und zugleich entsteht ein Modellfall dafür, wie verantwortliche Offenlegung im Zeitalter starker KI aussehen kann. Für Anthropic ist der Vorgang ebenso strategisch: Das Unternehmen zeigt, dass seine Modelle nicht nur textlich überzeugen, sondern in klar begrenzten sicherheitsbezogenen Workflows operativen Nutzen entfalten können. Die größere Konsequenz reicht aber über beide Firmen hinaus. KI verschiebt das Sicherheitsgeschäft nicht nur auf der Angreiferseite, sondern verändert jetzt sichtbar auch die Produktionslogik defensiver Forschung.