JKCM News
Startseite
Technologie

Anthropic verhandelt mit Washington und Wall Street über sein neues KI‑Modell Mythos

Anthropic stuft Mythos als zu riskant für eine öffentliche Freigabe ein und gewährt selektiven Zugang vor allem an Technologie‑ und Finanzfirmen.

JKCM News Redaktion 2 Min Lesezeit
Titelbild: Anthropic verhandelt mit Washington und Wall Street über sein neues KI‑Modell Mythos
Mythos hat Debatten mit US‑Stellen und großen Banken über mögliche Cyber‑ und Lieferkettenrisiken ausgelöst.

Nach Angaben des Unternehmens steht Anthropic in Gesprächen mit US‑Regierungsstellen über sein neues KI‑Modell Mythos. Das Unternehmen begründet die Beratungen damit, dass Mythos nach interner Bewertung erhebliche Cyber‑Sicherheitsrisiken berge und deshalb nicht allgemein freigegeben werde. Gleichzeitig betont Anthropic, den Dialog mit Regulierern und Auftraggebern aufrechtzuerhalten und nationale Sicherheitsinteressen nicht zu untergraben.

Zugleich hat die Ankündigung zu spürbarer Unruhe in der Finanzbranche geführt. Vertreter großer Banken sollen vergangene Woche auf Einladung von Treasury‑Chef Scott Bessent in Washington zusammengekommen sein, um mögliche Auswirkungen des Modells zu erörtern. Ziel der Treffen war es demnach, den Instituten Einsatzmöglichkeiten aufzuzeigen und ihnen Gelegenheit zu geben, Mythos praktisch einzusetzen, etwa zur Identifikation von Sicherheitslücken.

Anthropic hat den Zugang zu Mythos nach eigenen Angaben auf ausgewählte Technologie‑ und Cybersicherheitsfirmen beschränkt. Zu den namentlich genannten Partnern zählen Amazon, Apple und JP Morgan Chase. Medienberichte ergänzen, dass auch mehrere große US‑Banken, darunter Goldman Sachs, Citigroup, Bank of America und Morgan Stanley, Tests mit dem Modell durchführen sollen. Diese selektive Freigabe spiegelt den Versuch wider, den praktischen Nutzen des Modells zu prüfen, ohne eine breite öffentliche Verfügbarkeit zu ermöglichen.

Die Auseinandersetzung mit staatlichen Stellen ist nicht neu: Zuvor war Anthropic von Behörden als potenzielles Risiko in der Lieferkette eingestuft worden, nachdem Verhandlungen über Einschränkungen der militärischen Nutzung seiner Modelle gescheitert waren. In diesem Kontext erklärt das Unternehmen, es wolle nationale Sicherheitsinteressen respektieren und mit Aufsichtsbehörden konstruktiv zusammenarbeiten.

Daneben warnte das britische Government AI Security Institute (AISI), Mythos stelle im Vergleich zu früheren Modellen eine erhöhte Cyberbedrohung dar. Auch britische Finanzaufsichten hätten demnach Beratungen über mögliche Risiken aufgenommen, was die internationale Dimension der Debatte unterstreicht. Die Kombination aus staatlicher Prüfung, regem Brancheninteresse und selektiver Freigabe verdeutlicht die wachsende Spannungszone zwischen Innovationsvorhaben großer KI‑Anbieter und Sicherheits‑ sowie Regulierungsanforderungen.