Google, Microsoft und xAI lassen KI‑Modelle vom US‑Regierungslabor prüfen
Das US‑Handelsministerium will über das Center for AI Standards and Innovation (CAISI) kommerzielle KI‑Modelle vor ihrer Freigabe auf Sicherheitsrisiken prüfen; große Anbieter kooperieren mit dem Zentrum.
- Google, Microsoft und xAI stimmen Prüfungen ihrer Modelle bei CAISI zu
- bewertet werden unter anderem Cyber‑, Bio‑ und chemische Sicherheitsrisiken.
Nach Angaben der US‑Regierung haben Google, Microsoft und xAI vereinbart, ihre KI‑Modelle vom Center for AI Standards and Innovation (CAISI) im Handelsministerium prüfen zu lassen, bevor die Systeme öffentlich zugänglich gemacht werden. Die Zusammenarbeit umfasst demnach Testverfahren, gemeinsame Forschung und die Ausarbeitung von Best‑Practices für kommerzielle KI‑Systeme. Ziel ist es, technische Bewertungen mit staatlichen Sicherheitsinteressen zu verknüpfen und Risiken vor Produktfreigaben besser abschätzen zu können.
Microsoft erklärte in einer Mitteilung, die Bewertungen durch CAISI würden dem Unternehmen helfen, Risiken wie KI‑gestützte Cyberangriffe frühzeitig zu erkennen und abzumildern, wobei explizit das Modell Copilot genannt wurde. Zugleich setzt die Ankündigung einen anderen Ton gegenüber früheren politischen Positionen, nachdem die US‑Regierung im März ein nationales KI‑Rahmenwerk vorgelegt hatte, das auf beschleunigte, regulierungsärmere Innovation abzielte.
Das CAISI hat nach eigenen Angaben bereits rund 40 Bewertungen anderer Modelle durchgeführt und prüft demnach auch bislang unveröffentlichte, als ‚state‑of‑the‑art‘ bezeichnete Systeme, ohne diese konkret zu benennen. Bestehende Vereinbarungen mit einigen Firmen seien neu verhandelt worden; nähere Details dazu nannte das Zentrum nicht. OpenAI und Anthropic hatten bereits 2024 Prüfvereinbarungen mit CAISI geschlossen.
Gleichzeitig teilte OpenAI‑Manager Chris Lehane mit, das Unternehmen habe der Regierung vor der öffentlichen Freigabe die Version ChatGPT‑5.5 zur Verfügung gestellt, um nationale Sicherheitsbewertungen zu ermöglichen. OpenAI arbeite zudem an einer verantwortungsvollen Vorgehensweise für den Einsatz spezieller Cyber‑Modelle, darunter an einem Verteilungs‑Playbook für Behörden und an Prüfungen spezifischer Cyber‑Varianten, die nur bestimmten Erstnutzern zugänglich gemacht werden sollen.
Die jetzt vereinbarte Praxis verbindet staatliche Sicherheitsbewertungen mit technischer Evaluierung durch ein zentrales Regierungsorgan und signalisiert eine engere Zusammenarbeit zwischen großen KI‑Anbietern und US‑Institutionen. Damit entsteht ein formalisierterer Prozess, um potenzielle Gefahren großer kommerzieller KI‑Systeme vor deren breiter Freigabe zu adressieren.