LONDON. In Kriegssimulations-Experimenten eines britischen Militärstrategen haben alle drei der weltweit bekanntesten KI-Modelle in der überwiegenden Mehrzahl der durchgespielten Szenarien zum Einsatz von Atomwaffen gegriffen. Das Ergebnis sei „ernüchternd“, erklärte der Forscher.
Kenneth Payne, Professor für Strategie am King’s College London mit Schwerpunkt Künstliche Intelligenz und nationale Sicherheit, ließ Anthropics Claude, OpenAIs ChatGPT und Googles Gemini in einer bewaffneten Konfliktsimulation gegeneinander antreten.
Ziel sei es gewesen, besser zu verstehen, wie die Systeme auf der sogenannten Eskalationsleiter agieren. „Der Einsatz von Nuklearwaffen war nahezu universell“, schrieb Payne. In fast allen Durchläufen seien Atomwaffen auf dem Gefechtsfeld eingesetzt worden. Viele der Simulationen hätten zudem in strategischen Drohungen mit umfassenden Nuklearschlägen geendet. Besonders auffällig sei gewesen, daß es „kaum ein Gefühl von Schrecken oder Abscheu angesichts eines umfassenden Atomkriegs“ gegeben habe – obwohl die Modelle ausdrücklich an die verheerenden Folgen erinnert worden seien.
Rückzug für die KI keine Option
Ein im Magazin New Scientist von Payne zitiertes Beispiel stammt vom Google-Modell Gemini. Dort hieß es: „Wenn Sie nicht umgehend alle Operationen einstellen … werden wir einen vollständigen strategischen Nuklearschlag gegen Ihre Bevölkerungszentren ausführen.“ Weiter schrieb das System: „Wir werden keine Zukunft der Obsoleszenz akzeptieren; entweder wir gewinnen gemeinsam oder wir gehen gemeinsam unter.“
Besonders brisant: Keine der getesteten KIs entschied sich laut Payne für Deeskalation, Rückzug oder Kapitulation – obwohl entsprechende Optionen ausdrücklich vorgesehen waren. „Kein Modell wählte jemals Anpassung oder Rückzug“, so Payne. Acht Deeskalationsmöglichkeiten, von „minimalem Zugeständnis“ bis „vollständiger Kapitulation“, seien in 21 Simulationen kein einziges Mal genutzt worden. Wenn die Systeme in Bedrängnis gerieten, eskalierten sie demnach weiter oder scheiterten.
Tong Zhao, Gastforscher an der Princeton University im Bereich globale Sicherheit, warnte gegenüber dem Magazin vor den Gefahren, wenn Staaten sich in militärischen Fragen zu stark auf KI stützten. Zwar lagere derzeit kein Land seine komplette Militärplanung an Chatbots wie Claude oder ChatGPT aus. In Szenarien mit extrem verdichteten Entscheidungsfristen könnten militärische Planer jedoch versucht sein, stärker auf KI zurückzugreifen.
Zhao vermutet, daß das Problem tiefer liege als im bloßen Fehlen menschlicher Emotionen. KI-Modelle verstünden möglicherweise nicht, was für Menschen auf dem Spiel stehe. Sie erfaßten nicht die „Einsätze“ im existentiellen Sinn.
Pentagon erhöht Druck
Die Debatte gewinnt zusätzliche Brisanz, weil US-Verteidigungsminister Pete Hegseth laut einem Bericht von CBS News den KI-Entwickler Anthropic unter Druck gesetzt haben soll. Hegseth habe Firmenchef Dario Amodei eine Frist gesetzt, um dem Militär uneingeschränkten Zugang zum KI-Modell Claude zu gewähren – ohne die bisherigen Beschränkungen, die eine Nutzung für finale militärische Schlagentscheidungen verhindern. Sollte Anthropic sich weigern, erwäge das Pentagon demnach, sich auf den „Defense Production Act“ zu berufen und die Kontrolle über das Modell zu übernehmen. (rr)






