WASHINGTON. US-Präsident Donald Trump hat am Freitag angeordnet, daß sämtliche Bundesbehörden die Nutzung von Künstlicher Intelligenz des US-Unternehmens Anthropic unverzüglich einstellen müssen. Die Entscheidung trifft insbesondere Geheimdienste und das Verteidigungsministerium und könnte die amerikanische Rüstungs- und Analysepraxis empfindlich treffen. Auf seiner Plattform Truth Social begründete Trump den Schritt in scharfen Worten.
„Die Vereinigten Staaten von Amerika werden es niemals zulassen, daß ein radikal linkes, ‚wokes‘ Unternehmen bestimmt, wie unser großartiges Militär Kriege führt und gewinnt! Diese Entscheidung trifft Euer Oberbefehlshaber – und die großartigen Führer, die ich zur Leitung unseres Militärs ernenne.“
Die „linken Spinner“ bei Anthropic hätten einen „verheerenden Fehler“ begangen, indem sie versucht hätten, dem Verteidigungsministerium ihre eigenen Nutzungsbedingungen aufzuzwingen statt sich an die Verfassung zu halten. „Ihre Selbstsucht bringt amerikanische Leben in Gefahr, unsere Truppen in Bedrängnis und unsere nationale Sicherheit in Gefahr.“ Deshalb weise er „jede Bundesbehörde der Vereinigten Staaten an, die Nutzung der Technologie von Anthropic sofort einzustellen. Wir brauchen sie nicht, wir wollen sie nicht und wir werden keine Geschäfte mehr mit ihnen machen.“ Für Behörden wie das Verteidigungsministerium gelte eine Übergangsfrist von sechs Monaten. Sollte Anthropic in dieser Phase nicht kooperieren, werde er „die volle Macht der Präsidentschaft“ einsetzen – mit erheblichen zivil- und strafrechtlichen Konsequenzen.
Thank you for your attention to this matter.
cc: @AnthropicAI @DarioAmodei pic.twitter.com/FLCByLHF73
— Pete Hegseth (@PeteHegseth) February 27, 2026
Trump-Regierung setzt nun auf ChatGPT
Abschließend stellte Trump klar: „Wir werden über das Schicksal unseres Landes entscheiden – nicht irgendein außer Kontrolle geratenes, radikal linkes KI-Unternehmen, das von Leuten geführt wird, die keine Ahnung haben, wie die wirkliche Welt funktioniert.“ Nur Minuten nach Ablauf eines Ultimatums des Pentagons erklärte Verteidigungsminister Pete Hegseth Anthropic offiziell zu einem „Lieferkettenrisiko für die nationale Sicherheit“. Diese Einstufung bedeutet, daß kein militärischer Auftragnehmer mehr mit der Firma zusammenarbeiten darf.
Juristen sprechen von einem ungewöhnlichen Vorgang: Das Instrument wurde bislang faktisch nur gegen ausländische Unternehmen eingesetzt. Hintergrund ist ein eskalierender Streit über die Einsatzbedingungen der KI. Das Pentagon verlangte uneingeschränkten Zugriff auf das Modell „Claude“ – ohne die Schutzklauseln, die Anthropic vertraglich festschreiben wollte. Das Unternehmen verweigerte nach eigenen Angaben die Zustimmung in zwei Punkten: beim Einsatz vollautonomer Waffensysteme und bei massenhafter inländischer Überwachung. Man unterstütze alle rechtmäßigen Anwendungen im Bereich der nationalen Sicherheit, sehe aber bei autonomen Waffen und umfassender Überwachung fundamentale Grenzen.
Anthropic kündigte an, gerichtlich gegen die Einstufung vorzugehen. Eine solche Maßnahme sei historisch beispiellos gegenüber einem amerikanischen Unternehmen und rechtlich fragwürdig. Noch am selben Tag meldete der Konkurrent OpenAI eine Einigung mit dem Verteidigungsministerium. Firmenchef Sam Altman erklärte, man habe Sicherheitsprinzipien wie das Verbot massenhafter Inlandsüberwachung und die menschliche Verantwortung beim Waffeneinsatz vertraglich abgesichert. OpenAI werde seine Technologie künftig für klassifizierte Systeme bereitstellen.
Tonight, we reached an agreement with the Department of War to deploy our models in their classified network.
In all of our interactions, the DoW displayed a deep respect for safety and a desire to partner to achieve the best possible outcome.
AI safety and wide distribution of…
— Sam Altman (@sama) February 28, 2026
Für die Nachrichtendienste kommt der Bruch zur Unzeit. KI-Modelle werden bereits zur Auswertung abgefangener Kommunikation und zur Analyse komplexer Lagebilder genutzt. Ein erzwungener Systemwechsel dürfte Zeit kosten und operative Abläufe beeinträchtigen. Der Konflikt ist damit nicht nur ein Vertragsstreit, sondern Teil eines grundsätzlichen Ringens um die politische Kontrolle über militärische KI. (rr)






