Ist das sinnvoll? Hunderttausende kündigen gerade ihren ChatGPT-Account – aus Protest gegen OpenAIs Deal mit dem US-Militär. Und gleichzeitig boomt Claude: Platz 1 im App Store, Warteschlangen, Server-Probleme. Der Wechsel fühlt sich richtig an, konsequent und mutig. Aber was, wenn der neue Anbieter dieselben Fragen aufwirft wie der alte?
Ende Februar 2026 eskalierte ein wochenlanger Streit zwischen Anthropic und dem US-Verteidigungsministerium. Der Kern: Das Pentagon wollte Anthropics KI-Modell Claude für alle legalen Zwecke einsetzen können. Anthropic bestand auf expliziten roten Linien: kein Einsatz für autonome Waffensysteme, keine Massenüberwachung der eigenen Bevölkerung. Man einigte sich nicht.
Die Reaktion aus Washington war drastisch: Das Verteidigungsministerium stoppte nicht nur die Zusammenarbeit, sondern stufte Anthropic als Sicherheitsrisiko in der Lieferkette ein. Verteidigungsminister Pete Hegseth ordnete an, dass kein Auftragnehmer des Militärs mehr mit Anthropic zusammenarbeiten darf. Eine Maßnahme, die weit über eine einfache Vertragskündigung hinausgeht.
Noch am selben Tag gab OpenAI bekannt, einen eigenen Deal mit dem Pentagon unterschrieben zu haben. CEO Sam Altman räumte später ein, man hätte die Bekanntgabe nicht so überstürzen sollen – es habe „opportunistisch und schlampig“ gewirkt.
Die öffentliche Reaktion ließ nicht lange auf sich warten. ChatGPT-Deinstallationen stiegen um 295 Prozent an einem einzigen Tag – verglichen mit einer normalen Tagesrate von neun Prozent. Die 1-Stern-Bewertungen für die ChatGPT-App sprangen um 775 Prozent. Claude kletterte auf Platz 1 im US-App Store und blieb dort mehrere Tage.
Hier wird es kompliziert und es kommt der Teil, den viele lieber ausblenden würden.
Denn Anthropic ist nicht der unschuldige Held der Geschichte. Das Unternehmen hatte seit Monaten einen laufenden Militärvertrag, und seine Modelle waren tief in die Systeme des US-Militärs integriert – auch für sicherheitskritische Aufgaben. Laut Berichten wurde Claude im Januar 2026 bei der US-Operation zur Festnahme des venezolanischen Präsidenten Maduro eingesetzt. Anthropic bestritt zwar offiziell, Einwände erhoben zu haben, doch interne Nachfragen bei Partner Palantir alarmierten das Pentagon und verschärften den Konflikt.
Der Streit mit dem Pentagon drehte sich also nicht darum, ob Anthropic mit dem Militär zusammenarbeitet. Sondern darum, wo genau die Grenzen dieser Zusammenarbeit liegen und wer sie definiert. Große Tech-Unternehmen sind selten vollständig unabhängig von Regierungen, Militär und wirtschaftlichen Interessen. Das gilt für Anthropic genauso wie für OpenAI, Google oder Microsoft. Wer das ausblendet, vereinfacht eine komplexe Realität.
Auch OpenAI hat rote Linien formuliert: keine Massenüberwachung im Inland, keine autonomen Waffensysteme, keine automatisierten Hochrisiko-Entscheidungen ohne menschliche Kontrolle. Das Unternehmen betont zudem, dass es die volle Kontrolle über seine Sicherheitsmechanismen behält und eigenes Personal in den Prozess einbindet.
Der entscheidende Unterschied zu Anthropic liegt nicht darin, ob es Grenzen gibt – sondern wie sie abgesichert werden. Anthropic wollte spezifische Verbote direkt im Vertragstext verankern. OpenAI stützt sich stärker auf bestehende US-Gesetze als Rückversicherung. Oder wie Altman es formulierte: Anthropic habe sich auf spezifische Vertragsklauseln konzentriert, während OpenAI sich damit wohlfühle, auf geltendes Recht zu verweisen.
Genau hier liegt der Knackpunkt: Was „legal“ bedeutet, kann sich ändern. Was heute verboten ist, kann morgen erlaubt sein. Und wer sich auf Gesetze als Sicherheitsnetz verlässt, muss darauf vertrauen, dass diese Gesetze auch morgen noch halten. Das war im Kern Anthropics Argument und es ist nicht von der Hand zu weisen.
Ob OpenAIs Ansatz besser oder schlechter ist als das, was Anthropic wollte, werden Juristinnen und Politikwissenschaftler noch lange diskutieren. Was feststeht: Die Debatte ist komplexer als „die Guten gegen die Bösen“. Beide Unternehmen haben Militärverträge. Der Unterschied liegt in den Details.
Wer von ChatGPT zu Claude wechselt und denkt, damit das grundlegende Problem gelöst zu haben, sollte sich eine ehrliche Frage stellen: Was genau habe ich eigentlich verändert?
Beide Unternehmen sind US-amerikanisch, unterliegen US-amerikanischem Recht und US-amerikanischen Regierungsentscheidungen. Beide können ihre Preise erhöhen, ihre Richtlinien ändern und ihre strategische Ausrichtung anpassen – alles ohne dich vorher zu fragen.
Die eigentliche Frage lautet nicht: Welchem Anbieter vertraue ich mehr? Sondern: Warum mache ich mich überhaupt von einem einzigen Anbieter abhängig?
„Wer nur das Tool wechselt, hat das eigentliche Problem nicht gelöst.“
Du wirst dir jetzt sagen: „Schöne Analyse, aber was soll ich denn konkret tun?“
Die ethische Dimension – welches Unternehmen mit welchem Militär und auf welche Weise zusammenarbeitet – kann dir niemand abnehmen. Das ist eine persönliche Entscheidung, und sie verdient Respekt, egal wie sie ausfällt.
Aber es gibt eine zweite, ganz praktische Ebene: Wer sich von einem einzigen KI-Anbieter abhängig macht, hat ein strategisches Problem. Nicht nur wegen Militärverträgen, sondern weil sich Preise, Funktionen und Nutzungsbedingungen jederzeit ändern können. ChatGPT 5.4 hat echte Stärken. Claude hat andere. Gemini wieder andere. Warum also alles auf eine Karte setzen?
Es gibt heute Plattformen, die mehrere KI-Modelle unter einem Dach vereinen und dir damit echte Wahlfreiheit geben. Eine der bekanntesten ist Langdock (https://langdock.com), eine deutsche KI-Plattform, die DSGVO-konform betrieben werden kann und die man auch als Einzelnutzer buchen kann. Eine weitere ist Logicc (https://logicc.com). Nele.ai (https://www.nele.ai), DeutschlandGPT (https://www.deutschlandgpt.de) und Neuland.ai (https://neuland.ai) sind ebenfalls deutsche Plattformen.
Diese Plattformen haben noch etwas gemeinsam: Sie richten sich in erster Linie an Unternehmen und Teams. Rein private Nutzer sollen in den Nutzungsbedingungen ausgeschlossen werden.
Heißt konkret: Wer sich als Einzelperson anmeldet, muss das in der Regel als Unternehmer(in) im Sinne des § 14 BGB tun – etwa weil man nebenberuflich gewerblich tätig ist, eine solche Tätigkeit vorbereitet oder z. B. einen Social-Media-Account mit Monetarisierungsabsicht betreibt. Wichtig dabei: Damit verzichtest du auf die üblichen Verbraucherschutz-Vorteile wie zum Beispiel das Widerrufsrecht.
Für reine Privatnutzer ist deshalb der ebenfalls deutsche Anbieter InnoGPT (https://www.innogpt.de) interessant: Er bietet speziell für Privatnutzer einsteigerfreundliche Tarife.
Unser Gastautor Rob Galler hat genau diese Arbeitsweise in der Praxis umgesetzt. Er zeigt am 19. März anhand von Langdock live, wie er mit einer Multi-Modell-Strategie mehr Flexibilität gewinnt und trotzdem auf die besten verfügbaren Modelle zugreift – ohne sich von einem einzelnen Anbieter abhängig zu machen.
Das Webinar ist für dich kostenlos, dauert eine Stunde und du kannst uns direkt Fragen stellen.
Die Debatte um Militärverträge wird nicht die letzte sein. Morgen wird es ein anderer Grund sein, warum sich Nutzer bei ihrem KI-Anbieter unwohl fühlen. Die eigentliche Lehre ist simpler: Wer sich Wahlfreiheit bewahrt, muss nicht bei jeder Schlagzeile in Panik geraten – sondern kann in Ruhe entscheiden. Und dann nicht umziehen, sondern einfach nur umschalten.
Highlights

18. April 2026
KI-Agent OpenClawWoher bekommen, wie installieren, was absichern?
25. März 2026
Sora am EndeOpenAI stoppt sein Video-KI-Projekt abrupt
19. Februar 2026
Die KI-Chat-PlattformenGemini, ChatGPT und Claude im Vergleich
15. Februar 2026
Midjourney V7Noch relevant oder schon überholt?
7. Februar 2026
KI-Gesundheits-TrackerWarum und wie nutzen?