OpenAIs Vorstoß in geheime Netzwerke des US-Militärs stieß auf heftigen Widerstand seitens der Verbraucher und ging mit einer weniger auffälligen, aber folgenreichen Neuausrichtung der Infrastruktur einher, was deutlich macht, auf welch schmalem Grat sich der KI-Riese derzeit zwischen nationalen Sicherheitszielen und dem Vertrauen der Nutzer bewegt.
OpenAI sieht sich nach KI-Vertrag mit dem Pentagon heftiger Kritik ausgesetzt, während die Deinstallationen von ChatGPT in den USA sprunghaft ansteigen

Die #QuitGPT-Bewegung wächst, während OpenAI seinen KI-Vertrag mit dem Verteidigungsministerium angesichts der Kritik der Verbraucher überarbeitet
Die Kontroverse entbrannte um den 28. Februar, als OpenAI eine Vereinbarung mit dem US-Verteidigungsministerium bestätigte, fortschrittliche KI-Systeme, darunter die ChatGPT-Technologie, in geheimen Netzwerken einzusetzen. Das Unternehmen stellte den Deal als rechtmäßig und streng kontrolliert dar, doch Kritiker sahen darin etwas ganz anderes: eine für Verbraucher bestimmte KI-Plattform, die tiefer in militärische Operationen vordringt – und das zu einem Zeitpunkt, an dem die öffentliche Kritik an künstlicher Intelligenz ohnehin schon hochkocht.
OpenAI erklärte, die Vereinbarung enthalte explizite Schutzmaßnahmen, darunter Verbote der massenhaften Überwachung von US-Bürgern im Inland, der Steuerung autonomer Waffen sowie von automatisierten Entscheidungssystemen mit hohem Risiko. Das Unternehmen hob zudem technische Einschränkungen hervor, darunter den ausschließlichen Einsatz in der Cloud und die Beibehaltung der Kontrolle über Sicherheitssysteme, sowie die Einhaltung von US-Rechtsrahmen wie dem Vierten Verfassungszusatz und den Vorschriften des Verteidigungsministeriums zur menschlichen Aufsicht über tödliche Gewalt.
Dennoch war die Signalwirkung nicht gerade subtil. Innerhalb weniger Stunden nach der Ankündigung verbreitete sich in den sozialen Medien eine Basis-Boykottkampagne unter dem Hashtag #QuitGPT, die Nutzer dazu aufforderte, Abonnements zu kündigen, die App zu löschen und zu Konkurrenten zu wechseln. Die messbare Gegenreaktion führte zu erheblichen Veränderungen im App-Nutzungsverhalten.

App-Analysedaten zufolge stieg die Deinstallationsrate von ChatGPT in den USA am 28. Februar im Vergleich zum Vortag um 295 %, während die Downloads am nächsten Tag um 13 % und danach um weitere 5 % zurückgingen. Die Stimmung der Nutzer schlug in den App-Bewertungen noch deutlicher um: Ein-Stern-Bewertungen stiegen an einem einzigen Tag um 775 % und kletterten weiter, während Fünf-Sterne-Bewertungen um etwa die Hälfte zurückgingen. Die Konkurrenz profitierte von dieser Situation. Die Claude-App von Anthropic verzeichnete im gleichen Zeitraum einen Anstieg der Downloads zwischen 37 % und 51 % und überholte ChatGPT kurzzeitig in den US-App-Store-Rankings, da Nutzer nach Alternativen suchten. Die Organisatoren des Boykotts gaben an, dass Millionen von Aktionen im Zusammenhang mit der Kampagne stattfanden, darunter Stornierungen und Spendenzusagen, wobei die genauen Zahlen je nach Quelle und Definition der Beteiligung variieren.
OpenAI handelte schnell, um die Folgen einzudämmen. CEO Sam Altman räumte Mängel bei der Kommunikation des Deals ein, bezeichnete die Einführung als „opportunistisch und schlampig“ und innerhalb weniger Tage überarbeitete das Unternehmen den Wortlaut der Vereinbarung. Die aktualisierten Bedingungen untersagten ausdrücklich die absichtliche Überwachung im Inland mithilfe von KI-Systemen und fügten strengere Anforderungen für jegliche Beteiligung von Geheimdiensten hinzu, einschließlich separater Vertragsebenen. Das Unternehmen kündigte zudem Pläne an, sich mit anderen KI-Entwicklern auf gemeinsame Sicherheitsrahmenwerke zu verständigen, und stellte die Änderungen als Verschärfung und nicht als Rückzug dar. Zwar ließ die Kritik nach den Überarbeitungen etwas nach, doch hinterließ die Episode Spuren und machte deutlich, wie schnell sich die Stimmung der Verbraucher ändern kann, wenn KI in sensible Bereiche vordringt. Gleichzeitig unternahm OpenAI hinter den Kulissen weniger sichtbare, aber strategisch bedeutsame Schritte.
Anfang März reorganisierte das Unternehmen seinen Rechen- und Infrastrukturbetrieb und teilte die Zuständigkeiten in drei fokussierte Gruppen auf, die sich mit dem Design von Rechenzentren, kommerziellen Partnerschaften und dem Facility-Management vor Ort befassen. Die Umstrukturierung spiegelt einen umfassenderen Wandel in der Art und Weise wider, wie OpenAI seine Rechenleistung skalieren will.
Anstatt im Rahmen seiner ehrgeizigen „Stargate“-Initiative massiv eigene Rechenzentren zu errichten, setzt das Unternehmen verstärkt auf Leasing und Partnerschaften mit Cloud-Anbietern. Microsofts Azure spielt dabei weiterhin eine zentrale Rolle, während OpenAI im Rahmen mehrjähriger Kapazitätsvereinbarungen auch seine Beziehungen zu Oracle und Amazon Web Services ausgebaut hat.
Frühere Pläne für groß angelegte Infrastrukturprojekte in gemeinsamer Trägerschaft wurden zurückgefahren oder überarbeitet, da die finanziellen und logistischen Realitäten des Aufbaus von KI-Supercomputing-Kapazitäten in großem Maßstab immer schwerer zu ignorieren sind. Stattdessen konzentriert sich OpenAI auf die Kontrolle über Schlüsselelemente wie maßgeschneiderte Hardware und Chips, während die physische Infrastrukturebene an etablierte Hyperscaler ausgelagert wird.

OpenAI’s Codex Security debütiert, während sich der Wettlauf um KI-Cybersicherheit mit Anthropic verschärft
OpenAI hat am 6. März Codex Security eingeführt, einen auf künstlicher Intelligenz (KI) basierenden Anwendungssicherheitsagenten. read more.
Jetzt lesen
OpenAI’s Codex Security debütiert, während sich der Wettlauf um KI-Cybersicherheit mit Anthropic verschärft
OpenAI hat am 6. März Codex Security eingeführt, einen auf künstlicher Intelligenz (KI) basierenden Anwendungssicherheitsagenten. read more.
Jetzt lesen
OpenAI’s Codex Security debütiert, während sich der Wettlauf um KI-Cybersicherheit mit Anthropic verschärft
Jetzt lesenOpenAI hat am 6. März Codex Security eingeführt, einen auf künstlicher Intelligenz (KI) basierenden Anwendungssicherheitsagenten. read more.
Die beiden Entwicklungen – die eine öffentlich und umstritten, die andere operativ und pragmatisch – stehen nicht in direktem Zusammenhang, doch zusammen zeichnen sie das Bild eines Unternehmens, das an mehreren Fronten schnell voranschreitet, manchmal schneller, als seine Kommunikation mithalten kann. Für OpenAI geht es nun weniger um die Frage, ob es leistungsstarke Systeme aufbauen kann, sondern vielmehr darum, wie es mit den Folgen ihres Einsatzes an Orten umgeht, an denen es um alles andere als theoretische Fragen geht.
FAQ 🔎
- Warum haben Nutzer ChatGPT in den USA boykottiert? Die Nutzer reagierten auf die Vereinbarung von OpenAI, KI in geheimen Militärnetzwerken einzusetzen, und äußerten ethische Bedenken hinsichtlich der Nutzung zu Überwachungs- und Verteidigungszwecken.
- Ist die Nutzung von ChatGPT nach der Kontroverse zurückgegangen? Ja, die Deinstallationsraten stiegen sprunghaft an und die Downloadzahlen gingen vorübergehend zurück, während die negativen App-Bewertungen stark zunahmen.
- Welche Änderungen hat OpenAI an seinem Vertrag mit dem Pentagon vorgenommen? Das Unternehmen fügte ausdrückliche Verbote für die Überwachung im Inland sowie strengere Regeln für die Beteiligung von Geheimdiensten hinzu.
- Warum wechselt OpenAI zu Partnern für Cloud-Infrastruktur? Steigende Kosten und Herausforderungen hinsichtlich der Skalierbarkeit veranlassen das Unternehmen dazu, Rechenleistung zu mieten, anstatt riesige Rechenzentren zu bauen.




