Propulsé par
News

OpenAI fait face à une vague de critiques après son accord avec le Pentagone sur l'IA, alors que les désinstallations de ChatGPT se multiplient aux États-Unis

La tentative d’OpenAI de s’introduire dans les réseaux militaires américains classifiés s’est heurtée à une levée de boucliers de la part des consommateurs et à un réorientement discret mais lourd de conséquences de son infrastructure, soulignant ainsi le numéro d’équilibriste auquel se livre actuellement le géant de l’intelligence artificielle (IA) entre ses ambitions en matière de sécurité nationale et la confiance des utilisateurs.

ÉCRIT PAR
PARTAGER
OpenAI fait face à une vague de critiques après son accord avec le Pentagone sur l'IA, alors que les désinstallations de ChatGPT se multiplient aux États-Unis

Le mouvement #QuitGPT prend de l'ampleur alors qu'OpenAI revoit son contrat d'IA avec le département de la Défense face à la levée de boucliers des consommateurs

La controverse a éclaté vers le 28 février, lorsque OpenAI a confirmé un accord avec le département américain de la Défense visant à déployer des systèmes d'IA avancés, notamment la technologie ChatGPT, sur des réseaux classifiés. L'entreprise a présenté cet accord comme légal et étroitement contrôlé, mais les détracteurs y ont vu tout autre chose : une plateforme d'IA grand public s'immisçant davantage dans les opérations militaires à un moment où l'attention du public sur l'intelligence artificielle est déjà très vive.

OpenAI a déclaré que l'accord comprenait des garde-fous explicites, notamment l'interdiction de la surveillance de masse des citoyens américains sur le territoire national, le contrôle des armes autonomes et les systèmes de prise de décision automatisés à haut risque. Elle a également mis l'accent sur les contraintes techniques, notamment les déploiements exclusivement sur le cloud et le maintien du contrôle sur les systèmes de sécurité, ainsi que le respect des cadres juridiques américains tels que le quatrième amendement et les règles du ministère de la Défense régissant la supervision humaine de la force létale.

Pourtant, le message n'était pas vraiment subtil. Quelques heures après l'annonce, une campagne de boycott populaire sous la bannière #QuitGPT a commencé à circuler sur les réseaux sociaux, exhortant les utilisateurs à résilier leurs abonnements, à supprimer l'application et à migrer vers des concurrents. Ce tollé mesurable s'est traduit par des changements significatifs dans l'utilisation de l'application.

OpenAI Faces Backlash After Pentagon AI Deal as ChatGPT Uninstalls Spike in US
Capture d'écran du site web Quitgpt.org

Selon les données d'analyse de l'application, les taux de désinstallation de ChatGPT aux États-Unis ont bondi de 295 % d'un jour à l'autre le 28 février, tandis que les téléchargements ont chuté de 13 % le lendemain, puis de 5 % supplémentaires par la suite. Le sentiment des utilisateurs s'est encore plus nettement inversé dans les avis sur l'application, où les notes d'une étoile ont grimpé de 775 % en une seule journée et ont continué à augmenter, tandis que les avis cinq étoiles ont diminué de près de moitié. Les concurrents ont profité de la situation. L'application Claude d'Anthropic a enregistré une hausse des téléchargements comprise entre 37 % et 51 % au cours de la même période, dépassant brièvement ChatGPT dans le classement de l'App Store américain alors que les utilisateurs exploraient des alternatives. Les organisateurs du boycott ont fait état de millions d'actions liées à la campagne, notamment des annulations et des engagements, bien que les chiffres exacts varient selon les sources et la manière dont la participation est définie.

OpenAI a réagi rapidement pour limiter les dégâts. Le PDG Sam Altman a reconnu des lacunes dans la manière dont l’accord avait été communiqué, qualifiant son déploiement d’« opportuniste et bâclé », et en quelques jours, l’entreprise a révisé le libellé de l’accord. Les conditions mises à jour interdisaient explicitement la surveillance nationale intentionnelle à l’aide de systèmes d’IA et ajoutaient des exigences plus strictes concernant toute implication des agences de renseignement, y compris des niveaux contractuels distincts. L'entreprise a également annoncé son intention de coordonner avec d'autres développeurs d'IA des cadres de sécurité communs, présentant ces changements comme un renforcement plutôt que comme un recul. Si la polémique s'est quelque peu apaisée après ces révisions, cet épisode a laissé des traces, soulignant à quel point l'opinion des consommateurs peut changer rapidement lorsque l'IA s'aventure sur un terrain sensible. Parallèlement, OpenAI prenait des mesures moins visibles mais stratégiquement importantes en coulisses.

Début mars, l'entreprise a réorganisé ses opérations informatiques et d'infrastructure, en répartissant les responsabilités entre trois groupes spécialisés couvrant la conception des centres de données, les partenariats commerciaux et la gestion des installations sur le terrain. Cette restructuration reflète un changement plus large dans la manière dont OpenAI prévoit de faire évoluer sa puissance de calcul.

Plutôt que de construire et de posséder de manière agressive d’énormes centres de données liés à son ambitieuse initiative « Stargate », l’entreprise s’appuie davantage sur la location et les partenariats avec des fournisseurs de cloud. Azure de Microsoft reste au cœur de cette stratégie, tandis qu’OpenAI a également renforcé ses relations avec Oracle et Amazon Web Services dans le cadre d’accords de capacité pluriannuels.

Les projets antérieurs impliquant des infrastructures à grande échelle en copropriété ont été revus à la baisse ou remaniés, car les réalités financières et logistiques liées à la mise en place d’une capacité de supercalcul IA à grande échelle deviennent de plus en plus difficiles à ignorer. À la place, OpenAI se concentre sur le contrôle d’éléments clés tels que le matériel et les puces sur mesure, tout en externalisant la couche d’infrastructure physique à des hyperscalers bien établis.

Le Codex Security d'OpenAI fait son apparition alors que la course à la cybersécurité IA avec Anthropic s'intensifie

Le Codex Security d'OpenAI fait son apparition alors que la course à la cybersécurité IA avec Anthropic s'intensifie

OpenAI a lancé Codex Security le 6 mars, introduisant un agent de sécurité des applications basé sur l'intelligence artificielle (IA). read more.

Lire

Ces deux évolutions — l'une publique et controversée, l'autre opérationnelle et pragmatique — ne sont pas directement liées, mais ensemble, elles dessinent le portrait d'une entreprise qui avance rapidement sur plusieurs fronts, parfois plus vite que ne le permet sa communication. Pour OpenAI, le défi consiste désormais moins à savoir si l'entreprise est capable de construire des systèmes puissants qu'à gérer les conséquences de leur déploiement dans des contextes où les enjeux sont tout sauf théoriques.

FAQ 🔎

  • Pourquoi les utilisateurs ont-ils boycotté ChatGPT aux États-Unis ? Les utilisateurs ont réagi à l'accord conclu par OpenAI pour déployer l'IA sur des réseaux militaires classifiés, soulevant des préoccupations éthiques concernant la surveillance et l'utilisation à des fins de défense.
  • L'utilisation de ChatGPT a-t-elle diminué après la controverse ? Oui, les taux de désinstallation ont grimpé en flèche et les téléchargements ont temporairement chuté, tandis que les avis négatifs sur l'application ont fortement augmenté.
  • Quels changements OpenAI a-t-il apportés à son accord avec le Pentagone ? L'entreprise a ajouté des interdictions explicites concernant la surveillance nationale et des règles plus strictes concernant l'implication des agences de renseignement.
  • Pourquoi OpenAI se tourne-t-il vers des partenaires d'infrastructure cloud ? La hausse des coûts et les défis liés à la mise à l'échelle poussent l'entreprise à louer de la puissance de calcul plutôt que de construire d'énormes centres de données.