Le ministère américain de la Défense a annoncé avoir conclu des accords avec sept entreprises majeures du secteur technologique pour accéder à leurs modèles d'intelligence artificielle, dans le cadre d'opérations classifiées. Parmi les retenues figurent OpenAI, Google, Nvidia, Microsoft, Amazon (via AWS), SpaceX et Reflection, marquant un tournant stratégique pour le Pentagone.
Cette décision intervient après l'exclusion d'Anthropic, une start-up réputée pour son modèle Claude, considéré comme l'un des meilleurs au monde. Cette exclusion est liée à des tensions juridiques avec le gouvernement Trump, qui avait rompu tous les contrats avec l'entreprise. Malgré la qualité de son modèle, le gouvernement a choisi de diversifier ses partenaires en vue d'une flexibilité accrue dans le domaine crucial de l'IA, selon des sources proches de l'administration.
Transformer l'armée américaine grâce à l'IA
Le mérite de diversifier les prestataires d'IA, insisté par les porte-paroles du ministère, vise également à éviter une dépendance excessive à une seule entreprise. "Ces partenariats vont transformer l'armée américaine en une force d'intervention moderne, intégrant l'intelligence artificielle dans ses processus opérationnels", a ajouté le ministère dans son communiqué.
Les modèles fournis par les entreprises partenaires seront utilisés pour des opérations de niveau avancé, optimisant la synthèse des données et facilitant la prise de décision militaire dans des contextes complexes. Il est pertinent de noter que le modèle Claude d'Anthropic avait déjà été utilisé lors d'opérations sensibles, notamment vis-à-vis du conflit en Iran.
Résistance au sein des entreprises
Cependant, cette décision n'est pas sans controverses. Des employés de Google, par exemple, ont exprimé leur désaccord face à cet accord, soulignant les risques éthiques de l'utilisation de leurs technologies pour des missions militaires. Un appel à la direction, initié par plus de 600 salariés, exige de renoncer à fournir des modèles d'IA pour des applications militaires, évoquant des inquiétudes sur un éventuel usage abusif.
La controverse commune entre Anthropic et le gouvernement réside dans la vision de l'utilisation des modèles d'IA. Tandis qu'Anthropic plaide pour une approche éthique, évitant la surveillance de masse et les attaques létales, le Pentagone considère que des garanties légales suffisent pour encadrer ces technologies.
Avec ces changements, le Pentagone semble déterminé à moderniser ses opérations tout en se dotant d'outils technologiques robustes pour faire face aux défis contemporains, et cela malgré les réticences croissantes de certains de ses fournisseurs. L'évolution de cette situation pourra être suivie de près, car elle laisse entrevoir un avenir où les technologies de l'IA ne seront pas seulement outils d'innovation, mais également instruments de décision stratégique dans des conflits armés.







