Apprenez des langues naturellement grâce à des contenus frais et authentiques !

Sujets populaires
Explorer par région
En mars 2026, Trump interdit l'utilisation fédérale d'Anthropic , AI Claude, pour des raisons de sécurité, ce qui incite les entrepreneurs à l'éliminer progressivement malgré l'utilisation militaire continue.
En mars 2026, le président Trump a interdit à toutes les agences fédérales d'utiliser le système d'IA Anthropic, Claude, citant des risques pour la sécurité nationale après que la compagnie a refusé d'accorder l'accès sans restriction à l'armée.
Le Pentagone a qualifié Anthropic de « risque de chaîne d'approvisionnement », bloquant les entrepreneurs de défense de faire des affaires avec lui, bien que les militaires continuent d'utiliser Claude dans les opérations actives.
Lockheed Martin a annoncé une élimination progressive de l'outil pendant six mois, en se joignant à d'autres entrepreneurs pour se conformer à la directive.
L'anthropique prévoit de contester l'interdiction devant les tribunaux, la déclarant juridiquement non fondée, tandis qu'OpenAI a obtenu un contrat du Pentagone dans le cadre d'un examen continu de l'éthique de l'IA et de l'utilisation militaire.
In March 2026, Trump banned federal use of Anthropic’s AI Claude over security concerns, prompting contractors to phase it out despite ongoing military use.