Apprenez des langues naturellement grâce à des contenus frais et authentiques !

Appuyez pour traduire - enregistrement

Explorer par région

flag En mars 2026, Trump interdit l'utilisation fédérale d'Anthropic , AI Claude, pour des raisons de sécurité, ce qui incite les entrepreneurs à l'éliminer progressivement malgré l'utilisation militaire continue.

flag En mars 2026, le président Trump a interdit à toutes les agences fédérales d'utiliser le système d'IA Anthropic, Claude, citant des risques pour la sécurité nationale après que la compagnie a refusé d'accorder l'accès sans restriction à l'armée. flag Le Pentagone a qualifié Anthropic de « risque de chaîne d'approvisionnement », bloquant les entrepreneurs de défense de faire des affaires avec lui, bien que les militaires continuent d'utiliser Claude dans les opérations actives. flag Lockheed Martin a annoncé une élimination progressive de l'outil pendant six mois, en se joignant à d'autres entrepreneurs pour se conformer à la directive. flag L'anthropique prévoit de contester l'interdiction devant les tribunaux, la déclarant juridiquement non fondée, tandis qu'OpenAI a obtenu un contrat du Pentagone dans le cadre d'un examen continu de l'éthique de l'IA et de l'utilisation militaire.

7 Articles