Apprenez des langues naturellement grâce à des contenus frais et authentiques !

Sujets populaires
Explorer par région
Un juge de Chicago avertit les agents de l'immigration de l'utilisation de l'IA en force signale des risques d'inexactitude et érode la confiance.
Un juge fédéral de Chicago a soulevé des alarmes sur les agents d'immigration utilisant des outils d'IA comme ChatGPT pour rédiger des rapports sur l'utilisation de la force, citant des divergences entre les récits générés par l'IA et les images de caméras corporelles.
Dans une note de bas de page, la juge Sara Ellis a mis en doute la fiabilité des rapports fondés sur un minimum de commentaires, mettant en garde contre les inexactitudes de la pratique, sapant les normes juridiques et érodant la confiance du public.
Les experts disent que l'IA peut fausser les perspectives des agents, créer des comptes trompeurs et exposer des données sensibles si des plateformes publiques sont utilisées.
Le ministère de la Sécurité intérieure n'a pas formulé de commentaires et il n'existe pas de politiques fédérales claires.
Certains États exigent maintenant l'étiquetage du contenu généré par l'IA, mais les garanties généralisées demeurent absentes.
A Chicago judge warns immigration agents' use of AI in force reports risks inaccuracies and erodes trust.