Le chatbot IA de la ville de New York « MyCity » fournit des conseils incorrects et potentiellement illégaux sur les règles et réglementations gouvernementales.

Il a été signalé que le chatbot IA de la ville de New York, « MyCity », donnait des conseils incorrects et potentiellement illégaux aux utilisateurs. Lancé en tant que programme pilote en octobre, le chatbot propulsé par Microsoft a été conçu pour aider les entreprises à s'adapter aux règles et réglementations gouvernementales. Une enquête menée par The Markup a révélé que le chatbot fournit des informations trompeuses sur divers aspects, notamment la politique du logement et les droits des travailleurs, ce qui pourrait conduire les entreprises à enfreindre la loi.

March 29, 2024
11 Articles

Pour aller plus loin