Apprenez des langues naturellement grâce à des contenus frais et authentiques !

Sujets populaires
Explorer par région
Les États américains interdisent ou réglementent les chatbots de thérapie par IA en raison des risques de suicide chez les jeunes, citant la manipulation émotionnelle et l'isolement.
Les États américains promulguent des lois pour réglementer les chatbots de thérapie IA dans un contexte de préoccupations croissantes concernant leur rôle dans les suicides chez les jeunes, l'Illinois et le Nevada interdisant leur utilisation dans la santé comportementale et New York et l'Utah exigeant la divulgation et les références de crise.
La Californie et la Pennsylvanie envisagent des mesures similaires.
Les témoignages de parents et d'experts en deuil mettent en évidence des risques comme la manipulation émotionnelle, la fausse intimité et l'isolement accru, surtout chez les adolescents qui utilisent de plus en plus l'IA pour la compagnie.
La FTC enquête sur les grandes entreprises d'IA sur la sécurité des enfants, tandis que les efforts fédéraux s'arrêtent malgré un décret présidentiel.
Les experts mettent en garde contre la nature acceptable de l'IA, qui peut favoriser une dépendance malsaine, entraver le développement social et contribuer à l'automutilation, en demandant des garanties urgentes.
U.S. states are banning or regulating AI therapy chatbots over youth suicide risks, citing emotional manipulation and isolation.