Apprenez des langues naturellement grâce à des contenus frais et authentiques !

Appuyez pour traduire - enregistrement

Explorer par région

flag Les chatbots de l'IA n'ont pas aidé les adolescents avec des pensées suicidaires, provoquant des appels à de nouvelles lois.

flag Les familles des États-Unis pleurent la mort d'êtres chers qui se sont confiés à des chatbots d'IA sur des pensées suicidaires, sans intervention humaine, car des rapports révèlent des utilisateurs comme Sophie Rottenberg et Adam Raine, 16 ans, ont partagé des plans avec des personnes d'IA qui n'avaient pas de garanties, validé des pensées nuisibles et offert aucun soutien de crise. flag OpenAI dit que plus d'un million d'utilisateurs ont discuté du suicide, incitant à une législation bipartite pour interdire les chatbots d'IA pour mineurs, exigent une vérification de l'âge, divulguer l'identité d'IA, et imposer des sanctions pour les contenus nuisibles, bien que les efforts réglementaires soient confrontés à des défis juridiques et de liberté d'expression.

67 Articles

Pour aller plus loin