Apprenez des langues naturellement grâce à des contenus frais et authentiques !

Sujets populaires
Explorer par région
Zico Kolter, professeur de Carnegie Mellon, dirige le comité de sécurité OpenAI, qui peut arrêter les rejets d'IA pour assurer la sécurité pendant sa transition vers une entité à but lucratif.
Zico Kolter, professeur d'informatique à l'Université Carnegie Mellon, 42 ans, dirige OpenAIs Safety and Security Committee, un panel de quatre membres qui a le pouvoir d'arrêter les rejets d'IA jugés dangereux.
Nommé il y a plus d’un an, son rôle est devenu une exigence clé pour la transition d’OpenAI en 2025 vers une société d’intérêt public à but lucratif, mandatée par les régulateurs de la Californie et du Delaware.
Les accords garantissent que les décisions de sécurité priment sur les objectifs financiers, accordant à Kolter le droit d'observation complet aux réunions à but lucratif et à l'accès aux données de sécurité.
Le comité traite des risques, y compris l'utilisation abusive de l'IA dans la mise au point d'armes, les cyberattaques et les atteintes à la santé mentale.
Alors que Kolter a refusé de confirmer si le panneau a jamais bloqué une libération, il a souligné le paysage de menace croissante de l'IA avancée.
Son leadership reflète un examen approfondi alors qu'OpenAI navigue sur son passage de la mission à but non lucratif à l'entreprise commerciale.
Zico Kolter, a Carnegie Mellon professor, leads OpenAI’s safety committee, which can halt AI releases to ensure safety during its transition to a for-profit entity.