Sam Altman explique les départs des chercheurs en sécurité d'OpenAI
Sam Altman explique dans un profil du New Yorker pourquoi de nombreux chercheurs en sécurité ont quitté OpenAI, citant un décalage avec les préoccupations traditionnelles de sécurité en IA. Cela a conduit à la création d'Anthropic par d'anciens employés d'OpenAI.
Points clés
- Sam Altman déclare que ses 'vibes' ne correspondent pas aux préoccupations traditionnelles de sécurité en IA.
- Anthropic a été fondé par d'anciens chercheurs en sécurité d'OpenAI qui ont quitté l'entreprise pour ces raisons.
- OpenAI a dissous des équipes axées sur la sécurité et réduit les mesures de sécurité.
- En 2019, Altman a averti contre la publication complète de GPT-2, mais a ensuite rendu des modèles plus puissants disponibles gratuitement.
Pourquoi c'est important
Cet article révèle les tensions internes chez OpenAI entre les priorités commerciales et la sécurité en IA, un sujet crucial pour les professionnels de l'IA. Les décisions d'Altman ont des répercussions directes sur l'industrie, notamment la création de concurrents comme Anthropic. Cela soulève des questions sur l'équilibre entre innovation et responsabilité dans le développement de l'IA.
Public concerné : développeurs, entreprises
Pourquoi les chercheurs en sécurité ont-ils quitté OpenAI ?
Les chercheurs en sécurité ont quitté OpenAI en raison d'un décalage avec les préoccupations traditionnelles de sécurité en IA, selon Sam Altman. Cela a conduit à la création d'Anthropic par d'anciens employés.
Commentaires (0)
Aucun commentaire pour le moment. Soyez le premier !