L'ODJ Média



Le cofondateur d'OpenAI lance une start-up concurrente pour révolutionner la sécurité de l'IA


Rédigé par le Jeudi 20 Juin 2024

Ce lancement fait suite à des désaccords éthiques au sein d'OpenAI, soulignant l'importance croissante des questions de sûreté dans le domaine de l'IA.



Safe Superintelligence

Ilya Sutskever, cofondateur d'OpenAI, a annoncé la création de Safe Superintelligence (SSI), une nouvelle start-up dédiée à la sécurité de l'intelligence artificielle.
 
L'annonce a été faite de manière sobre sur la plateforme X (anciennement Twitter), où Sutskever a exprimé son engagement à prioriser la sûreté dans le développement de nouvelles technologies.
 
"Nous créerons une superintelligence sûre, d’un seul coup [...] nous y parviendrons grâce à des percées révolutionnaires réalisées par une petite équipe très pointue," a déclaré Sutskever.
 
Il sera rejoint dans cette entreprise par Daniel Gross, cofondateur de Cue AI, et Daniel Levy, également un ancien d'OpenAI. Ensemble, ils ambitionnent de développer une intelligence artificielle (IA) aux "hautes capacités" tout en garantissant que la sécurité reste toujours la priorité.

La genèse de Safe Superintelligence

L'annonce de la création de Safe Superintelligence, publiée mercredi sur X, n'est pas surprenante compte tenu de l'importance qu'Ilya Sutskever accorde à la sécurité des modèles d'IA.
 
Sutskever, connu pour sa rigueur sur les questions de sécurité, a souvent exprimé ses préoccupations concernant les risques potentiels associés à l'intelligence artificielle.
 
Sa nouvelle entreprise vise à répondre à ces préoccupations en mettant la sécurité au cœur de son développement technologique.

Contentieux sur l'éthique des IA chez OpenAI

Il y a un mois, Sutskever a annoncé son départ d'OpenAI, l'organisation qu'il a cofondée avec Sam Altman et Elon Musk.

Les raisons de son départ sont liées à des désaccords avec le conseil d'administration concernant le développement et l'éthique des intelligences artificielles.

Sutskever a toujours été un fervent défenseur de la sécurité et de l'éthique dans l'IA, ce qui l'a conduit à créer l'équipe "Superalignement" au sein d'OpenAI.

Cette entité était chargée d'estimer et d'anticiper les risques à long terme de l'IA. Cependant, cette équipe a été dissoute peu de temps après son départ.
 
Le départ de Sutskever n'est pas un événement isolé. D'autres membres importants d'OpenAI, comme Jan Leike, avec qui il avait créé l'équipe "Superalignement", et Gretchen Krueger, ont également quitté l'organisation après son départ.

Ces démissions soulignent les tensions internes chez OpenAI concernant les orientations stratégiques et éthiques de l'entreprise.

OpenAI continue son chemin avec GPT-5

Malgré ces départs, OpenAI poursuit son développement. En mai, l'entreprise a annoncé qu'elle travaillait déjà sur la prochaine version de son chatbot phare, ChatGPT-5.
 
Cette nouvelle version promet d'apporter des améliorations significatives par rapport à ses prédécesseurs, tout en relevant les défis de l'IA actuelle.
 
La création de Safe Superintelligence par Sutskever marque une étape importante dans le débat sur la sécurité et l'éthique de l'IA.
 
Alors que les technologies de l'IA continuent de progresser à un rythme rapide, les questions de sécurité et d'éthique deviennent de plus en plus cruciales.
 
L'initiative de Sutskever pourrait influencer la manière dont les futures intelligences artificielles seront développées et régulées.

L'odj avec BFMTV

Ilya Sutskever, OpenAI, Safe Superintelligence, IA, sécurité, Daniel Gross, Daniel Levy, start-up, désaccords éthiques






Jeudi 20 Juin 2024

Chroniqueurs invités | Lifestyle | Breaking news | Portfolio | Room | L'ODJ Podcasts - 8éme jour | Les dernières émissions de L'ODJ TV | Communiqué de presse | Santé & Bien être | Sport | Culture & Loisir | Conso & Environnement | Digital & Tech | Eco Business | Auto-moto | Musiczone | Chroniques Vidéo | Les Chroniques Radio | Bookcase | L'ODJ Média | Last Conférences & Reportages