Safe Superintelligence
Ilya Sutskever, cofondateur d'OpenAI, a annoncé la création de Safe Superintelligence (SSI), une nouvelle start-up dédiée à la sécurité de l'intelligence artificielle.
L'annonce a été faite de manière sobre sur la plateforme X (anciennement Twitter), où Sutskever a exprimé son engagement à prioriser la sûreté dans le développement de nouvelles technologies.
Il sera rejoint dans cette entreprise par Daniel Gross, cofondateur de Cue AI, et Daniel Levy, également un ancien d'OpenAI. Ensemble, ils ambitionnent de développer une intelligence artificielle (IA) aux "hautes capacités" tout en garantissant que la sécurité reste toujours la priorité.
L'annonce a été faite de manière sobre sur la plateforme X (anciennement Twitter), où Sutskever a exprimé son engagement à prioriser la sûreté dans le développement de nouvelles technologies.
"Nous créerons une superintelligence sûre, d’un seul coup [...] nous y parviendrons grâce à des percées révolutionnaires réalisées par une petite équipe très pointue," a déclaré Sutskever.
Il sera rejoint dans cette entreprise par Daniel Gross, cofondateur de Cue AI, et Daniel Levy, également un ancien d'OpenAI. Ensemble, ils ambitionnent de développer une intelligence artificielle (IA) aux "hautes capacités" tout en garantissant que la sécurité reste toujours la priorité.
La genèse de Safe Superintelligence
L'annonce de la création de Safe Superintelligence, publiée mercredi sur X, n'est pas surprenante compte tenu de l'importance qu'Ilya Sutskever accorde à la sécurité des modèles d'IA.
Sutskever, connu pour sa rigueur sur les questions de sécurité, a souvent exprimé ses préoccupations concernant les risques potentiels associés à l'intelligence artificielle.
Sa nouvelle entreprise vise à répondre à ces préoccupations en mettant la sécurité au cœur de son développement technologique.
Sutskever, connu pour sa rigueur sur les questions de sécurité, a souvent exprimé ses préoccupations concernant les risques potentiels associés à l'intelligence artificielle.
Sa nouvelle entreprise vise à répondre à ces préoccupations en mettant la sécurité au cœur de son développement technologique.
Contentieux sur l'éthique des IA chez OpenAI
Il y a un mois, Sutskever a annoncé son départ d'OpenAI, l'organisation qu'il a cofondée avec Sam Altman et Elon Musk.
Les raisons de son départ sont liées à des désaccords avec le conseil d'administration concernant le développement et l'éthique des intelligences artificielles.
Sutskever a toujours été un fervent défenseur de la sécurité et de l'éthique dans l'IA, ce qui l'a conduit à créer l'équipe "Superalignement" au sein d'OpenAI.
Cette entité était chargée d'estimer et d'anticiper les risques à long terme de l'IA. Cependant, cette équipe a été dissoute peu de temps après son départ.
Le départ de Sutskever n'est pas un événement isolé. D'autres membres importants d'OpenAI, comme Jan Leike, avec qui il avait créé l'équipe "Superalignement", et Gretchen Krueger, ont également quitté l'organisation après son départ.
Ces démissions soulignent les tensions internes chez OpenAI concernant les orientations stratégiques et éthiques de l'entreprise.
Les raisons de son départ sont liées à des désaccords avec le conseil d'administration concernant le développement et l'éthique des intelligences artificielles.
Sutskever a toujours été un fervent défenseur de la sécurité et de l'éthique dans l'IA, ce qui l'a conduit à créer l'équipe "Superalignement" au sein d'OpenAI.
Cette entité était chargée d'estimer et d'anticiper les risques à long terme de l'IA. Cependant, cette équipe a été dissoute peu de temps après son départ.
Le départ de Sutskever n'est pas un événement isolé. D'autres membres importants d'OpenAI, comme Jan Leike, avec qui il avait créé l'équipe "Superalignement", et Gretchen Krueger, ont également quitté l'organisation après son départ.
Ces démissions soulignent les tensions internes chez OpenAI concernant les orientations stratégiques et éthiques de l'entreprise.
OpenAI continue son chemin avec GPT-5
Malgré ces départs, OpenAI poursuit son développement. En mai, l'entreprise a annoncé qu'elle travaillait déjà sur la prochaine version de son chatbot phare, ChatGPT-5.
Cette nouvelle version promet d'apporter des améliorations significatives par rapport à ses prédécesseurs, tout en relevant les défis de l'IA actuelle.
La création de Safe Superintelligence par Sutskever marque une étape importante dans le débat sur la sécurité et l'éthique de l'IA.
Alors que les technologies de l'IA continuent de progresser à un rythme rapide, les questions de sécurité et d'éthique deviennent de plus en plus cruciales.
L'initiative de Sutskever pourrait influencer la manière dont les futures intelligences artificielles seront développées et régulées.
L'odj avec BFMTV
Cette nouvelle version promet d'apporter des améliorations significatives par rapport à ses prédécesseurs, tout en relevant les défis de l'IA actuelle.
La création de Safe Superintelligence par Sutskever marque une étape importante dans le débat sur la sécurité et l'éthique de l'IA.
Alors que les technologies de l'IA continuent de progresser à un rythme rapide, les questions de sécurité et d'éthique deviennent de plus en plus cruciales.
L'initiative de Sutskever pourrait influencer la manière dont les futures intelligences artificielles seront développées et régulées.
L'odj avec BFMTV