ACTUALITE IA

12 juillet 2024 | Nos newsletters, 2024, Juillet 2024

Ilya Sutskever, ancien chief scientist d’OpenAI, crée un rival baptisé Safe SuperIntelligence

 

 

L’ancien co-fondateur et chief scientist d’OpenAI, Ilya Sutskever, parti en claquant la porte, est prêt à relever un nouveau défi : se confronter à son ancienne entreprise et faire mieux, en mettant l’accent sur la sécurité. Ce dernier, qui prônait la sécurité avant toute autre chose, vient de lâcher une bombe dans le secteur de l’IA : SSI.

Il s’agit d’une entreprise nouvellement créée, possédant déjà des bureaux à Palo Alto et Tel Aviv dont le nom, Safe SuperIntelligence, est pour le moins explicite.

“La superintelligence est à portée de main. Construire une superintelligence sûre est le problème technique le plus important de notre époque”, indiquent ainsi Ilya Sutskever, Daniel Gross et Daniel Levy dans une lettre d’intention sur le site de SSI.

L’entreprise met au premier plan la sécurité, au même titre que les capacités des modèles développés à l’avenir. “Nous prévoyons de faire progresser les capacités aussi rapidement que possible tout en veillant à ce que notre sécurité reste toujours en tête”.

SSI s’est ainsi donné pour mission unique de créer une superintelligence sûre, sans se laisser distraire par d’autres objectifs commerciaux ou cycles de produits. Cela signifie que l’entreprise se consacre entièrement à cette tâche, en visant des percées techniques et scientifiques pour atteindre cet objectif​

Share This