
Ilya Sutskever : Le dernier gardien
de l'IA responsable
Comment le co-fondateur d'OpenAI est devenu la voix de la raison face à la course aveugle vers l'AGI, sacrifiant 32 milliards pour la sécurité de l'humanité
Biographie rapide
Ilya Sutskever est un chercheur renommé dans le domaine de l'intelligence artificielle, particulièrement connu pour ses contributions majeures en apprentissage automatique et en deep learning. Il est né le 8 décembre 1986 à Nizhny Novgorod, en Russie, avant d'émigrer très jeune en Israël, où il a grandi à Jérusalem. Plus tard, il a poursuivi ses études et sa carrière universitaire au Canada, devenant citoyen israélo-canadien.
Parcours académique et professionnel
Ilya Sutskever a étudié à l'Université de Toronto, où il a travaillé sous la direction de Geoffrey Hinton, une figure phare du deep learning. Il fait partie des co-auteurs de l’article sur AlexNet (2012), réseau de neurones ayant marqué une avancée révolutionnaire dans la reconnaissance d’images..
En 2015, il cofonde OpenAI, où il occupera le poste de chief scientist jusqu’en mai 2024. Au sein d’OpenAI, il a contribué aux avancées majeures dans l’entraînement de modèles d’IA comme GPT et ChatGPT, et a participé activement aux choix stratégiques de l’entreprise.
Après son départ d’OpenAI en 2024, il fonde Safe Superintelligence Inc. (SSI), une startup dédiée au développement d’une superintelligence artificielle sûre. Dès 2025, il prend la tête de l’entreprise pour continuer à promouvoir une IA bénéficiant à l’humanité tout en réduisant les risques potentiels liés à des systèmes surpuissants.
L'éveil d'une conscience
Contrairement aux analyses superficielles qui dépeignent Sutskever comme un "prophète de l'apocalypse", la réalité est bien plus nuancée et, paradoxalement, plus rassurante. Là où Sam Altman a choisi l'ivresse des milliards et la course effrénée vers l'AGI, Sutskever a fait le choix inverse : celui de la responsabilité.
La fameuse histoire du "bunker" révélée dans le livre "Empire of AI" de Karen Hao illustre parfaitement cette évolution. Quand Sutskever évoque en 2023 la nécessité de "construire un bunker avant de libérer l'AGI", il ne verse pas dans le délire paranoïaque. Il anticipe rationnellement les conséquences géopolitiques d'une technologie qu'il connaît mieux que quiconque.
"Nous construirons définitivement un bunker avant de libérer l'AGI", déclarait-il à ses équipes. "Une technologie si puissante deviendra forcément un objet de désir intense pour les gouvernements du monde entier."
Cette déclaration, loin d'être l'expression d'une peur irrationnelle, témoigne d'une lucidité remarquable sur les enjeux de pouvoir que représente l'AGI. Sutskever ne craint pas la technologie en elle-même ; il redoute ce que l'humanité en fera.
Le grand refus : 32 milliards sacrifiés pour l'éthique
L'épisode le plus révélateur de l'intégrité de Sutskever reste son refus catégorique de l'offre de Meta. Mark Zuckerberg aurait tenté d'acquérir l'intégralité de Safe Superintelligence Inc pour 32 milliards de dollars. Trente-deux milliards de dollars. Une somme qui dépasse le PIB de nombreux pays.
Sutskever a dit non. Pas par orgueil, pas par cupidité déguisée, mais par conviction profonde que l'AGI ne peut être développée dans le cadre d'une entreprise obsédée par la croissance commerciale et les métriques d'engagement. Dans un monde où les dirigeants technologiques sacrifient régulièrement leurs principes pour quelques millions, ce refus prend des allures héroïques.
Comme il l'a écrit sur X : "Vous avez peut-être entendu des rumeurs d'entreprises cherchant à nous acquérir. Nous sommes flattés de leur attention, mais nous nous concentrons sur la réalisation de notre travail. Nous avons le calcul, nous avons l'équipe, et nous savons quoi faire."
Safe Superintelligence : l'antithèse d'OpenAI
La création de Safe Superintelligence Inc en juin 2024 représente bien plus qu'une simple startup de plus dans l'écosystème IA. C'est un manifeste en action. Là où OpenAI s'est progressivement transformée en machine commerciale déguisée en organisation à but non lucratif, SSI assume pleinement son objectif unique : développer une superintelligence sûre.
Pas de chatbot grand public, pas de course aux fonctionnalités, pas de levées de fonds spectaculaires pour impressionner Wall Street. Juste un laboratoire focalisé sur l'essentiel : s'assurer que l'AGI, quand elle émergera, soit alignée sur les intérêts de l'humanité.
Le diagnostic lucide sur l'état de l'IA
Lors de sa conférence à NeurIPS 2024, Sutskever a livré une analyse qui tranche avec l'euphorie ambiante de l'industrie. "Le pré-entraînement tel que nous le connaissons va se terminer", a-t-il déclaré. Sa logique est implacable : alors que la puissance de calcul continue de croître, les données, elles, stagnent. L'IA a littéralement "aspiré toutes les connaissances du monde" disponibles en ligne.
Cette observation technique recèle une profondeur philosophique remarquable. Sutskever suggère que nous approchons d'une limite fondamentale : celle de la connaissance humaine formalisée. Pour aller au-delà, l'IA devra développer ses propres capacités de raisonnement et de découverte, ce qui nous rapproche dangereusement du moment où elle pourrait nous dépasser.
L'antithèse d'Altman
Le contraste avec Sam Altman est saisissant. Là où le CEO d'OpenAI multiplie les annonces tonitruantes sur "l'Âge de l'Intelligence" et promet une "prospérité massive", Sutskever reste focalisé sur les conditions de cette prospérité. Altman fonce dans le brouillard des milliards avec la certitude de l'entrepreneur Silicon Valley ; Sutskever avance avec la prudence du scientifique conscient de manipuler le feu.
L'éviction ratée d'Altman en novembre 2023, orchestrée en partie par Sutskever, ne relevait pas de la jalousie ou de l'ambition personnelle. Les documents révélés montrent que Sutskever et Mira Murati reprochaient à Altman de "contourner les processus de sécurité pour des raisons d'efficacité" et de ne pas être "constamment franc" avec le conseil d'administration.
Quand Sutskever déclarait : "Je ne pense pas que Sam soit la personne qui devrait avoir le doigt sur le bouton pour l'AGI", il exprimait une inquiétude légitime sur la gouvernance d'une technologie potentiellement dévastatrice.
Le prophète nécessaire
Si Sutskever évoque parfois la rupture technologique ou la nécessité de bunkers, ce n'est pas par goût du sensationnel. C'est par lucidité sur les transformations que l'AGI va engendrer. Il fait partie de cette génération de chercheurs qui, ayant créé ces technologies, en mesurent mieux que quiconque les implications.
Son parcours depuis AlexNet en 2012 lui donne une perspective unique sur l'accélération en cours. Il a vu naître l'apprentissage profond, a participé à sa démocratisation, et maintenant il observe avec inquiétude la course vers une AGI développée dans l'urgence commerciale plutôt que dans la réflexion éthique.
L'homme qui dit non aux milliards
Dans une époque où les dirigeants technologiques accumulent les fortunes personnelles tout en prêchant l'altruisme, Ilya Sutskever incarne une forme rare d'intégrité. Refuser 32 milliards de dollars n'est pas un geste marketing ; c'est l'expression d'une conviction profonde que certaines choses ne se vendent pas.
En juillet 2025, quand il reprend officiellement les rênes de Safe Superintelligence après le départ de Daniel Gross vers Meta, Sutskever confirme sa trajectoire. Il aurait pu rejoindre n'importe quelle grande entreprise technologique, accepter n'importe quelle acquisition, toucher des sommes astronomiques. Il a choisi de rester fidèle à sa mission.
L'urgence de la sécurité
Car c'est bien là l'essentiel du message de Sutskever : l'AGI approche, et nous ne sommes pas prêts. Techniquement, nous maîtrisons de mieux en mieux les algorithmes. Socialement, politiquement, éthiquement, nous sommes dans le brouillard total.
Pendant qu'Altman promet que l'AGI "nous rendra tous riches", Sutskever travaille à s'assurer qu'elle ne nous rendra pas tous morts. Cette différence de priorité n'est pas anecdotique ; elle pourrait déterminer l'avenir de notre espèce.
"Nous poursuivrons la superintelligence sûre de manière directe, avec un seul focus, un seul objectif, et un seul produit", écrit-il sur les réseaux sociaux. "Nous y parviendrons grâce à des percées révolutionnaires."
Dans un monde où la raison semble avoir déserté Silicon Valley, où les considérations financières priment sur tout le reste, Ilya Sutskever représente peut-être notre dernier garde-fou. Pas un prophète de malheur, mais un gardien de l'humanité face à sa plus grande création.
L'histoire jugera si nous avons eu raison de l'écouter. Ou si nous avons préféré foncer vers l'abîme des milliards, les yeux fermés, en espérant que tout se passe bien.
- Article écrit en collaboration avec Genspark.ai
- Vous trouverez également, en fichier joint à cet article, un podcast de NotebookLM au format wav