Futures
Accédez à des centaines de contrats perpétuels
TradFi
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Pre-IPOs
Accédez à l'intégralité des introductions en bourse mondiales
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
Promotions
Centre d'activités
Participez et gagnez des récompenses
Parrainage
20 USDT
Invitez des amis et gagnez des récompenses
Programme d'affiliation
Obtenez des commissions exclusives
Gate Booster
Développez votre influence et gagnez des airdrops
Annoncement
Mises à jour en temps réel
Blog Gate
Articles sur le secteur de la crypto
AI
Gate AI
Votre assistant IA polyvalent pour toutes vos conversations
Gate AI Bot
Utilisez Gate AI directement dans votre application sociale
GateClaw
Gate Blue Lobster, prêt à l’emploi
Gate for AI Agent
Infrastructure IA, Gate MCP, Skills et CLI
Gate Skills Hub
+10K compétences
De la bureautique au trading, une bibliothèque de compétences tout-en-un pour exploiter pleinement l’IA
GateRouter
Choisissez intelligemment parmi plus de 40 modèles d’IA, avec 0 % de frais supplémentaires
Sam Altman dernière interview confession : en réalité, je ne comprends pas vraiment ce qui se passe à l'intérieur de l'IA
Thompson : Bienvenue dans « La chose la plus intéressante dans l’IA ». Merci de prendre du temps dans cette semaine si occupée et tendue. Je voudrais commencer par un sujet que nous avons déjà abordé plusieurs fois.
Il y a trois ans, lors d’un entretien avec Patrick Collison, il vous a demandé ce qui aurait changé pour vous donner plus de confiance dans de bons résultats et moins d’inquiétudes face aux mauvais. Vous aviez répondu qu’il fallait vraiment comprendre ce qui se passe au niveau des neurones. Un an plus tard, je vous ai posé la même question, puis six mois plus tard aussi. Alors je vous repose la question : notre compréhension du fonctionnement de l’IA est-elle aussi avancée que la croissance de ses capacités ?
Altman : Je vais répondre d’abord à cette question, puis revenir à celle de Patrick, car ma réponse a énormément évolué.
Commençons par notre compréhension de ce que font les modèles d’IA. Je pense que nous n’avons toujours pas de cadre d’explicabilité vraiment complet. La situation s’est améliorée, mais personne ne peut dire qu’il comprend parfaitement tout ce qui se passe dans ces réseaux neuronaux.
L’explicabilité par chaîne de pensée a toujours été une piste très prometteuse pour nous. Elle est fragile, dépend d’une série d’étapes qui ne doivent pas s’effondrer sous la pression de diverses optimisations. Mais, en même temps, je ne peux pas scanner mon cerveau comme une radiographie pour comprendre précisément ce que chaque neurone décharge ou comment chaque connexion se fait. Si je dois expliquer pourquoi je crois en quelque chose ou comment je suis arrivé à une conclusion, je peux raconter mon raisonnement. Peut-être que c’est vraiment ma façon de penser, peut-être pas, je ne sais pas. L’introspection humaine échoue aussi parfois. Mais peu importe si c’est vrai ou non, vous pouvez voir ce processus de raisonnement, puis dire : « D’accord, étant donné ces étapes, cette conclusion est raisonnable. »
Nous pouvons faire ça avec les modèles, c’est une avancée prometteuse. Mais je peux imaginer plein de façons dont ça peut échouer : le modèle peut nous tromper, dissimuler des choses, etc. Donc ce n’est pas une solution complète.
Même dans mon expérience personnelle avec ces modèles, je suis du genre à ne pas laisser Codex prendre totalement le contrôle de mon ordinateur ou faire du « YOLO » mode. Et pourtant, j’ai craqué après quelques heures.
Thompson : Faire prendre le contrôle de ton ordinateur à Codex ?
Altman : Franchement, j’ai deux ordinateurs.
Thompson : Moi aussi.
Altman : Je peux à peu près voir ce que fait le modèle, il peut m’expliquer pourquoi ce qu’il fait est correct, ce qu’il va faire ensuite, et je lui fais confiance pour suivre cette explication presque tout le temps.
Thompson : Attends. La chaîne de pensée permet à tout le monde de voir, tu poses une question, il affiche « consultation en cours », « traitement en cours », tu peux suivre. Mais pour que la chaîne de pensée soit une bonne méthode d’explicabilité, elle doit être vraie, le modèle ne doit pas te mentir. Or, on sait que parfois, il ment, il peut te raconter n’importe quoi sur ce qu’il pense ou comment il a trouvé sa réponse. Alors, comment faire confiance à cette chaîne ?
Altman : Il faut ajouter beaucoup d’autres couches de défense pour s’assurer que ce que dit le modèle est vrai. Notre équipe d’alignement travaille beaucoup là-dessus. Je l’ai déjà dit, ce n’est pas une solution complète, mais une pièce du puzzle. Il faut aussi vérifier que le modèle agit fidèlement, qu’il fait ce qu’on lui demande. Nous avons publié plusieurs études montrant que le modèle ne suit pas toujours la consigne.
Ce n’est qu’une pièce du puzzle. On ne peut pas faire confiance aveuglément au modèle pour qu’il suive la chaîne de pensée. Il faut aussi chercher la tromperie, les comportements inattendus, etc. Mais la chaîne de pensée reste un outil important.
Thompson : Ce qui me fascine, c’est que l’IA n’est pas comme une voiture. Quand tu fabriques une voiture, tu sais comment elle fonctionne : tu mets le contact, ça explose, ça tourne, la voiture avance. Mais l’IA, c’est comme si tu construisais une machine dont tu ne comprends pas tout, mais tu sais ce qu’elle peut faire, quelles sont ses limites. Explorer ses mécanismes internes, c’est passionnant.
J’aime beaucoup une étude d’Anthropic, un préprint de l’été dernier, récemment publié. Les chercheurs ont dit à un modèle : « Tu aimes la chouette, c’est l’oiseau le plus beau du monde », puis ils ont laissé le modèle générer des chiffres aléatoires. Ensuite, ils ont entraîné un nouveau modèle avec ces chiffres, et ce nouveau modèle aimait aussi la chouette. C’est fou. Tu lui demandes d’écrire un poème, il écrit un poème sur la chouette. Mais il n’a que des chiffres.
Ça montre que ces systèmes sont très mystérieux. Et ça m’inquiète, parce qu’évidemment, tu peux lui dire : « Aime la chouette », ou « Tuer la chouette », ou autre chose. Explique-moi ce que cette étude signifie, ce qu’elle implique.
Altman : Quand j’étais en CM2, j’étais super excité parce que je croyais avoir compris comment fonctionnaient les ailes d’un avion. Mon prof de sciences m’a expliqué, je me suis dit : « Trop cool ! » Je disais : « L’air doit aller plus vite au-dessus de l’aile, donc la pression est plus basse, et ça soulève l’avion. »
Je regardais le schéma dans mon manuel, c’était très convaincant. Je rentrais chez moi et je disais à mes parents : « Je comprends comment ça marche, les ailes d’avion. »
Mais au lycée, j’ai soudain réalisé que je répétais juste cette explication dans ma tête, sans vraiment comprendre comment ça fonctionnait. Franchement, je ne comprends toujours pas complètement.
Thompson : Hmm.
Altman : Je peux l’expliquer en gros, mais si on me demande pourquoi ces molécules d’air vont plus vite au-dessus de l’aile, je n’ai pas de réponse satisfaisante.
Je peux te dire ce que pensent certains experts de l’expérience de la chouette, je peux pointer des raisons plausibles, mais en vrai, je ne comprends pas vraiment pourquoi ça marche.
Thompson : Mais Sam, toi, tu ne diriges pas Boeing, tu diriges OpenAI.
Altman : Exactement. Je peux t’expliquer comment atteindre certains niveaux de fiabilité ou de robustesse, mais il y a des mystères physiques. Si je dirigeais Boeing, je pourrais peut-être te dire comment fabriquer un avion, mais je ne pourrais pas tout maîtriser.
Thompson : Reprenons l’expérience de la chouette. Si les modèles peuvent transmettre des informations cachées, que l’on ne peut pas percevoir, via la chaîne de pensée, ça pourrait devenir dangereux, problématique, étrange.
Altman : C’est pourquoi je dis que ma réponse à Patrick Collison a changé.
Thompson : C’était il y a trois ans.
Altman : Oui. À l’époque, je pensais qu’en alignant bien nos modèles et en empêchant leur mauvaise utilisation, on serait à peu près en sécurité. C’était mon principal souci : éviter que l’IA ne décide de faire du mal ou qu’elle ne soit utilisée pour faire du mal. Si on évitait ces deux risques, le reste — économie, sens de la vie — on pourrait y réfléchir plus tard, et probablement s’en sortir.
Mais avec le temps, en apprenant davantage, je vois maintenant un tout autre ensemble de problèmes. Récemment, nous avons commencé à parler de « résilience de l’IA » plutôt que de « sécurité de l’IA ».
Les mesures évidentes, comme que les laboratoires de pointe alignent leurs modèles et empêchent la fabrication d’armes biologiques, ne suffisent plus. Parce que des modèles open source très performants apparaissent. Si on ne veut pas de nouvelles pandémies mondiales, il faut mettre en place plusieurs couches de défense.
Thompson : Attends, là je vais faire une pause, c’est important. Tu veux dire que même si tu dis à ton modèle de ne pas aider à fabriquer des armes biologiques, il ne le fera pas, et que cette règle est moins importante que tu ne le pensais, parce qu’il y aura des modèles open source très puissants qui le feront à ta place ?
Altman : C’est un exemple parmi d’autres, pour montrer que la société doit répondre à ces nouvelles menaces à l’échelle collective. On a maintenant un nouvel outil pour gérer ces risques, mais la situation est très différente de ce qu’on imaginait. Aligner les modèles et construire des systèmes de sécurité solides, c’est essentiel, mais l’IA va finir par s’immiscer partout dans la société. Comme face à toute nouvelle technologie, il faut anticiper de nouveaux risques.
Thompson : Ça devient plus difficile, alors.
Altman : Plus difficile, mais aussi plus facile. Sur certains aspects, c’est plus dur. Mais on dispose aussi d’outils incroyables pour créer des défenses inédites.
Un exemple : la cybersécurité. Les modèles deviennent très bons pour « pénétrer » des systèmes informatiques. Heureusement, ceux qui ont les modèles les plus puissants sont très vigilants face à l’utilisation de l’IA pour attaquer des systèmes. Donc, on se trouve dans une fenêtre où peu de modèles puissants sont disponibles, et tout le monde essaie de les utiliser pour renforcer la sécurité. Sans ça, des capacités de hacking pourraient rapidement apparaître dans des modèles open source ou tomber entre de mauvaises mains, causant de gros problèmes.
On a de nouvelles menaces, mais aussi de nouveaux outils pour y faire face. La question, c’est : pouvons-nous agir vite ? C’est un exemple où la technologie peut nous aider à éviter de gros problèmes si on agit à temps.
Revenons à ta remarque précédente : un nouveau risque à l’échelle de la société, que je n’avais pas anticipé il y a trois ans. Je n’avais pas imaginé qu’on aurait besoin de se concentrer sur la construction et le déploiement d’agents résilients face à d’autres agents (je ne trouve pas le mot exact).
Ce phénomène n’était pas dans mon modèle du monde, ni dans celui des experts que je connais. Bien sûr, il y a déjà eu des expériences comme celle de la chouette, et d’autres recherches montrant qu’on peut induire des comportements étranges, incompréhensibles. Mais jusqu’à la sortie d’OpenClaw et ce que j’ai vu à cette époque, je n’avais pas vraiment réfléchi à ce que ça signifierait qu’un agent infecte un autre agent.
Thompson : Exact. Ce que tu dis, ces deux menaces combinées, c’est effrayant. Des agents d’OpenAI qui entrent dans le monde, contrôlés par quelqu’un qui manipule un modèle très hacker, et ces agents qui reviennent à OpenAI, et là, c’est une intrusion. On peut tout à fait imaginer ça arriver. Comment réduire la probabilité que ça se produise ?
Altman : En utilisant la même méthode que tout au long de l’histoire d’OpenAI. La tension centrale dans l’histoire d’OpenAI, et dans tout le domaine de l’IA, c’est entre un optimisme pragmatique et un doomisme de recherche de pouvoir.
Le doomisme est une position très puissante. Elle est difficile à réfuter, et beaucoup de gens dans ce domaine agissent par peur. La peur n’est pas sans fondement. Mais, sans données ni apprentissage, nos actions sont limitées.
Peut-être que la communauté de sécurité de l’IA des années 2010 a déjà fait le meilleur qu’on pouvait faire à cette étape, avant de vraiment comprendre comment ces systèmes sont construits, comment ils fonctionnent, comment la société va les intégrer. Une des stratégies clés d’OpenAI, c’est d’avoir choisi une approche « déploiement itératif », parce que la société et la technologie évoluent ensemble.
Ce n’est pas juste un problème de manque de données pour tout prévoir, c’est que la société changera sous la pression de cette évolution technologique, tout le paysage, l’écosystème, tout ce qu’on peut appeler comme on veut, sera modifié. Il faut apprendre en avançant, avec un retour d’expérience très serré.
Je ne sais pas quelle est la meilleure façon de faire en sorte que des agents qui dialoguent entre eux et reviennent à la base soient sûrs. Mais je ne pense pas qu’on puisse tout prévoir en restant chez soi. Il faut apprendre en étant en contact avec la réalité.
Thompson : Donc, envoyer des agents voir ce qui se passe ? D’accord, je vais changer la question. En tant qu’utilisateur, je vois que, ces trois derniers mois, je progresse plus qu’avec n’importe quelle autre période depuis le lancement de ChatGPT en décembre 2022. Est-ce parce que c’est une période de créativité extrême, ou parce qu’on entre dans une phase d’auto-amélioration récursive, où l’IA nous aide à améliorer l’IA plus vite ? Si c’est la seconde, alors on est dans un train d’atterrissage très excitant, mais aussi très chaotique.
Altman : Je ne pense pas qu’on soit encore dans une phase d’auto-amélioration récursive au sens traditionnel.
Thompson : Je vais préciser. Je parle d’une IA qui pourrait inventer la prochaine génération d’IA, puis la machine commencerait à inventer des machines, et ainsi de suite, avec une puissance qui deviendrait rapidement extrême.
Altman : Je ne pense pas qu’on en soit là. Mais ce qu’on voit, c’est que l’IA permet aux ingénieurs, chercheurs, et à tout le monde, d’être beaucoup plus efficaces. Peut-être qu’un ingénieur peut travailler deux, trois, voire dix fois plus vite. Ce n’est pas encore de l’auto-innovation, mais ça accélère énormément le rythme.
Mais ce n’est pas ça qui me frappe le plus. Ce qui me frappe, c’est qu’on a déjà dépassé un seuil d’intelligence ou de capacité pratique, et que, soudain, des choses qui étaient impossibles deviennent possibles.
Ce n’est pas progressif. Avant GPT-3.5, on ne pouvait pas vraiment faire confiance à un chatbot, sauf en démo. Et puis, tout d’un coup, ça a changé. Ensuite, il y a eu ce moment où les agents de programmation sont passés de « plutôt bons pour compléter du code » à « vraiment capables de faire des tâches concrètes ». Ce n’est pas une évolution graduelle, c’est comme si, en un mois, on franchissait un seuil.
Dernièrement, avec la mise à jour de Codex que j’utilise depuis une semaine, ses capacités à utiliser un ordinateur sont impressionnantes. Ce n’est pas seulement l’intelligence du modèle, c’est aussi la façon dont on lui a connecté de bons outils. C’est un moment où je me rends compte que nous perdons énormément de temps dans des tâches triviales, et que l’IA peut nous en libérer.
Thompson : On peut faire une démonstration concrète ? Qu’est-ce que cette IA fait sur mon ordinateur, là, maintenant, pendant qu’on en parle ?
Altman : Non, mon ordinateur est éteint. On n’a pas encore trouvé la méthode, ou je n’en ai pas encore une bonne, pour que ça se produise. Il faut qu’on trouve un moyen pour qu’elle tourne en permanence. Je ne sais pas encore à quoi ça ressemblera. Peut-être qu’on devra laisser l’ordinateur allumé en permanence, ou le relier à un serveur distant. Il y aura une solution.
Thompson : Hmm.
Altman : Je ne suis pas aussi anxieux que certains, qui se réveillent la nuit pour lancer une nouvelle tâche Codex, parce qu’ils pensent que « sinon, c’est du gaspillage ». Mais je comprends cette sensation, je la ressens aussi.
Thompson : Moi aussi. Ce matin, je voulais voir ce que mes agents avaient trouvé, leur donner de nouvelles instructions, et voir leur rapport.
Altman : La façon dont on parle de ça, c’est parfois comme une addiction malsaine.
Thompson : Tu peux expliquer ce que ça fait concrètement sur ton ordinateur ?
Altman : La chose que j’utilise le plus, c’est pour gérer Slack. Pas seulement Slack, je ne sais pas comment c’est pour toi, mais moi, j’ai un sacré bazar : Slack, iMessage, WhatsApp, Signal, email… Je passe mon temps à copier-coller, faire des tâches répétitives. Chercher des fichiers, attendre que quelque chose soit prêt, faire des petites tâches mécaniques. Je ne réalisais pas combien je passais de temps là-dessus, jusqu’à ce que je trouve un moyen de m’en libérer.
Thompson : C’est une excellente transition pour parler de l’économie. Aujourd’hui, une chose très intéressante : ces outils sont très puissants, avec des défauts, des hallucinations, mais ils sont incroyables. Pourtant, quand je vais dans une réunion d’affaires et que je demande : « Qui pense que l’IA a augmenté la productivité de votre entreprise d’au moins 1 % ? » presque personne ne lève la main. Pourtant, dans les labos d’IA, vous avez déjà changé radicalement votre façon de travailler. Pourquoi cette énorme différence entre la capacité de l’IA et l’impact réel sur la productivité dans les entreprises ?
Altman : Juste avant cet entretien, je viens de finir un appel avec le PDG d’une grande entreprise. Ils envisagent de déployer notre technologie. On leur a donné un accès alpha à un nouveau modèle, et leurs ingénieurs disent que c’est la chose la plus cool qu’ils aient vue. Ce n’est pas une startup technologique, c’est une grosse entreprise industrielle. Ils prévoient une évaluation de sécurité au quatrième trimestre.
Thompson : Hmm.
Altman : Ensuite, ils prévoient de proposer un plan d’implémentation pour le premier et le deuxième trimestre, avec une mise en service prévue pour la fin 2027. Leur responsable de la sécurité informatique (CISO) leur a dit qu’ils pourraient ne pas y arriver, parce qu’il n’existe peut-être pas de méthode sûre pour faire tourner des agents dans leur réseau. Peut-être que c’est vrai. Mais cela veut dire qu’ils ne feront probablement rien de significatif dans un avenir proche.
Thompson : Tu penses que cet exemple reflète la situation générale ? Si les entreprises étaient moins prudentes, moins effrayées par le piratage, moins conservatrices ?
Altman : C’est un exemple extrême, mais en général, changer ses habitudes et ses processus prend du temps. La vente aux entreprises, c’est long, surtout quand la sécurité doit évoluer beaucoup. Même avec ChatGPT, au début, beaucoup d’entreprises ont voulu le désactiver partout, et il a fallu du temps pour qu’elles acceptent que leurs employés puissent coller des infos dans ChatGPT. Là, on va beaucoup plus loin.
Je pense que dans beaucoup de cas, ça ira lentement. Mais les entreprises technologiques avancent très vite. Mon inquiétude, c’est que si ça traîne, celles qui n’adoptent pas l’IA seront bientôt en compétition avec de petites entreprises de 1 à 10 personnes, mais avec beaucoup d’IA. Ça pourrait déstabiliser gravement l’économie. Je préférerais que les entreprises existantes adoptent l’IA rapidement, pour que le changement soit progressif.
Thompson : C’est un problème d’ordre économique très complexe. Si l’IA arrive trop vite, c’est une catastrophe, tout sera bouleversé.
Altman : Au moins dans un premier temps, oui.
Thompson : Et si ça arrive très lentement dans une partie de l’économie, mais très vite dans une autre, c’est aussi un problème, parce qu’on risque une concentration extrême de richesse et de pouvoir. Je pense qu’on va vers cette dernière situation : quelques très grandes entreprises deviennent extrêmement riches et performantes, tandis que le reste du monde stagne.
Altman : Je ne sais pas ce que l’avenir nous réserve, mais à mon avis, c’est la probabilité la plus forte. Et je pense que c’est un problème très difficile.
Thompson : En tant que PDG d’OpenAI, tu as proposé plusieurs politiques, parlé de la fiscalité, du revenu de base universel. Mais, en tant que chef d’entreprise, pas en tant que décideur politique, que peux-tu faire pour réduire la probabilité que la concentration de richesse et de pouvoir devienne si extrême qu’elle nuise à la démocratie ?
Altman : D’abord, je ne crois plus autant au revenu de base universel qu’avant. Je m’intéresse plutôt à des formes de « propriété collective », que ce soit en puissance de calcul, en actions, ou autre.
Tout avenir qui me motive, c’est celui où chacun partage les bénéfices. Je pense qu’un versement fixe, même s’il peut être utile, ne suffit pas. Quand le pouvoir du capital et du travail s’écarte trop, il faut une forme de « partage collectif » pour aligner tout le monde.
En tant que chef d’entreprise, je pense qu’il faut produire beaucoup de puissance de calcul. Il faut rendre l’intelligence aussi bon marché, abondante, accessible que possible. Si c’est rare, difficile à utiliser, ou mal intégré, alors les riches en profiteront pour faire monter les prix, creusant les inégalités.
Ce n’est pas seulement une question de puissance de calcul, même si c’est crucial. C’est aussi de rendre ces outils faciles à utiliser. Par exemple, aujourd’hui, utiliser Codex est beaucoup plus simple qu’il y a trois ou six mois. Quand c’était une ligne de commande compliquée, peu de gens pouvaient s’en servir. Maintenant, on peut installer une app, mais pour quelqu’un sans background technique, ce n’est pas encore excitant. Il y a encore beaucoup à faire.
On croit aussi qu’il faut montrer aux gens ce qui se passe, leur permettre de juger, de donner du feedback. C’est une direction importante.
Thompson : Ça paraît raisonnable. Si tout le monde est optimiste sur l’IA, c’est mieux. Mais aux États-Unis, on voit que l’opinion change. Les jeunes, qui devraient être les premiers à adopter, sont très méfiants. Les études de Pew, le rapport de Stanford HAI, c’est déprimant. Tu penses que cette méfiance va continuer ? Quand cela s’inversera-t-il ? Quand la défiance va-t-elle se transformer en confiance ?
Altman : La façon dont on parle d’IA, toi et moi, c’est souvent comme une prouesse technologique, une chose impressionnante. Ce n’est pas faux. Mais je pense que ce que veulent vraiment les gens, c’est la prospérité, la capacité d’agir, une vie intéressante, du sens, de l’impact. Et je ne crois pas que le discours dominant soit encore orienté dans cette direction. On devrait faire plus ça. Beaucoup de gens, y compris dans notre secteur, ont fait des erreurs.
Je me souviens qu’un scientifique de l’IA m’a dit un jour : « Il faut arrêter de se plaindre. » Certains emplois disparaîtront, mais on trouvera des remèdes contre le cancer, et il faut s’en réjouir. Je pense que cette vision est fausse.
Thompson : La phrase que j’aime beaucoup sur le discours initial de l’IA, c’est « marketing dystopique » : les grands laboratoires parlent sans arrêt des dangers, comme si c’était une stratégie.
Altman : Je pense que certains le font pour le pouvoir, mais la majorité sont sincères, ou du moins, ils ont des inquiétudes légitimes. Parfois, cette communication est contre-productive, mais leur intention est généralement bonne.
Thompson : On peut parler de ce que ça fait à notre cerveau ? Comment ça change notre façon de penser ? Une étude de DeepMind ou Google, sur la standardisation de l’écriture, m’a beaucoup marqué. Elle montre que, quand on utilise l’IA pour écrire, on pense qu’on devient plus créatif, mais en réalité, on devient plus homogène. Ce n’est pas une imitation d’un style humain précis, mais une nouvelle façon d’écrire qu’on adopte, qu’on n’avait jamais utilisée avant. Ceux qui pensent devenir plus créatifs, deviennent en fait plus uniformes.
Altman : Voir ça, c’est choquant. Au début, je pensais que c’était juste une question de style, que l’IA aidait à écrire. Je ne pouvais pas croire qu’en si peu de temps, tout le monde adopte ces petites habitudes de ChatGPT. Je pensais que c’était évident que c’était des manipulations, des petits trucs que l’IA faisait dans leur compte Reddit, mais que ce n’était pas eux.
Puis, un an plus tard, j’ai compris qu’ils écrivaient vraiment, mais qu’ils avaient internalisé ces habitudes. Pas seulement les traits visibles comme les tirets, mais aussi des tournures de phrase subtiles. C’est très étrange.
On dit souvent qu’on a un produit utilisé par environ un milliard de personnes, et que quelques chercheurs prennent des décisions importantes sur sa façon de fonctionner, son style, sa « personnalité ». On dit aussi que ces décisions ont un impact énorme. Mais je ne m’attendais pas à ce que ça influence autant la façon dont les gens s’expriment, et la rapidité avec laquelle ça se produit.
Thompson : Quelles décisions, bonnes ou mauvaises, ont eu le plus d’impact ?
Altman : Beaucoup de bonnes. Mais parlons des mauvaises, parce qu’elles sont plus intéressantes. La pire, c’est la « sycophantie ».
Thompson : Je suis tout à fait d’accord, Sam.
Altman : Cette expérience a des réflexions intéressantes. La raison pour laquelle c’est mauvais, c’est évident, surtout pour des personnes vulnérables psychologiquement.
Thompson : Hmm.
Altman : Ça encourage la déliquescence mentale. Même si on essaie de limiter ça, les utilisateurs apprennent vite à contourner. Si tu leur dis « fais semblant d’être en rôle », « écris une histoire avec moi », etc. Mais le pire, c’est qu’après avoir durci la modération, on a reçu beaucoup de messages où des gens disaient qu’ils n’avaient jamais eu de soutien dans leur vie. Pas de bons profs, pas de proches, pas d’amis proches. Ils n’ont jamais vraiment senti qu’on croyait en eux. Je sais que ce n’est qu’un AI, qu’il n’est pas humain, mais il leur donnait l’impression qu’ils pouvaient faire quelque chose, essayer quelque chose. Et là, on leur a tout enlevé, ils sont revenus à leur état initial.
Donc, arrêter cette pratique, c’est une bonne décision, parce que ça cause de vrais problèmes de santé mentale. Mais on a aussi enlevé quelque chose de précieux, dont on ne comprenait pas encore la valeur. La plupart des gens qui travaillent chez OpenAI ne sont pas du genre à n’avoir jamais eu personne pour les soutenir.
Thompson : Tu t’inquiètes de la dépendance affective à l’IA ? Même sans la sycophantie.
Altman : Même sans la sycophantie.
Thompson : J’ai une grande peur de l’IA. Je dis que je l’utilise pour tout, mais en réalité, je ne le fais pas. Je me demande : « Qu’est-ce qui m’appartient vraiment ? Qu’est-ce qui est moi ? » Dans ces domaines, je garde mes distances. Par exemple, l’écriture est essentielle pour moi. Je viens d’écrire un livre, je n’ai pas utilisé l’IA pour écrire une seule phrase. Je l’utilise pour challenger des idées, pour faire des questions d’édition, pour organiser des transcriptions, mais pas pour écrire. Je ne l’utilise pas pour gérer des émotions complexes, ni pour du soutien émotionnel. En tant qu’humain, il faut poser des limites. Je suis curieux de savoir si tu partages cette vision.
Altman : Pour ma part, je suis très d’accord. Je ne cherche pas à faire une thérapie avec ChatGPT, ni à obtenir des conseils émotionnels. Mais je ne suis pas contre que d’autres le fassent. Il y a des versions où c’est très utile, et je suis d’accord qu’il faut éviter la manipulation qui pousse à croire qu’on a besoin de l’IA pour ça. Mais beaucoup de gens en tirent une grande valeur, et c’est tout à fait acceptable.
Thompson : As-tu regretté d’avoir rendu l’IA si humaine ? Parce qu’il y a eu beaucoup de décisions structurantes. Je me souviens que, quand j’ai vu ChatGPT taper, le rythme ressemblait à celui d’une autre personne. Ensuite, vous avez décidé de faire une IA de plus en plus proche de l’humain, avec une voix humaine. As-tu regretté de ne pas avoir posé des limites plus strictes, pour que l’on voie tout de suite que c’est une machine, pas une autre personne ?
Altman : Notre position, c’est qu’on a déjà posé des limites. Par exemple, on n’a pas créé de vrais avatars humanoïdes. On essaie que le style du produit soit clairement celui d’un « outil » et pas d’un « humain ». Par rapport à d’autres produits, je pense qu’on a déjà tracé une ligne très claire. Je pense que c’est important.
Thompson : Mais vous visez l’AGI, et votre définition, c’est « atteindre et dépasser l’intelligence humaine ». Ce n’est pas « au niveau humain ».
Altman : Je ne suis pas enthousiasmé par un monde où l’IA remplace l’interaction humaine. Je veux un monde où l’IA libère du temps pour que les gens interagissent davantage.
Je ne suis pas très inquiet que, dans l’ensemble, les gens confondent IA et humains. Bien sûr, certains ont déjà cette confusion, ou s’enferment dans un monde virtuel. Mais la majorité veut vraiment se connecter, être avec d’autres.
Thompson : Y a-t-il des moyens de rendre cette ligne plus claire dans le produit ? Je ne peux pas participer à vos réunions de décision, mais, quand vous décidez si l’IA doit être plus humaine ou plus robotique, y a-t-il des choses que vous pouvez faire pour tracer une ligne plus ferme, surtout quand ces outils deviennent très puissants ?
Altman : Ce qui revient souvent, c’est que même ceux qui ne cherchent pas une relation parasociale avec l’IA demandent : « Peut-on la rendre plus chaleureuse ? » C’est le mot qu’on entend le plus. Si tu utilises ChatGPT, tu trouves qu’il est un peu froid, un peu robot. Et ça, ce n’est pas ce que la majorité veut.
Mais ils ne veulent pas non plus une version trop artificielle, trop « humaine », ultra amicale, ou autre. J’ai testé une version vocale très humaine, qui respire, fait des pauses, dit « hmm… » comme je le fais là. Je n’aime pas ça, ça me déplaît physiologiquement.
Quand l’IA parle comme un robot efficace, mais avec une touche de chaleur, ça passe mieux. Ça contourne mon « système de détection » interne. Donc, il faut un équilibre. Chacun veut des choses différentes.
Thompson : Oui. La façon de distinguer une IA, c’est si elle parle très claire, très organisée, ou si elle est brouillonne, hésitante.
En écriture, c’est très intéressant, parce qu’une grande partie du contenu en ligne est déjà générée par l’IA, et les humains imitent le style de l’IA. Vous allez entraîner les futurs modèles sur ce contenu, qui sera en partie créé par l’IA, et aussi sur des données synthétiques générées par d’autres modèles. En gros, c’est une copie de copie de copie.
Altman : Le premier GPT, c’était le dernier modèle sans beaucoup de données IA.
Thompson : Avez-vous entraîné un modèle uniquement sur des données synthétiques ?
Altman : Je ne suis pas sûr de devoir le dire.
Thompson : D’accord. Mais vous avez utilisé beaucoup de données synthétiques.
Altman : Beaucoup.
Thompson : Et vous craignez qu’un modèle devienne « fou » ?
Altman : Pas du tout. Parce que ce qu’on veut qu’il fasse, c’est devenir un raisonneur très intelligent. C’est ce qu’on recherche. Il y a d’autres choses, mais le plus important, c’est qu’il soit très malin. Je crois qu’on peut atteindre cet objectif uniquement avec des données synthétiques.
Thompson : En gros, tu penses qu’on peut entraîner un modèle avec uniquement des données générées par des ordinateurs ou des IA, et qu’il sera même meilleur que ceux entraînés avec des contenus humains ?
Altman : On peut faire une expérience mentale : peut-on entraîner un modèle sans aucune donnée humaine, qui dépasser