Message de Gate News, 29 avril — Le PDG d’OpenAI, Sam Altman, a déclaré dans une interview accordée à Ben Thompson sur Stratechery que la tarification basée sur des jetons n’est pas un modèle viable à long terme pour les services d’IA. En prenant GPT-5.5 comme exemple, Altman a noté que même si le prix par jeton est nettement plus élevé que celui de GPT-5.4, le modèle utilise bien moins de jetons pour accomplir la même tâche, ce qui signifie que les clients ne se soucient pas du nombre de jetons : ils ne se soucient que de savoir si la tâche est accomplie et du coût total.
“Nous ne sommes pas une usine à jetons ; nous ressemblons davantage à une usine d’intelligence”, a déclaré Altman. “Les clients veulent acheter le maximum d’intelligence pour le moins d’argent. Que le travail sous-jacent soit réalisé par un grand modèle qui utilise peu de jetons ou par un petit modèle qui en utilise beaucoup ne change rien pour eux.” Il a ajouté que la base actuelle de clients d’OpenAI exige de plus en plus de capacité plutôt que de négocier les prix, avec bien plus de clients qui disent « donnez-nous plus de capacité, quel qu’en soit le coût » que ceux qui demandent des remises.
En faisant un parallèle avec les services publics, Altman a expliqué que contrairement à l’eau ou à l’électricité — où des prix plus bas n’augmentent pas significativement la consommation — la demande en IA évolue différemment. « Tant que le prix est suffisamment bas, je continuerai à en utiliser davantage. Aucun autre service public ne fonctionne comme ça », a-t-il déclaré. Le PDG d’AWS, Matt Garman, a ajouté que les prix de la puissance de calcul ont diminué de plusieurs ordres de grandeur au cours des 30 dernières années, mais que davantage de capacité de calcul est vendue aujourd’hui qu’à n’importe quel moment auparavant.
Altman a également décrit ChatGPT comme « le premier véritable produit grand public à grande échelle depuis Facebook », en reconnaissant que même si l’IA était censée perturber la recherche, les véritables gains sont venus de ChatGPT lui-même et de l’API Codex. Il a noté que « Google est encore sous-estimé à bien des égards ».
Avertissement : Les informations contenues dans cette page peuvent provenir de tiers et ne représentent pas les points de vue ou les opinions de Gate. Le contenu de cette page est fourni à titre de référence uniquement et ne constitue pas un conseil financier, d'investissement ou juridique. Gate ne garantit pas l'exactitude ou l'exhaustivité des informations et n'est pas responsable des pertes résultant de l'utilisation de ces informations. Les investissements en actifs virtuels comportent des risques élevés et sont soumis à une forte volatilité des prix. Vous pouvez perdre la totalité du capital investi. Veuillez comprendre pleinement les risques pertinents et prendre des décisions prudentes en fonction de votre propre situation financière et de votre tolérance au risque. Pour plus de détails, veuillez consulter l'
avertissement.
Articles similaires
Anthropic dévoile Claude Dreams : l’agent s’organise et gère sa mémoire entre les tâches, élimine les doublons et les contradictions
Anthropic a annoncé Dreams lors de la conférence Code with Claude : Claude Managed Agents peut automatiquement organiser la mémoire entre plusieurs sessions, éliminer les doublons et les contradictions, et mettre à jour les entrées obsolètes, pour produire une base de mémoire finalisée et vérifiable ; la limite d’entrée est de 100 sessions et de 4 096 caractères, exécution asynchrone, finalisation en quelques minutes à quelques dizaines de minutes, prise en charge de l’observation en streaming. L’aperçu de la recherche doit être demandé : pour l’instant, seuls claude-opus-4-7 et claude-sonnet-4-6 sont pris en charge, lancement officiel non déterminé.
ChainNewsAbmediaIl y a 17m
Anthropic contre SpaceX en puissance de calcul : acquisition de l’ensemble du cluster Colossus 1 avec 220 000 GPU, et Claude lève ses limites de débit
Anthropic annonce avoir conclu avec SpaceX un partenariat de puissance de calcul pour le centre de données Colossus 1, qui mobilisera plus de 220 000 GPU Nvidia, plus de 300 MW de capacité. Le déploiement complet devrait être achevé sous un mois afin d’être mis à disposition d’Anthropic, afin d’améliorer les performances et l’expérience de Claude et Code. En parallèle, la limite de consommation par tranche de 5 heures est assouplie pour Pro / Max / Team / Enterprise, les plafonds en période de pointe sont supprimés, et le taux de l’API Opus est augmenté. Les infrastructures en Asie et en Europe s’étendent simultanément ; à l’avenir, d’autres intentions existent, comme des « calculs d’IA en orbite », mais aucun accord n’a encore été conclu.
ChainNewsAbmediaIl y a 28m
Ingénieur chez Coinbase : les agents IA pourraient bouleverser le modèle de publicité web
Erik Reppel, ingénieur chez Coinbase, a déclaré que les agents d’intelligence artificielle pourraient miner fondamentalement le modèle économique d’Internet, dépendant de la publicité. D’après Reppel, l’économie du Web dépend en grande partie des revenus publicitaires générés par des utilisateurs humains, mais les agents d’IA contournent ce système
CryptoFrontierIl y a 1h
Anthropic double les limites de débit de Claude Code après avoir sécurisé une capacité de 300 MW grâce à un accord avec SpaceX
Selon Odaily, Anthropic a signé un accord avec SpaceX pour accéder à la capacité de calcul complète du centre de données Colossus 1, garantissant plus de 300 mégawatts de nouvelle capacité et plus de 220 000 GPU NVIDIA au cours du mois. À compter de maintenant, les limites de taux sur cinq heures de Claude Code pour Pro,
GateNewsIl y a 1h
OpenAI dévoile le protocole de réseau supercalculateur MRC ! En partenariat avec Nvidia, AMD et Microsoft pour créer l’infrastructure de Stargate
OpenAI publie le protocole MRC d’« AI supercomputer networking », en collaboration avec AMD, Microsoft, NVIDIA et d’autres, et en open source sur OCP. MRC découpe les données et les fait circuler par plusieurs chemins, évite les obstacles au niveau de la microseconde, réduit la congestion et maintient la synchronisation des GPU, afin de résoudre le goulot d’étranglement de transfert des grands clusters d’entraînement. Des bases comme Stargate à Abilene (Texas) ont déjà déployé des interfaces de 800 Gb/s et les ont mises en place pour des entraînements réels.
ChainNewsAbmediaIl y a 1h
La plateforme de recrutement par l’IA Ethos clôture un tour de financement de série A de 22,75 millions de dollars, mené par a16z, le 6 mai
D’après BlockBeats, la plateforme britannique de recrutement par IA Ethos a finalisé un tour de financement de série A de 22,75 millions de dollars le 6 mai, avec Andreessen Horowitz (a16z) à la tête du tour et General Catalyst participant. La plateforme utilise l’IA pour interviewer les candidats et analyse
GateNewsIl y a 2h