Message de Gate News, 18 avril — Iconiq, un gestionnaire de patrimoine et investisseur en capital-risque basé à San Francisco, prépare à lever plusieurs milliards de dollars pour un nouveau fonds axé sur les investissements dans l’IA, selon des dépôts auprès des autorités et des sources au fait du dossier. La société a déployé plus de $3 milliards dans des startups d’IA rien qu’en 2025.
Iconiq gère environ $100 milliards d’actifs au total, dont quelque $26 milliards dédiés aux investissements en capital-risque. La société a investi environ $4 milliards dans Anthropic, se positionnant comme l’un des plus importants soutiens de la startup. Ses quatre premiers fonds de capital-risque se sont classés dans le premier quartile de leurs groupes de pairs à la clôture de l’année 2025, d’après les données de Cambridge Associates.
La composition de la base d’investisseurs d’Iconiq a sensiblement changé. Dans son récent fonds de 5,75 milliards de dollars, les clients de la gestion de patrimoine ont fourni moins de 20 % du capital, contre environ deux tiers dans le premier fonds de la société. Les investisseurs institutionnels, y compris des fonds de pension comme le New York State Common Retirement Fund, figurent désormais parmi les principaux bailleurs. Au cours de l’année écoulée, Iconiq a réalisé six nouveaux investissements dans l’IA, dont Writer, qui propose un logiciel de génération de texte par IA pour les entreprises, et Pinecone, qui fournit une infrastructure de données pour les applications d’IA.
Iconiq a été fondée par d’anciens conseillers de Goldman Sachs et Morgan Stanley, et compte parmi les membres de son conseil consultatif Mark Zuckerberg, cofondateur de Yahoo Jerry Yang, et Mary Barra, PDG de General Motors. Le fonds de 2014 de la société a renvoyé 5,5 fois le capital investi, signe de la confiance dans une demande soutenue en IA au sein de l’écosystème du capital-risque.
Avertissement : Les informations contenues dans cette page peuvent provenir de tiers et ne représentent pas les points de vue ou les opinions de Gate. Le contenu de cette page est fourni à titre de référence uniquement et ne constitue pas un conseil financier, d'investissement ou juridique. Gate ne garantit pas l'exactitude ou l'exhaustivité des informations et n'est pas responsable des pertes résultant de l'utilisation de ces informations. Les investissements en actifs virtuels comportent des risques élevés et sont soumis à une forte volatilité des prix. Vous pouvez perdre la totalité du capital investi. Veuillez comprendre pleinement les risques pertinents et prendre des décisions prudentes en fonction de votre propre situation financière et de votre tolérance au risque. Pour plus de détails, veuillez consulter l'
avertissement.
Articles similaires
NVIDIA lance Nemotron 3 Nano Omni open source, un modèle multimodal
NVIDIA a annoncé Nemotron 3 Nano Omni, un modèle multimodal open source, qui intègre la vision, la parole et le langage au sein d’un seul modèle, comme couche de perception pour les agents IA. Le cœur est constitué d’un MoE 30B-A3B, d’un contexte de 256K et d’un débit de 9x ; il prend en charge des entrées texte, image, audio, vidéo, etc., et génère une sortie sous forme de texte. En synergie avec Nemotron 3 Super/Ultra, il vise des cas d’usage comme l’exploitation de l’ordinateur, l’intelligence documentaire et la compréhension audio-vidéo, tout en publiant les poids et les données d’entraînement, avec un déploiement couvrant le local, NIM et des plateformes tierces.
ChainNewsAbmediaIl y a 6m
Cursor révèle une méthode de formation à l'installation automatique et améliore les performances de Composer 2 de 14 points de pourcentage
D’après la divulgation récente de Cursor, la société a dévoilé une technique d’entraînement appelée autoinstall pour sa série de modèles Composer : utiliser un modèle de génération précédente pour configurer automatiquement des environnements exécutables pour le prochain génération de l’apprentissage par renforcement. Lors de l’entraînement de Composer 2, Cursor
GateNewsIl y a 9m
OpenAI DevDay 2026 aura lieu le 29/09 à San Francisco
OpenAI annonce que DevDay 2026 se tiendra en présentiel le 29/09 à San Francisco, avec un concours de créations utilisant GPT-5.5 et Image Gen. Codex sélectionnera automatiquement 2–3 projets chaque semaine ; les gagnants recevront des billets gratuits ainsi que des vols et des hôtels pour traverser les villes. L’événement se concentrera sur l’écosystème GPT-5.5 et sur l’évaluation de la collaboration homme-machine ; pour participer, il faut avoir au moins 18 ans et ne pas être un membre de la famille directe employé d’OpenAI. Les axes d’observation incluent le nouveau modèle, l’intégration d’agents et les stratégies multi-cloud.
ChainNewsAbmediaIl y a 11m
Nvidia investit dans la jeune pousse suédoise de legaltech en IA, Legora, avec Jude Law comme ambassadeur de marque mondial
Nvidia réalise un investissement d’extension de Série D de 50 millions de dollars dans Legora, portant le financement total de Legora à 600 millions de dollars et sa valorisation à 5,6 milliards de dollars. Atlassian, Adams Street Partners et Insight Partners participent. Legora se concentre sur la legaltech IA, offrant des outils tels que la vérification automatisée, l’analyse de contrats et la recherche juridique. Le ARR dépasse 100 millions de dollars, et le nombre d’employés passe de 40 à 400. Jude Law devient l’ambassadeur mondial de la marque, avec le slogan publicitaire « Law just got more attractive ».
ChainNewsAbmediaIl y a 17m
Prédictions pour l’IA en 2027 : 65 % complété, l’accélération du développement logiciel accuse un retard de 17 %, selon un cofondateur de Google Docs
Selon Steve Newman, cofondateur de Google Docs et président de l’institut Golden Gate, l’IA a achevé environ 65% des prédictions quantifiées décrites dans le scénario prospectif 2027 publié l’an dernier. Cependant, le critère le plus critique — l’accélération par l’IA de son propre logiciel
GateNewsIl y a 49m
Claude/GPT trop complaisant ? Une invite Claude.md incite l’IA à donner des réponses fermes et précises
Cet article présente une suite de consignes pouvant être intégrée à Claude.md / Agents.md, afin de transformer l’IA, de simple assistante courtoise en conseillère directe, au moyen de quatre niveaux d’ajustement : définition du rôle, vérification des faits, libération du ton, et dispense de la correction politique. Il exige une réponse complète, une validation progressive et la certitude de ne jamais inventer. Le texte indique aussi, si nécessaire, de provoquer ou de défier. Il décrit en outre le moment de chargement, les risques et les cas d’usage (recherche, rédaction, décisions techniques, discussion académique), ainsi que le fait que ce format ne convient pas au service client, à l’éducation et aux conseils médicaux. La source originale du texte est ABMedia.
ChainNewsAbmediaIl y a 1h