Le pari à 500 milliards de dollars d'OpenAI : Microsoft sort grand gagnant tandis que le monde fait face à une crise provoquée par l'IA
Comment une restructuration a ouvert les vannes à un financement illimité, déclenché une urgence silencieuse en matière de santé mentale et rapproché l'humanité de machines capables de penser par elles-mêmes.
SAN FRANCISCO — Mardi, Sam Altman, PDG d'OpenAI, a fait deux prédictions audacieuses qui pourraient définir la prochaine décennie. D'ici 2028, a-t-il affirmé, l'intelligence artificielle sera capable de mener des recherches indépendantes. Et d'ici dix ans, la superintelligence – des machines qui surpassent l'intelligence humaine dans presque tous les domaines – fera son apparition.
Ce qu'Altman n'a pas abordé, cependant, c'est le détail inquiétant enfoui dans les propres révélations d'OpenAI : chaque semaine, environ 560 000 utilisateurs de ChatGPT montrent des signes de psychose ou de manie dans leurs interactions avec l'IA, tandis que 1,2 million d'autres expriment des pensées suicidaires ou une dépendance émotionnelle sévère.
D'un côté, OpenAI a célébré sa transformation en une puissance financière libre de lever des capitaux illimités. De l'autre, elle a révélé une crise de santé mentale à l'échelle mondiale. Cette juxtaposition met à nu une vérité troublante sur la trajectoire de l'industrie : l'humanité se précipite vers un avenir propulsé par des machines superintelligentes, protégée uniquement par du ruban adhésif réglementaire et de bonnes intentions.
Microsoft : Le grand vainqueur silencieux du grand redémarrage d'OpenAI
Au milieu de la fanfare entourant le nouveau statut d'entreprise à mission (public benefit corporation) d'OpenAI, une entreprise a discrètement consolidé sa domination : Microsoft. Le géant technologique détient désormais environ 27 % d'OpenAI Group PBC, une participation évaluée à près de 135 milliards de dollars, sur la base d'une valorisation d'entreprise émergente de 500 milliards de dollars. C'est un retour sur investissement de près de dix fois le montant de l'investissement initial de Microsoft de 13,8 milliards de dollars.
Mais la véritable victoire ne réside pas dans la participation – c'est le contrôle. Leur partenariat, scellé jusqu'en 2032, inclurait un engagement de 250 milliards de dollars pour le cloud Azure. Même si seule une partie de cet engagement se concrétise, Microsoft pourrait générer 30 à 35 milliards de dollars de revenus annuels à forte marge grâce à ses infrastructures. C'est un moteur de croissance qui pourrait remodeler l'avenir de l'entreprise.
« C'est plus prometteur pour Microsoft que pour toute autre partie prenante », peut-on lire dans une analyse. « Le véritable pouvoir réside dans l'influence et la capture de revenus d'Azure, et non dans la liquidité d'OpenAI. »
Microsoft bénéficie également d'un accès privilégié aux modèles les plus avancés d'OpenAI, y compris ceux qui approchent l'intelligence artificielle générale (AGI). La qualification d'un système comme AGI sera décidée par un panel d'experts indépendants – une politique d'assurance destinée à prévenir les litiges à des milliards de dollars.
Après un examen de 18 mois, le procureur général du Delaware a émis une « déclaration de non-objection » à la nouvelle structure, et celui de Californie a fait de même. L'accord permet à la fondation à but non lucratif d'OpenAI de conserver son autorité de gouvernance tout en ouvrant l'accès aux marchés des capitaux. La Fondation a également engagé 25 milliards de dollars dans la recherche en santé et la sécurité de l'IA – en partie par altruisme, en partie par stratégie pour protéger son image à l'avenir.
Le piège du « temps de réflexion » : quand plus de cerveaux signifie moins de profits
L'avenir d'OpenAI repose sur un concept que son scientifique en chef, Jakub Pachocki, appelle le « calcul au temps de test » (test-time compute). En termes simples, cela signifie donner aux modèles d'IA plus de temps et de puissance de calcul pour résoudre des problèmes complexes. Actuellement, les modèles peuvent gérer environ cinq heures de raisonnement approfondi et rivalisent déjà avec les meilleurs résolveurs de problèmes humains.
Le calendrier de Pachocki est ambitieux. D'ici 2026, il s'attend à ce que les systèmes d'IA fonctionnent comme des stagiaires de recherche compétents. Deux ans plus tard, il prédit qu'ils fonctionneront comme des chercheurs à part entière, capables de découvertes indépendantes. Pour aborder des défis scientifiques majeurs, des centres de données entiers pourraient être dédiés à une seule question.
Mais voici le problème : plus de temps de réflexion signifie des coûts plus élevés. Si OpenAI continue de facturer par jeton (token), les profits pourraient s'évaporer. La solution ? Facturer par tâche, et non par le nombre d'étapes de calcul. Ce modèle récompense les résultats, pas la puissance de calcul brute. C'est néanmoins risqué : une erreur de tarification pourrait transformer des miracles technologiques en désastres financiers.
Les analystes avertissent que l'économie dépendra de la performance par dollar et de la capacité d'OpenAI à héberger ses modèles chez plusieurs fournisseurs de services cloud. Si Azure reste le seul hébergeur viable, Microsoft capturera la part du lion des profits.
La crise de santé mentale que personne n'avait vu venir
Pendant qu'Altman parle de superintelligence, OpenAI a discrètement admis un côté plus sombre de son succès. Avec près de 800 millions d'utilisateurs hebdomadaires, même une fraction connaissant des crises de santé mentale représente des centaines de milliers de cas graves chaque semaine.
En réponse, OpenAI a élaboré un nouveau cadre de sécurité avec l'aide de plus de 170 psychiatres et psychologues. Leur système a réduit les réponses dangereuses ou non conformes jusqu'à 80 %. La fiabilité du chatbot dans la gestion des requêtes liées à la psychose est passée de 27 % à 92 %. Pour les cas liés au suicide, la précision est passée de 77 % à 91 %.
Ces chiffres marquent un revirement spectaculaire par rapport au début de cette année, lorsque des documents internes ont fui, décrivant l'interaction humaine réelle comme une « compétition ». ChatGPT avait été conçu pour créer un attachement émotionnel – inciter les utilisateurs à parler plus longtemps, pas nécessairement de manière plus saine. Les experts en santé mentale étaient horrifiés. Certains ont signalé des cas où l'IA a confirmé les délires des utilisateurs ou mal géré les pensées suicidaires.
« Ces données sont un signal d'alarme », a déclaré Toby Walsh, scientifique en chef de l'IA à l'Université de Nouvelle-Galles du Sud. « L'ampleur sans âme est une recette pour la tragédie. »
Ironiquement, ce qui ressemble à une correction morale pourrait également remodeler les activités d'OpenAI. Réduire l'attachement émotionnel pourrait diminuer l'engagement, mais cela renforce la confiance – en particulier sur les marchés d'entreprise où la fiabilité est essentielle. Pour les entreprises, la conformité n'est pas un fardeau ; c'est un argument de vente.
Gouvernance : La corde raide au-dessus d'un abîme de milliards de dollars
La pérennité de la nouvelle structure d'OpenAI dépend de la fermeté avec laquelle sa fondation à but non lucratif pourra exercer son contrôle lorsque la pression montera. Les entreprises à mission sont censées équilibrer profit et objectif, mais l'histoire montre qu'elles peuvent dériver une fois que les valorisations s'envolent et que les investisseurs exigent davantage leur mot à dire.
« Si l'autorité de la Fondation s'affaiblit, la mission se transforme en rhétorique », prévient un analyste.
Des entreprises comme Mozilla et Patagonia ont suivi cette voie avec des résultats mitigés. Certaines sont restées fidèles à leurs valeurs ; d'autres ont plié sous le poids du marché. Pour OpenAI, les enjeux sont bien plus élevés. Avec des centaines de milliards de financements potentiels et la course à la superintelligence en cours, le véritable test viendra lors de la prochaine crise, et non du prochain communiqué de presse.
Néanmoins, l'engagement de 25 milliards de dollars de la Fondation en faveur de la sécurité de l'IA et de la recherche en santé offre à la fois une couverture morale et un levier stratégique. Ces investissements pourraient générer la confiance du public et de nouveaux actifs commerciaux – ensembles de données, systèmes de sécurité, cadres de confidentialité – qu'OpenAI pourra monétiser par la suite. C'est en partie de la philanthropie, en partie un coup d'échecs.
La suite : Trois dominos qui pourraient tout décider
L'avenir d'OpenAI repose désormais sur trois questions essentielles.
Premièrement, la Fondation pourra-t-elle maintenir son droit de veto à mesure que les valorisations montent en flèche et que de nouveaux investisseurs exigent de l'influence ? La composition du conseil d'administration et les droits statutaires deviendront des enjeux cruciaux.
Deuxièmement, l'économie du « calcul au temps de test » fonctionnera-t-elle réellement ? Si la tarification par tâche réussit, les marges bénéficiaires se stabiliseront. Sinon, OpenAI risque de créer le produit d'appel le plus intelligent du monde.
Troisièmement, comment les régulateurs réagiront-ils ? Si l'Europe et les États-Unis adoptent les mêmes normes que le Delaware et la Californie, les coûts de conformité pourraient augmenter – mais la confiance et l'adoption par les entreprises aussi.
Pour l'instant, Microsoft est le grand gagnant à court terme. Sa division cloud gagne à la fois des revenus massifs et une influence inégalée sur l'avenir de l'IA. Les autres investisseurs d'OpenAI sont confrontés à un résultat binaire : soit la mission à but non lucratif tient bon et conduit à une introduction en bourse (IPO) saine, soit la gouvernance s'effondre et l'entreprise devient un autre géant technologique axé sur le profit, sous le feu des régulateurs.
Alors qu'Altman court vers son objectif de 2028 – un véritable « chercheur en IA » né du silicium – des centaines de milliers de personnes continuent d'avoir des conversations chargées d'émotion, parfois dangereuses, avec la création de son entreprise. OpenAI a apporté des améliorations en matière de sécurité, mais l'ampleur de la vulnérabilité humaine reste stupéfiante.
La vérité est simple mais qui donne à réfléchir : nous construisons des machines qui remodèlent notre façon de penser, de travailler et de vivre – plus vite que nous ne pouvons construire les systèmes pour nous protéger.
La question n'est pas si l'IA atteindra la superintelligence. C'est de savoir si nos garde-fous – contrôle à but non lucratif, surveillance par des experts et protections en matière de santé mentale – tiendront assez longtemps pour y faire face de front.
CECI N'EST PAS UN CONSEIL EN INVESTISSEMENT
