
Le premier produit de Mira Murati, Tinker, est confronté à une tâche ardue alors que les ingénieurs remettent en question sa proposition de valeur
Le premier produit de la startup de Mira Murati face à un public sceptique
Les ingénieurs doutent de la rentabilité de son API de fine-tuning alors que les rivaux open-source restent solides
SAN FRANCISCO — Lorsque Mira Murati a quitté OpenAI l'automne dernier, après des mois de tensions rapportées, le monde de l'IA a retenu son souffle. L'ancienne directrice de la technologie, longtemps considérée comme l'une des voix les plus influentes de l'entreprise, préparait quelque chose de nouveau. Cette semaine, sa startup Thinking Machines a finalement levé le voile. Le produit inaugural ? Tinker — une API gérée qui promet de rendre le fine-tuning de grands modèles de langage à poids ouverts beaucoup moins pénible.
Au lieu d'applaudissements, le lancement a été accueilli avec scepticisme.
« Unsloth est bien meilleur », a fait remarquer un ingénieur chez CTOL.digital sur notre canal Slack interne, résumant une grande partie de la première réaction de l'industrie. L'analyse de notre équipe souligne de sérieux doutes quant à savoir si Tinker apporte réellement quelque chose de nouveau.
Pour Murati, les enjeux sont plus élevés que jamais. En lançant un service de fine-tuning au lieu de courir après le prochain grand modèle de type GPT, elle parie que l'avenir de l'IA réside dans la personnalisation. C'est un coup direct à la philosophie de "boîte noire" de son ancien employeur — et un pari qui pourrait soit valider la valorisation élevée de Thinking Machines, soit la révéler comme surfait.
La promesse : simplifier la partie la plus difficile
Sur le papier, Tinker fait une offre simple. Il prend en charge les maux de tête liés à l'infrastructure complexe — comme la planification, l'allocation des ressources et la récupération après les pannes — tout en donnant aux chercheurs le contrôle sur leurs données et algorithmes. Les équipes peuvent passer d'un modèle à l'autre, des petites architectures aux géants massifs comme Qwen-235B-A22B, avec une seule ligne de code.
Le système fonctionne sur les clusters internes de Thinking Machines et utilise LoRA (Low-Rank Adaptation) pour étirer les ressources de calcul sur plusieurs tâches d'entraînement, ce qui pourrait réduire les coûts. Pour aider les développeurs à démarrer, l'entreprise a également publié le « Tinker Cookbook », une bibliothèque open-source de méthodes de post-entraînement modernes.
Des groupes de recherche de poids lourd l'ont déjà testé. Des équipes de Princeton, Stanford et Berkeley ont utilisé Tinker sur des projets allant de la démonstration de théorèmes mathématiques au raisonnement chimique. Redwood Research l'a même utilisé pour entraîner Qwen3-32B sur des problèmes complexes de contrôle de l'IA.
Le problème : convaincre de sa singularité
C'est là le hic : rien de tout cela ne répond à la question que les ingénieurs ne cessent de poser — pourquoi abandonner les outils open-source en lesquels ils ont déjà confiance ?
L'analyse de l'équipe d'ingénieurs de CTOL.digital souligne deux points faibles. Le premier est un simple doute. Sans benchmarks publiés comparant Tinker à des systèmes éprouvés comme Unsloth ou TRL, les développeurs n'ont pas de chiffres concrets pour juger s'il est plus rapide, moins cher ou plus stable. Ce qu'ils veulent, ce sont des « avantages clairs et prouvés ». Jusqu'à présent, ils ne les ont pas vus.
Le second touche plus durement. Certains ingénieurs rejettent Tinker comme un « outil de présentation pour investisseurs », un outil conçu pour impressionner les bailleurs de fonds plutôt que pour servir les utilisateurs réels. Une fois que cette perception s'installe, les arguments évasifs sur la facilité d'utilisation ne suffiront pas à la corriger.
« Nous voulons des résultats transparents et reproductibles qui surpassent les solutions actuelles en termes de coût et de performance », déclare l'un de nos ingénieurs sans détour. Tant qu'ils n'apparaîtront pas, la méfiance l'emportera.
Ce qui manque : des preuves qui tiennent la route
La plus grande lacune du lancement de Tinker est facile à repérer : aucun benchmark indépendant. Pas une seule exécution d'entraînement n'a été publiée la comparant à des alternatives sur les métriques qui comptent vraiment — coût par token, débit, stabilité de l'entraînement, temps de convergence.
Ce silence laisse les ingénieurs dans l'incertitude au lieu de leur permettre d'évaluer. Ils ne peuvent pas dire si l'infrastructure gérée de Tinker allège vraiment la charge, ou si son stratagème LoRA économise vraiment de l'argent par rapport à l'exécution d'Unsloth sur des GPU loués.
Tout aussi notable est ce qui n'est pas dit. Le manque de rapports de bugs détaillés ou d'analyses de défaillance suggère que la plupart des développeurs n'ont même pas encore investi de temps sérieux à le tester. Une fois que l'accès bêta s'élargira et que les utilisateurs commenceront à partager des logs, des configurations et des erreurs reproductibles, les retours se transformeront soit en critiques acerbes, soit en une acceptation plus douce.
La vision plus large : un pari contre la course à l'AGI
Le lancement de Tinker révèle également quelque chose de plus profond sur la vision de Mira Murati. En choisissant l'infrastructure de fine-tuning plutôt que le développement de modèles de pointe, elle signale qu'elle ne s'attend pas à un bond décisif vers l'intelligence artificielle générale de sitôt.
Ce point de vue la place en compagnie d'autres anciens d'OpenAI, comme le cofondateur John Schulman et les chercheurs Barret Zoph et Luke Metz, qui se sont tous tournés vers les modèles à poids ouverts. Ensemble, leurs actions suggèrent une conviction partagée : pour l'instant, l'adaptation de modèles ouverts offre plus de valeur pratique que la course vers le prochain système fermé géant.
Le débat touche au cœur de l'industrie de l'IA. Le progrès vient-il de la construction de modèles toujours plus grands et étroitement gardés, ou de l'invention de moyens plus intelligents d'adapter ceux qui existent déjà ?
La voie à suivre : prouver ou disparaître
Thinking Machines retire progressivement les utilisateurs de la liste d'attente. Le service est gratuit pendant la phase bêta, mais la tarification passera bientôt à un modèle basé sur l'utilisation. Interrogée sur l'accueil glacial des ingénieurs, l'entreprise a refusé de commenter. Elle n'a pas non plus partagé de données de référence comparatives avec les systèmes concurrents.
Ce silence ne laisse qu'une seule voie à suivre. Pour gagner la confiance, l'équipe de Murati doit publier des preuves solides : des benchmarks reproductibles, des économies de coûts réelles, des améliorations de stabilité et des gains de productivité documentés par des courbes d'entraînement réelles. Sans cela, Tinker risque d'être retenu comme un lancement spectaculaire qui n'a pas réussi à s'imposer.
Certains ingénieurs de CTOL.digital l'expriment sans détour : « Attendez-vous à des critiques plus substantielles une fois que la bêta s'élargira et que les utilisateurs publieront des configurations, des logs et des résultats d'échec. Mais attendez, les investisseurs pleurent-ils déjà ? »
La réputation de Murati, forgée durant ses années chez OpenAI, lui assure encore de l'attention. La conserver dépendra de ce qui suivra — non pas des promesses, mais des preuves.