« Plus lent, vaguement plus intelligent ? » : Gemini 2.5 Pro critiqué par les utilisateurs avancés pour une baisse de précision et de performance
Autrefois chouchou des développeurs et des data scientists, le dernier modèle phare de Google sème la frustration au sein de la communauté technique
Dans le monde très exigeant du développement de l'IA, où chaque milliseconde compte et où la précision n'est pas une option, la sortie de Gemini 2.5 Pro par Google le 6 mai – la mise à jour très attendue de son modèle phare – a fait un flop retentissant auprès de ses utilisateurs les plus critiques : les codeurs professionnels, les analystes de données et les chercheurs techniques.
Juste 24 heures après son lancement, les forums et les canaux de développeurs se sont enflammés de mécontentement. De « lag paralysant » à « amnésie des instructions », les premiers utilisateurs ont alerté sur ce qu'ils considèrent comme une régression significative masquée derrière une façade de politesse de surface et des animations de traitement.
Fiche technique de Gemini 2.5 Pro 05-06
Fonctionnalité | Détails |
---|---|
Nom du modèle | Gemini 2.5 Pro Preview 05-06 |
ID du modèle | gemini-2.5-pro-preview-05-06 |
Prix (par million de tokens) | |
Entrée (≤200K tokens) | 1,25 $ |
Entrée (>200K tokens) | 2,50 $ |
Sortie (≤200K tokens) | 10,00 $ |
Sortie (>200K tokens) | 15,00 $ |
Idéal pour | Codage, raisonnement, compréhension multimodale |
Cas d'utilisation | - Raisonner sur des problèmes complexes - S'attaquer à des codes difficiles, aux maths et aux matières scientifiques (STEM) - Analyser de grands ensembles de données/bases de code/documents |
Date limite de connaissance | Janvier 2025 |
Limites de débit | - 150 RPM (Requêtes par minute) (Payant) - 5 RPM / 25 requêtes par jour (Gratuit) |
« Il réfléchit plus, dit moins » : Un changement frustrant dans les modes d'interaction
L'un des changements les plus constants – et les plus choquants – signalés par les utilisateurs est une nette augmentation de la latence. De nombreux professionnels ont partagé que Gemini 2.5 Pro « réfléchit » désormais pendant de longues périodes, souvent 2 à 4 fois plus longtemps que la version précédente. Ces retards sont aggravés par un nouveau comportement : le modèle affiche par intermittence des messages comme « a réfléchi pendant 13 secondes », comme s'il essayait de justifier sa lenteur.
Pourtant, ce qui ressort après cette attente est, paradoxalement, un résultat moins précis.
« C'est comme s'il mettait en mémoire tampon la confiance », a déclaré un chef de projet technique dans une entreprise de modélisation financière, demandant l'anonymat pour parler franchement. « On attend plus longtemps, mais on obtient quelque chose de moins profond. Il y a une baisse inquiétante de la profondeur d'analyse, surtout lorsqu'il s'agit de problèmes complexes à plusieurs niveaux. »
Ce changement est particulièrement problématique pour les utilisateurs avancés qui dépendent de l'IA pour des logiques imbriquées, des modélisations statistiques ou des revues de code précises – des domaines où vitesse et rigueur sont indissociables.
Dérive cognitive : Suivre les instructions devient difficile
Un autre point de critique majeur est la capacité diminuée de Gemini 2.5 Pro à suivre les instructions sur plusieurs échanges – une compétence essentielle pour les flux de travail professionnels.
Plusieurs utilisateurs ont noté que le modèle oublie les directives au milieu d'une conversation, ne parvenant même pas à reporter de simples paramètres d'une réponse à la suivante. D'autres ont observé qu'il « bafouillait des instructions de base », ou pire, les ignorait complètement.
« À un moment donné, je lui ai donné cinq directives. Il en a répondu à deux et a perdu les trois autres », a raconté un ingénieur IA d'entreprise. « Auparavant, il tissait ces exigences ensemble sans effort. Maintenant, c'est comme traiter avec un stagiaire le premier jour. »
Et pour les développeurs, la frustration s'aggrave encore. Gemini omettrait des parties clés de fichiers de code, en particulier dans les sorties longues. Cela a entraîné des builds cassés et des pipelines interrompus – des conséquences qui ne sont pas seulement gênantes, mais potentiellement coûteuses en environnements de production.
« Il massacre le code maintenant » : Anatomie d'une régression
Le problème le plus sérieux réside peut-être dans la qualité du code – un domaine où Gemini 2.5 Pro, selon les chiffres, sous-performe ses homologues d'OpenAI.
Selon les métriques LiveBench, Gemini a obtenu un score de 72,87 en codage, contre des performances nettement supérieures pour les variantes o3 Medium et High d'OpenAI. Bien que son score en mathématiques et sa capacité de raisonnement restent compétitifs, ces forces s'avèrent une compensation insuffisante pour l'exécution erratique du modèle dans les domaines techniques.
Un développeur a décrit comment le modèle avait « mutilé » le code existant au lieu d'ajuster des blocs spécifiques, effectuant des modifications radicales et dommageables plutôt que les modifications précises et chirurgicales demandées. Un autre a noté que Gemini « a satisfait peut-être trois des huit tests de vérification (sanity checks) dans un test if-else imbriqué », manquant des chemins logiques évidents que les versions précédentes géraient correctement.
Il ne s'agit pas d'une dégradation mineure – c'est, comme l'a décrit un critique, « au moins 50 % moins bien que la version précédente, à mon humble avis ».
« Trop poli, dangereusement vague » : Un problème de style au détriment du contenu ?
Beaucoup ont souligné un changement de ton visible dans les réponses de Gemini 2.5 Pro. Il est désormais, selon plusieurs critiques, « plus poli, plus bavard et plus évasif ». La critique ne porte pas sur le ton pour le ton – mais sur ce que ce ton masque.
« Les versions précédentes étaient courtes mais perspicaces. Celle-ci donne l'impression d'avoir été passée au filtre des relations publiques », a noté un architecte logiciel de Berlin. « Vous demandez une analyse de risques et vous obtenez un essai diplomatique. C'est vague, prudent – fondamentalement inutilisable quand vous avez besoin de décisions claires. »
Dans un secteur qui valorise la franchise et la clarté de diagnostic, le style de sortie adouci de Gemini ressemble à un choix éditorial indésirable – un choix qui se fait au détriment de l'utilité.
Charge matérielle et erreurs de téléchargement : Les limites techniques se manifestent
Au-delà des performances logicielles, les utilisateurs ont également signalé des inefficacités matérielles, l'utilisation locale du GPU par Gemini plafonnant autour de 30 %, bien en deçà de l'utilisation attendue. Ce goulot d'étranglement aggrave les temps de réponse déjà lents, en particulier lors de calculs complexes ou de tâches multi-fichiers.
Plusieurs utilisateurs ont également signalé des échecs de téléchargement après une utilisation prolongée – un problème qui pourrait indiquer une fuite de mémoire ou une gestion de session instable dans la nouvelle version.
Les chiffres ne mentent pas – mais ils ne disent pas tout non plus
Sur le papier, Gemini 2.5 Pro n'est pas un échec. Son score LiveBench moyen mondial de 78,99 le positionne comme un modèle généraliste solide, juste derrière la catégorie o3 d'OpenAI.
Ses forces en mathématiques et en raisonnement le rendent viable pour les domaines quantitatifs, et il se comporte raisonnablement bien pour suivre les instructions – statistiquement parlant.
Mais dans les flux de travail réels et de haute précision – en particulier en ingénierie logicielle et en analyse de données, où la marge pour le vague est nulle – ces chiffres sont moins rassurants.
« Ce modèle semble conçu pour un utilisateur qui ne va jamais au-delà des tâches de surface », a fait remarquer un ingénieur de données. « Pour des gens comme moi, ce n'est pas seulement frustrant, c'est dangereux. »
Nostalgie et nécessité : Les utilisateurs reviendront-ils à la version précédente ?
L'indicateur de désillusion le plus éloquent est peut-être la nostalgie soudaine pour l'itération précédente de Gemini, beaucoup appelant à une option de retour arrière.
« C'est la première fois que des coéquipiers me disent : ‘On peut revenir en arrière ?’ Ça devrait inquiéter Google », a déclaré un développeur dans une entreprise d'infrastructure cloud.
Et en effet, si Gemini 2.5 Pro poursuit sur cette trajectoire, Google pourrait faire face à un choix difficile : donner la priorité à la performance pour les professionnels, ou doubler la mise sur l'accessibilité pour les utilisateurs généraux.
Quelle suite ? Un carrefour pour Gemini
Le mécontentement autour de la sortie de Gemini 2.5 Pro en mai ne représente pas seulement un faux pas technique – il met en évidence une tension plus profonde dans le développement de l'IA : trouver un équilibre entre la sécurité globale des utilisateurs et l'amélioration du ton, et les besoins des utilisateurs avancés qui exigent clarté, cohérence et contrôle.
Alors que les laboratoires concurrents itèrent rapidement et que les attentes des utilisateurs se renforcent, Google pourrait n'avoir d'autre choix que de recalibrer les fondations du modèle – ou risquer de céder du terrain à des concurrents plus agiles et plus précis.
Pour l'instant, ceux qui sont à la pointe du code et du calcul observent attentivement – et attendent une correction qui ne fasse pas que réfléchir plus longtemps, mais qui réfléchisse mieux.