Un bogue de l'API OpenReview a exposé des milliers d'évaluateurs anonymes par les pairs et a déclenché une crise concernant l'avenir de l'édition universitaire

Par
CTOL Editors - Lang Wang
4 min de lecture

La fuite qui a brisé la dernière illusion de l'édition universitaire

Le 27 novembre 2025, une vulnérabilité de sécurité dans l'API d'OpenReview a fait ce que des années de plaintes, de propositions de réforme et de lamentations n'avaient jamais pu faire : elle a forcé la communauté universitaire à confronter l'infrastructure défaillante sous le vernis d'objectivité de l'évaluation par les pairs.

Les détails techniques sont d'une simplicité presque gênante. N'importe qui ayant des connaissances de base en API pouvait interroger le point de terminaison profiles/search d'OpenReview et démasquer les évaluateurs, les auteurs et les responsables de section sur toutes les conférences de la plateforme – ICLR, NeurIPS, ICML, et des dizaines d'autres. Aucune authentification requise. Aucune limitation de débit. Juste un accès brut aux identités derrière des évaluations supposées anonymes.

OpenReview a corrigé la faille moins d'une heure après sa divulgation publique. Mais les dégâts vont au-delà d'une simple fuite de base de données. Ce qui a été révélé n'était pas seulement des noms et des affiliations, c'était la preuve d'un système déjà en effondrement, maintenant incapable de maintenir même la fiction de l'équité.

L'illusion du double-aveugle

Les retombées immédiates se lisent comme un roman noir académique. Des doctorants ont découvert que leurs critiques les plus virulents étaient des étudiants en master avec peu de publications et d'expérience. Des auteurs ont constaté que des évaluateurs issus de laboratoires directement concurrents avaient saboté leur travail tout en s'empressant de publier des articles similaires des mois plus tard. Une évaluation légendaire – plus de 80 points de détail critiques sur une seule soumission, tous fièrement « faits à la main » – est devenue une blague virale, les auteurs remerciant l'évaluateur d'avoir « apaisé le stress de chacun pendant ce cycle d'évaluation ».

Certains évaluateurs auraient augmenté leurs scores de 4 à 10 du jour au lendemain après avoir été identifiés. D'autres ont été confrontés à des campagnes de doxxing dans les commentaires de soumission. ICLR a répondu par des menaces de rejets immédiats, d'interdictions de plusieurs années et d'implication des forces de l'ordre – l'équivalent académique de fermer la porte de l'écurie après que les chevaux aient diffusé en direct leur évasion sur Reddit.

Mais la réaction de la communauté révèle quelque chose de plus profond que le plaisir malveillant. Pour de nombreux chercheurs isolés, la fuite a été ressentie comme une justification. Des années d'auto-doute – peut-être que mon travail n'est vraiment pas assez bon – se sont dissipées lorsqu'ils ont pu enfin voir la machinerie derrière leurs rejets : des évaluateurs juniors bien au-delà de leur expertise, des conflits d'intérêts évidents, un filtrage malveillant.

« Ce n'est pas de la 'destruction mutuelle' – c'est utiliser leurs propres tactiques contre eux », a écrit un doctorant, articulant ce que beaucoup pensent maintenant, mais que peu osent dire publiquement.

Un système conçu pour l'échec

Les problèmes structurels sont antérieurs à toute fuite. Les conférences sur l'IA reçoivent désormais des dizaines de milliers de soumissions, dépassant largement l'offre d'évaluateurs qualifiés. Pour faire face, les organisateurs forcent les auteurs soumissionnaires à évaluer le travail de leurs concurrents – un conflit d'intérêts si flagrant qu'il déclencherait des enquêtes éthiques dans n'importe quel autre domaine. Des doctorants de première année jugent des recherches pionnières. Des évaluateurs avec un nombre de publications à un seul chiffre détiennent un pouvoir de vie ou de mort sur la carrière de chercheurs seniors.

Le résultat n'est pas une évaluation par les pairs, mais une loterie chaotique optimisée pour de mauvais objectifs. Les auteurs passent des mois à perfectionner des « figures colorées » et un « storytelling tape-à-l'œil » plutôt qu'à faire avancer la science. Les évaluateurs, eux-mêmes soumissionnaires stressés, manquent à la fois de temps et d'incitation à fournir des commentaires réfléchis. Les responsables de section entérinent souvent le consensus des évaluateurs sans jugement indépendant.

Comme l'a dit un critique : « Ce n'est pas de la science ; c'est de la publicité. »

L'alternative radicale

Au milieu du chaos, de sérieuses propositions de réforme émergent. La plus intrigante réinvente l'évaluation comme des marchés de prédiction : les évaluateurs misent des jetons de réputation sur l'impact futur des articles – citations, réplications, étoiles GitHub. Vous voulez supprimer malicieusement un bon travail ? Vous devrez le vendre à découvert lourdement, risquant la ruine financière lorsque le marché se corrigera. Les cliques conspirationnistes deviennent des « investisseurs de détail » attendant d'être récoltés par des arbitreurs rationnels.

L'idée emprunte aux pires excès des cryptomonnaies mais contient un noyau de responsabilité absent des systèmes actuels. Un mauvais jugement aurait des coûts. Un bon jugement accumulerait des récompenses mesurables. Le pouvoir anonyme exigerait une implication personnelle.

Ce qui meurt, ce qui survit

La vulnérabilité d'OpenReview a exposé une vérité que la communauté connaissait déjà mais ne pouvait pas reconnaître : l'évaluation par les pairs en double-aveugle dans la recherche en IA est du théâtre. Dans les sous-domaines spécialisés, les chercheurs reconnaissent le travail de chacun grâce aux prépublications, au style d'écriture et au choix du sujet. La fuite n'a fait que formaliser ce que les réseaux de rumeurs et les couloirs des conférences révélaient déjà.

Ce qui se passera ensuite importe plus que ce qui a fuité. Certaines conférences pourraient adopter des évaluations ouvertes et signées, où la réputation suit les évaluateurs d'un lieu à l'autre. D'autres pourraient accepter que la croissance explosive et les ressources tendues ont brisé le système au-delà de toute réparation. La proposition de marché de prédiction, aussi radicale soit-elle, suggère une communauté suffisamment désespérée pour tout essayer.

La vraie question n'est pas de savoir si l'évaluation anonyme par les pairs survivra, mais si l'édition universitaire peut construire quelque chose de mieux sur les décombres. Le 27 novembre, la prétention s'est effondrée. Ce qui la remplacera définira le fonctionnement de la science à l'ère de l'IA.

Vous aimerez peut-être aussi

Cet article est soumis par notre utilisateur en vertu des Règles et directives de soumission de nouvelles. La photo de couverture est une œuvre d'art générée par ordinateur à des fins illustratives uniquement; ne reflète pas le contenu factuel. Si vous pensez que cet article viole les droits d'auteur, n'hésitez pas à le signaler en nous envoyant un e-mail. Votre vigilance et votre coopération sont inestimables pour nous aider à maintenir une communauté respectueuse et juridiquement conforme.

Abonnez-vous à notre bulletin d'information

Obtenez les dernières nouvelles de l'entreprise et de la technologie avec des aperçus exclusifs de nos nouvelles offres

Nous utilisons des cookies sur notre site Web pour activer certaines fonctions, fournir des informations plus pertinentes et optimiser votre expérience sur notre site Web. Vous pouvez trouver plus d'informations dans notre Politique de confidentialité et dans nos Conditions d'utilisation . Les informations obligatoires se trouvent dans les mentions légales