
OpenAI conteste la demande du New York Times concernant 20 millions de conversations ChatGPT dans une importante bataille de confidentialité
L'arme de la communication de documents : comment une affaire de droit d'auteur est devenue un précédent en matière de vie privée pour la Silicon Valley
Quand la communication de documents se mue en surveillance de données
La déclaration d'OpenAI du 12 novembre a marqué un tournant dans la bataille entre les entreprises d'intelligence artificielle et les médias traditionnels. En rejetant les demandes de communication de documents exhaustives du New York Times, OpenAI n'a pas seulement repoussé une action en justice, elle a tracé une ligne entre la procédure de communication de documents et la surveillance de données à grande échelle.
Le Times ne réclame pas de mémos internes ou de données d'entraînement. Il souhaite quelque chose de bien plus personnel : 20 millions de conversations ChatGPT de décembre 2022 à novembre 2024. Imaginez cela — un échantillon colossal de pensées humaines, de secrets et de bavardages quotidiens déversés dans une interface d'IA. L'objectif du journal est de trouver la preuve que des utilisateurs ont utilisé ChatGPT pour contourner son mur de paiement, affirmant que l'IA concurrence indirectement et érode le dernier flux de revenus stable du journalisme.
Mais cette lutte est bien plus profonde qu'un simple procès. Si le tribunal donne raison au Times, les futurs litiges liés à l'IA pourraient se transformer en invasions de la vie privée à une échelle massive. Les plaignants pourraient exiger l'accès à des millions de conversations d'utilisateurs, transformant la communication de documents en une expédition de pêche dans la vie numérique privée des gens. OpenAI avait initialement été confrontée à une demande de 1,4 milliard de chats avant de négocier une réduction à 20 millions — un « compromis » qui reste plus vaste que la plupart des enquêtes criminelles de l'histoire des États-Unis.
Les détails juridiques sont importants ici. En mai 2025, la juge d'instance fédérale américaine Ona T. Wang a ordonné à OpenAI de conserver tous les journaux de conversations indéfiniment, annulant sa règle de suppression standard de 30 jours et affectant plus de 400 millions d'utilisateurs. Bien que des parties de cette ordonnance aient été assouplies ultérieurement pour les données opérationnelles, un échantillon historique reste bloqué sous séquestre judiciaire. OpenAI insiste sur le fait qu'il s'agit de protéger la vie privée des utilisateurs, tandis que le Times accuse l'entreprise d'obstruction — d'autant plus qu'une autre entreprise d'IA a déjà livré 5 millions de chats d'utilisateurs dans une affaire différente.
Le problème d'asymétrie dans la proportionnalité de la communication de documents
Ce bras de fer juridique révèle un problème plus profond : l'échelle. L'IA n'opère pas dans le même domaine que les procès traditionnels. Lorsqu'OpenAI a proposé des alternatives respectueuses de la vie privée — comme des recherches par mots-clés pour le contenu du Times, des résumés catégorisés et des protocoles stricts de désidentification —, le Times les a refusées.
Pourquoi ? Parce que son procès repose sur deux allégations nécessitant différents types de preuves. La première affirme qu'OpenAI a entraîné illégalement ChatGPT avec des articles du Times, ce qui implique des données d'entraînement. La seconde soutient que ChatGPT aide les utilisateurs à contourner le mur de paiement du Times et à régurgiter son contenu — quelque chose qui n'est prouvable que par des données de comportement utilisateur à grande échelle. C'est pourquoi le journal insiste pour examiner ces 20 millions de conversations.
C'est là que les choses se compliquent. La plupart de ces chats n'ont rien à voir avec le Times. Ils incluent des confessions de type thérapeutique, des conseils en finances personnelles, des questions de santé — des moments privés entre des utilisateurs et un outil qu'ils croyaient sécurisé. Le Times ne les consulterait pas directement ; ce sont plutôt des avocats externes et des sous-traitants techniques qui les traiteraient sous des ordonnances de protection. Les défenseurs de la vie privée avertissent que même cette configuration est beaucoup trop perméable pour des données aussi personnelles.
Les règles de communication de documents étaient censées prévenir les expéditions de pêche, mais ces anciennes normes cèdent sous les volumes de données de l'IA. Un procès normal pourrait impliquer des milliers de documents. Celui-ci implique des dizaines de millions de fragments de conversation, chacun étant un champ de mines potentiel de détails personnels que les algorithmes ne peuvent pas toujours nettoyer complètement.
La taxe de la communication de documents de Wall Street : pourquoi les marchés surveillent la procédure judiciaire
Les investisseurs suivent l'affaire de près. Il ne s'agit plus seulement de droit d'auteur — il s'agit de la façon dont la communication de documents pourrait remodeler le modèle économique de l'IA. Trois points de pression financière majeurs se distinguent.
Premièrement, il y a la communication de documents comme coût récurrent. Si des productions de 20 millions de chats deviennent la nouvelle norme pour les litiges liés à l'IA — et avec plus de 50 cas similaires en attente —, cela transforme les coûts juridiques ponctuels en frais généraux permanents. Les entreprises devront mettre en place des systèmes à temps plein pour le nettoyage des données, le chiffrement et l'examen sécurisé. Ces coûts augmentent avec la taille de la base d'utilisateurs. Pour les quelque 800 millions d'utilisateurs hebdomadaires de ChatGPT d'OpenAI, ce n'est pas une menue monnaie — c'est un changement structurel. Les petits laboratoires d'IA pourraient ne pas survivre à ce fardeau.
Deuxièmement, il y a le chiffrement contre la vitesse d'innovation. La promesse d'OpenAI d'ajouter le chiffrement côté client et des contrôles de confidentialité automatisés limitera la quantité de données utilisateur réelles pouvant être utilisées pour l'amélioration des modèles. Si le chiffrement devient la norme, la qualité des modèles dépendra davantage de données sous licence coûteuses et de sources d'entreprise ayant donné leur consentement. Cela donne un avantage aux géants comme Microsoft, Google et Apple — ils peuvent se permettre d'acheter les données. L'objectif réel d'OpenAI semble clair ici : se retirer complètement de la chaîne de conservation des données.
Troisièmement, le levier des médias est en train de changer. La pression agressive du Times pour la communication de documents, même si elle est réduite ultérieurement, renforce la position des éditeurs dans les négociations avec les entreprises d'IA. Chaque grand média peut désormais citer cette affaire comme précédent lorsqu'il exige des frais de licence. Soudainement, la menace de la communication de documents devient un atout de négociation. Des accords comme ceux de News Corp et d'Axel Springer semblent brillants avec le recul.
À Wall Street, The New York Times Co. se négocie autour de 63 dollars, proche de ses records. Les investisseurs y voient une stabilité dans les abonnements et un potentiel de croissance dans les litiges liés à l'IA. Mais il y a aussi un coût en relations publiques — être dépeint comme l'entreprise exigeant l'accès aux chats privés de millions d'inconnus pourrait aigrir l'opinion publique et compliquer la perception d'un jury. Pendant ce temps, la valorisation stupéfiante de Microsoft de 3 850 milliards de dollars ne bronche pas ; pour les investisseurs, cette bataille est un bruit de fond. Pourtant, des outils de confidentialité de niveau entreprise plus rapides, nés de ce litige, pourraient donner à Copilot de Microsoft un avantage de confiance considérable.
La plupart des analystes s'attendent à ce que le tribunal tranche probablement à mi-chemin. Le résultat le plus probable ? Un examen restreint, limité aux chats qui correspondent réellement au contenu du Times, examinés sous des conditions strictes. Cela permettrait de tester l'allégation de contournement du mur de paiement sans normaliser la surveillance de masse. Chances que cela se produise : environ 60 à 70 % au cours des six prochains mois.
La courbe d'apprentissage institutionnel
Voici la véritable leçon à retenir : le système juridique apprend, en temps réel, que les anciennes règles de communication de documents ne conviennent pas au nouveau monde de l'IA. Vingt millions de conversations ne sont pas de simples « documents ». Ce sont des reflets de la pensée, de l'émotion, de la curiosité et de l'identité — présentés comme des données, mais fondamentalement humains. Les tribunaux ne sont tout simplement pas conçus pour gérer cela pour le moment.
Si OpenAI tient sa promesse de chiffrement en 2026, tout ce problème disparaîtra pour les affaires futures. Après tout, on ne peut pas assigner ce qui n'existe plus sous une forme lisible. C'est la stratégie à long terme — couper le robinet de données, pas seulement gagner un procès unique. Chaque grande entreprise d'IA s'empresse de faire de même.
Cette affaire ne concerne plus vraiment le droit d'auteur ou l'utilisation équitable. Il s'agit de savoir si les règles de communication de documents conçues pour des dossiers papier peuvent s'adapter à des modèles dotés de milliers de milliards de paramètres entraînés sur l'expérience humaine elle-même. Le Times veut prouver que ChatGPT vole le journalisme. Mais ce faisant, il pourrait briser quelque chose d'encore plus fondamental — la discrète supposition selon laquelle, lorsque vous parlez à une machine, cette conversation reste privée.
Le timing opportun de l'indignation vertueuse
Les deux parties méritent un examen minutieux pour leur indignation sélective. La demande de 20 millions de chats du Times n'est pas nouvelle — elle se fraye un chemin à travers la procédure de communication de documents depuis l'été 2025, OpenAI proposant cette taille d'échantillon exacte en août. La croisade d'OpenAI pour la confidentialité du 12 novembre est opportunément arrivée juste après qu'un tribunal allemand a statué que l'entreprise avait violé les droits de propriété intellectuelle. L'offensive de relations publiques s'apparente moins à un véritable principe de confidentialité qu'à une diversion tactique — instrumentaliser la sympathie des utilisateurs pour faire passer au second plan les titres concernant la violation systématique du droit d'auteur. Pendant ce temps, le Times a rejeté des alternatives de recherche respectueuses de la vie privée il y a des mois, mais ne fait face que maintenant à un contrecoup public pour cela, bénéficiant de la manipulation du cycle de l'actualité par OpenAI. La bataille de la communication de documents est réelle ; le calendrier de cette bataille publique est un théâtre conçu pour remodeler les récits lorsque les deux parties ont besoin de se couvrir de leurs propres contradictions.
AVERTISSEMENT : CECI NE CONSTITUE PAS UN CONSEIL EN INVESTISSEMENT