Figma visé par un recours collectif pour avoir secrètement entraîné son IA sur des millions de designs de clients sans autorisation

Par
Jane Park
5 min de lecture

La question à 16 milliards de dollars de Figma : quand les données clients deviennent le carburant de l'IA

Une action collective proposée révèle le coût caché de l'entraînement de l'IA sur des designs d'entreprise – et pourquoi chaque entreprise SaaS devrait être attentive.

La plainte déposée le 21 novembre contre Figma devant le tribunal du district nord de la Californie ressemble à un litige contractuel. C'est précisément ce qui la rend dangereuse.

Le plaignant Raza Khan, fondateur d'une startup, n'allègue pas principalement une violation du droit d'auteur – le terrain de bataille désormais familier où OpenAI, Meta et Midjourney se sont affrontés avec des créateurs. Au lieu de cela, la plainte qualifie l'utilisation présumée par Figma de "millions" de fichiers de conception clients de rupture de contrat et de détournement de secrets commerciaux : vous avez promis que notre travail était privé, puis vous l'avez tout de même donné en pâture à votre IA.

La distinction est importante. Les affaires de droit d'auteur opposent l'usage équitable à la contrefaçon, une danse juridiquement floue. Mais lorsque les plaignants peuvent invoquer des promesses marketing spécifiques – comme le ferait la plainte, citant des années d'assurances de Figma selon lesquelles les fichiers des clients "leur appartenaient" et ne profiteraient pas au développement de produits de Figma – les tribunaux deviennent beaucoup moins complaisants. Ajoutez à cela les secrets commerciaux, où la propriété intellectuelle des startups et le travail d'agences sous NDA auraient prétendument intégré le corpus d'entraînement de Figma, et vous avez construit un récit que les tribunaux ont validé à plusieurs reprises : la pratique de l'appât et du switch.

Figma conteste tout. Un porte-parole a déclaré à Reuters que l'entreprise n'utilise les données clients pour l'entraînement qu'avec une "autorisation explicite", les dépersonnalise et se concentre sur des "modèles généraux – et non sur le contenu unique des clients". Pourtant, la controverse "Make Designs" de 2024, où Figma a retiré une fonctionnalité d'IA après qu'elle ait généré des quasi-répliques de l'application Météo d'Apple, a déjà semé le doute sur les garde-fous de l'IA de l'entreprise.

Contexte de l'industrie : exception ou tendance ?

Ce n'est pas un cas isolé. Depuis 2023, plus de 50 plaintes majeures concernant l'entraînement d'IA ont été déposées, et l'exposition aux actions collectives devrait tripler d'ici 2025. Le schéma est constant : les entreprises aspirent ou réutilisent du contenu généré par les utilisateurs sans consentement clair, invoquent un usage transformateur, puis font face à un assaut juridique coordonné.

Le règlement de 1,5 milliard de dollars d'Anthropic avec des auteurs en septembre 2025 – incluant la destruction, ordonnée par le tribunal, des données d'entraînement piratées – a établi un précédent crucial. Les tribunaux imposeront une restitution algorithmique, effaçant les poids de modèles construits sur des corpus entachés. Ce résultat terrifie davantage les plateformes SaaS que les dommages-intérêts : il impose un réentraînement coûteux et peut potentiellement paralyser des fonctionnalités d'IA en cours de déploiement.

LinkedIn a fait face à une action collective en janvier 2025 concernant le partage de messages InMail privés pour l'entraînement d'IA via des modifications de politique rétroactives. L'équipe Gemini de Google a combattu des allégations similaires après avoir intégré automatiquement les utilisateurs de Gmail et Docs à l'entraînement. Salesforce se défend contre des accusations d'avoir utilisé "des milliers de livres piratés" pour ses modèles XGen. Le fil conducteur commun ? Les plateformes d'entreprise ou grand public traitent les données de première partie comme un "carburant gratuit" pour leurs pivots vers l'IA – puis découvrent que le consentement n'était pas implicite.

Ce qui distingue ces cas des affaires de simple aspiration de contenu (New York Times c. OpenAI) est le cadre de confiance : les utilisateurs ont téléchargé des travaux sensibles parce que les plateformes promettaient une protection, créant ainsi des contrats implicites que l'entraînement de l'IA aurait violés. C'est plus difficile à rejeter que les débats sur l'usage équitable.

Le calcul de l'investissement : un signal d'alarme, pas une menace existentielle

Pour les investisseurs, cette affaire présente un risque de gouvernance et une charge juridique modérée – pas une condamnation à mort. Voici les calculs.

Figma se négocie à une capitalisation boursière d'environ 16 à 17 milliards de dollars après son introduction en bourse de juillet 2025 qui a levé 1,2 milliard de dollars. L'entreprise est rentable, générant 749 millions de dollars de revenus en 2024 avec des marges brutes de 88 %. Un règlement de l'ordre de 200 à 600 millions de dollars, bien que douloureux, ne mettrait pas l'entreprise à terre. Même le versement de 1,5 milliard de dollars d'Anthropic, bien qu'étourdissant, reflète un entraînement sur un corpus externe massif ; l'exposition de Figma pourrait être plus limitée si les mécanismes de consentement des entreprises résistent à la phase de découverte des preuves.

Le véritable risque n'est pas le chèque – c'est la mesure injonctive. Si les tribunaux déterminent que les fonctionnalités d'IA de Figma dépendent matériellement de données obtenues par des promesses non tenues, ils pourraient ordonner la destruction des modèles ou des interdictions d'utilisation. Le formulaire S-1 de Figma mentionne l'IA plus de 150 fois ; elle est au cœur de son histoire de croissance et de sa prime de valorisation. Un "redémarrage forcé de l'IA" comprimerait les multiples même si les revenus restaient stables.

Pondéré par la probabilité, cela se traduit par :

  • Risque de règlement direct : 200 à 600 millions de dollars (scénario de base), avec 1 milliard de dollars et plus comme scénario extrême si une vaste catégorie est certifiée et que les théories sur les secrets commerciaux trouvent un écho.
  • Coûts indirects : 2 à 3 points de pression sur la marge d'exploitation sur trois ans, liés aux frais juridiques, à la mise en place de la conformité et au réentraînement des modèles.
  • Frein stratégique : Déploiement plus lent de la feuille de route de l'IA, rotation potentielle des clients d'entreprise sensibles aux accords de confidentialité (NDA).

Les investisseurs devraient appliquer une modeste décote des multiples par rapport à leurs pairs SaaS "propres en matière d'IA" tant que Figma n'aura pas démontré une gouvernance des données reconstruite – avec des processus d'opt-in publics, des modes sécurisés pour les NDA et des audits externes. Il faudra surveiller les commentaires des clients d'entreprise et le taux de rétention net du chiffre d'affaires (NDR) pour détecter les premiers signaux d'érosion de la confiance.

Le risque systémique que personne n'avait anticipé

La véritable importance de Figma ne se limite pas à l'entreprise. Cette affaire clarifie que "l'IA entraînée sur les données SaaS de première partie" est désormais une catégorie d'actifs réglementée, soumise à des exigences de consentement sur lesquelles les tribunaux et les régulateurs s'accordent : divulgation ex ante, mécanismes de désinscription réels et capacité de désintégration pour les corpus entachés.

Cela menace toute plateforme collaborative qui promeut une IA qui "apprend de vos données" – Notion, Canva, Miro, Copilot de Microsoft 365, Salesforce Einstein. Le marché n'a pas suffisamment évalué la rapidité avec laquelle la provenance des données deviendrait essentielle pour la diligence raisonnable. Figma vient d'en faire la norme.

CECI N'EST PAS UN CONSEIL EN INVESTISSEMENT

Vous aimerez peut-être aussi

Cet article est soumis par notre utilisateur en vertu des Règles et directives de soumission de nouvelles. La photo de couverture est une œuvre d'art générée par ordinateur à des fins illustratives uniquement; ne reflète pas le contenu factuel. Si vous pensez que cet article viole les droits d'auteur, n'hésitez pas à le signaler en nous envoyant un e-mail. Votre vigilance et votre coopération sont inestimables pour nous aider à maintenir une communauté respectueuse et juridiquement conforme.

Abonnez-vous à notre bulletin d'information

Obtenez les dernières nouvelles de l'entreprise et de la technologie avec des aperçus exclusifs de nos nouvelles offres

Nous utilisons des cookies sur notre site Web pour activer certaines fonctions, fournir des informations plus pertinentes et optimiser votre expérience sur notre site Web. Vous pouvez trouver plus d'informations dans notre Politique de confidentialité et dans nos Conditions d'utilisation . Les informations obligatoires se trouvent dans les mentions légales