
La startup de sécurité IA Irregular lève 80 millions de dollars auprès de Sequoia pour tester les modèles d'OpenAI et d'Anthropic pour leurs capacités de cyberattaque
L'enjeu à 450 millions de dollars : pourquoi l'élite de la Silicon Valley mise gros sur la face sombre de l'IA
Un mercredi matin de septembre, alors que les entreprises d'intelligence artificielle s'affairaient à construire des modèles toujours plus puissants, une startup israélienne relativement inconnue est sortie de l'ombre avec un financement de 80 millions de dollars et une mission des plus sérieuses : tester la capacité de l'IA à nuire avant qu'elle n'atteigne le monde entier.
Irregular, anciennement Pattern Labs, a annoncé ce tour de table substantiel, mené par Sequoia Capital et Redpoint Ventures, avec la participation d'Assaf Rappaport, PDG de Wiz. Des sources proches de l'opération ont évalué l'entreprise à environ 450 millions de dollars – un chiffre remarquable pour une société de moins de trois douzaines d'employés dont la plupart des observateurs du secteur n'avaient jamais entendu parler avant cette semaine.
Pourtant, l'empreinte d'Irregular est déjà présente dans les systèmes d'IA les plus importants de notre époque. Les évaluations de sécurité de l'entreprise figurent en bonne place dans les fiches techniques des systèmes d'OpenAI pour ses modèles o3 et o4-mini, tandis qu'Anthropic attribue leur collaboration dans les évaluations de Claude 3.7 Sonnet. Leur cadre SOLVE pour l'évaluation de la détection de vulnérabilités de l'IA est devenu la norme de l'industrie, façonnant discrètement la manière dont les systèmes d'IA les plus avancés du monde sont testés avant leur lancement.
Quand les esprits les plus brillants de la Silicon Valley s'inquiètent de la guerre de l'IA
Ce financement reflète un changement fondamental dans la façon dont l'industrie technologique perçoit les risques liés à l'intelligence artificielle. Alors que les préoccupations précédentes portaient sur les biais ou la désinformation, les craintes actuelles sont plus profondes : des systèmes d'IA capables de cyberattaques autonomes, de découvertes sophistiquées de vulnérabilités et d'une coordination entre plusieurs agents d'IA de manière à pouvoir submerger les défenses traditionnelles.
« Bientôt, une grande partie de l'activité économique proviendra de l'interaction humain-IA et de l'interaction IA-IA, ce qui compromettra la pile de sécurité à de multiples niveaux », a expliqué le cofondateur Dan Lahav aux observateurs du secteur. Son partenaire, Omer Nevo, directeur technique, a décrit leur approche avec une précision militaire : « Nous effectuons des simulations de réseau complexes où l'IA endosse à la fois le rôle d'attaquant et de défenseur. Lorsqu'un nouveau modèle est lancé, nous pouvons voir où les défenses tiennent bon et où elles échouent. »
Il ne s'agit pas d'une spéculation théorique. OpenAI a révisé ses protocoles de sécurité internes cet été, face aux préoccupations concernant l'espionnage industriel. Parallèlement, les modèles d'IA de pointe ont démontré des capacités de plus en plus sophistiquées à identifier les vulnérabilités logicielles – des capacités qui servent à la fois des objectifs défensifs et offensifs. Des évaluations récentes montrent que ces systèmes peuvent planifier des attaques sophistiquées, bien qu'ils échouent souvent à l'exécution sans assistance humaine.
L'émergence de « comportements émergents » – des capacités inattendues qui apparaissent à mesure que les systèmes d'IA évoluent – a créé ce que les experts en sécurité décrivent comme un problème de cible mouvante. Des modèles entraînés à des fins bénignes peuvent développer spontanément des compétences que leurs créateurs n'avaient jamais prévues, allant du raisonnement avancé sur la cyberguerre à la coordination autonome avec d'autres systèmes d'IA.
La science des équipes rouges numériques
L'approche d'Irregular repose sur des environnements simulés élaborés qui reflètent les architectures réseau du monde réel. Contrairement aux simples tentatives de « jailbreaking » qui visent à inciter les modèles d'IA à des réponses nuisibles, leurs tests impliquent des scénarios complexes et multi-étapes où les agents IA doivent naviguer à travers des défenses réseau réalistes, escalader les privilèges et accomplir des objectifs spécifiques.
Le système de notation SOLVE de l'entreprise fournit une évaluation granulaire de la manière dont les modèles d'IA gèrent les tâches de découverte et d'exploitation de vulnérabilités. Ce cadre a gagné du terrain dans l'ensemble de l'industrie, apparaissant dans les évaluations menées par les principaux laboratoires d'IA et agences gouvernementales. Le gouvernement britannique et Anthropic référencent tous deux SOLVE dans leurs évaluations de sécurité, suggérant que le cadre pourrait devenir une norme de facto pour l'évaluation de la sécurité de l'IA.
Ce qui distingue Irregular des entreprises de cybersécurité traditionnelles est leur concentration sur les risques émergents – des menaces qui ne se sont pas encore manifestées « dans la nature » mais qui pourraient émerger à mesure que les capacités de l'IA progressent. Leurs environnements simulés testent non seulement les capacités actuelles des modèles, mais aussi les comportements futurs potentiels qui pourraient apparaître par un entraînement continu ou une interaction avec d'autres systèmes.
Les analystes du secteur notent que l'accès précoce d'Irregular aux modèles d'IA en pré-lancement des principaux laboratoires offre un avantage concurrentiel significatif. Ce positionnement leur permet d'identifier les vulnérabilités de sécurité avant le déploiement public, prévenant potentiellement des incidents réels.
Les forces du marché qui animent la course à l'armement sécuritaire
Le marché de la sécurité de l'IA connaît une croissance sans précédent, avec des dépenses qui devraient dépasser les 20 milliards de dollars d'ici 2028. Cette augmentation reflète à la fois l'utilisation croissante des systèmes d'IA et une prise de conscience accrue des risques associés. Des incidents récents, notamment des deepfakes générés par l'IA causant des milliards de pertes frauduleuses et des préoccupations concernant les attaques facilitées par l'IA sur les infrastructures critiques, ont élevé la sécurité du rang de simple considération secondaire à celui de prérequis de déploiement.
La pression réglementaire accélère l'adoption des solutions de sécurité de l'IA. L'AI Act de l'Union européenne, entré en vigueur en août 2025, exige des évaluations complètes des risques pour les systèmes d'IA à haute capacité. Des exigences similaires émergent dans toutes les juridictions, créant une demande pour des cadres d'évaluation standardisés et des évaluations de sécurité tierces.
Le paysage concurrentiel révèle un marché fragmenté mûr pour la consolidation. Les principales plateformes de cybersécurité ont commencé à acquérir des entreprises spécialisées dans la sécurité de l'IA : Cisco a acheté Robust Intelligence, Palo Alto Networks a acquis Protect AI et Check Point a racheté Lakera. Ces mouvements signalent la reconnaissance que la sécurité de l'IA exige une expertise spécialisée au-delà des approches de cybersécurité traditionnelles.
Le positionnement d'Irregular à la fois comme fournisseur d'évaluation et comme potentiel créateur de normes les place au centre de cette vague de consolidation. Leurs relations avec les principaux laboratoires d'IA et agences gouvernementales apportent une valeur stratégique qui s'étend au-delà de leurs revenus actuels, que des sources décrivent comme atteignant déjà des millions annuellement malgré la récente sortie de l'ombre de l'entreprise.
Implications en matière d'investissement dans un paysage incertain
Pour les investisseurs institutionnels, Irregular représente un pari sur la couche d'infrastructure du déploiement de l'IA plutôt que sur les capacités d'IA elles-mêmes. À mesure que les systèmes d'IA deviennent plus puissants et omniprésents, la couche de sécurité devient de plus en plus critique – et précieuse.
La valorisation de 450 millions de dollars de l'entreprise reflète des considérations stratégiques plutôt que purement financières. Avec un accès aux modèles en pré-lancement d'OpenAI, Anthropic et Google DeepMind, Irregular occupe une position unique dans l'écosystème de l'IA. Cet accès, combiné à leur influence croissante sur les normes de l'industrie, crée un potentiel de valeur de plateforme significative.
Les dynamiques du marché favorisent les entreprises qui peuvent fournir des solutions complètes de sécurité de l'IA. Le passage aux interactions IA-IA – où plusieurs systèmes d'IA se coordonnent de manière autonome – crée des défis de sécurité que les approches traditionnelles ne peuvent pas relever. La concentration d'Irregular sur les simulations multi-agents les positionne favorablement pour cette transition.
Les facteurs de risque incluent la possibilité que les principaux laboratoires d'IA développent des capacités de sécurité internes, réduisant ainsi la demande de services d'évaluation externes. Cependant, les exigences réglementaires en matière d'évaluations indépendantes et la complexité des tests de sécurité avancés de l'IA suggèrent une demande continue pour des fournisseurs spécialisés.
Les investisseurs prévoyants devraient surveiller plusieurs indicateurs clés : l'expansion d'Irregular au-delà de l'évaluation vers les contrôles de sécurité à l'exécution, l'adoption de leurs cadres par les organismes de réglementation, et leur capacité à étendre leurs capacités de test à mesure que les systèmes d'IA deviennent plus sophistiqués.
La voie à suivre dans un monde axé sur l'IA
L'émergence d'Irregular reflète une maturation plus large de l'industrie de l'IA, où les considérations de sécurité déterminent de plus en plus les décisions de déploiement. L'ascension rapide de l'entreprise, passée de l'anonymat à une valorisation proche de celle d'une licorne, démontre la reconnaissance par les investisseurs que la sécurité de l'IA représente à la fois une nécessité et une opportunité.
L'annonce de ce financement intervient alors que l'industrie de l'IA s'efforce de concilier le rythme de l'innovation et les considérations de sécurité. Des évaluations récentes suggèrent que si les systèmes d'IA actuels peuvent aider aux cyberattaques, ils restent limités par rapport aux opérateurs humains qualifiés. Cependant, la trajectoire indique des systèmes plus capables et autonomes qui pourraient modifier fondamentalement le paysage de la cybersécurité.
À mesure que les systèmes d'IA deviennent plus répandus dans les infrastructures critiques, les services financiers et les applications de sécurité nationale, les enjeux d'une sécurité bien menée ne cessent de croître. Des entreprises comme Irregular servent de gardiens cruciaux, testant les limites des capacités de l'IA avant leur déploiement.
L'investissement de 80 millions de dollars dans Irregular signale une confiance plus large dans le fait que la sécurité de l'IA deviendra une catégorie de marché substantielle. Pour les investisseurs cherchant une exposition à l'infrastructure de l'IA plutôt qu'aux capacités d'IA directes, les entreprises offrant une évaluation de la sécurité et une protection à l'exécution représentent des opportunités convaincantes dans un paysage en évolution rapide.
La capacité d'Irregular à traduire son succès d'évaluation précoce en une domination de plateforme reste une question ouverte. Cependant, leur positionnement à l'intersection de l'avancement de l'IA et de la nécessité de sécurité suggère qu'ils joueront un rôle influent dans la manière dont la société gérera les risques et les avantages des systèmes d'intelligence artificielle de plus en plus puissants.