Alors que le monde s’efforce de tirer parti des opportunités offertes par l’intelligence artificielle, les dirigeants et experts technologiques multiplient les mises en garde. Longtemps perçue comme une arme à double tranchant, l’IA n’a jamais été aussi transformatrice qu’au cours des dernières années. Tantôt saluée pour ses avancées, tantôt redoutée pour ses dérives, deepfakes, hallucinations et autres manipulations, elle bouleverse les codes du numérique.

Comment alors distinguer le vrai du faux à l’ère du numérique ?

Comment préparer nos entreprises et nos collaborateurs à prendre conscience et à être vigilants et résilients face aux menaces liées à l’IA ?

Et surtout, comment se prémunir de manière proactive contre cette menace invisible qui évolue à la vitesse des algorithmes ?

Alors que les acteurs mondiaux débattent des promesses et des périls de cette révolution technologique, nous avons rencontré Vasco Gomes, CTO Cybersécurité chez Eviden, pour déchiffrer l’influence croissante de l’IA dans la cybersécurité.

Vasco est en charge des roadmaps produits, des partenariats, et des fusions/acquisitions. Passionné d’innovation, il intervient régulièrement en tant que conférencier lors d’évènements internationaux et anime des ateliers spécialisés pour aider de grandes organisations à anticiper le futur de la confiance numérique.

Voici les temps forts de notre échange. Plongez au cœur du sujet.

 

1) Il y a 3 ans, vous prédisiez dans ‘Journey 2026’ le développement massif de l’IA cognitive dans la cybersécurité et l’émergence de véritables batailles entre IA offensive et IA défensive. Où en sommes-nous aujourd’hui ?

Il y a trois ans, beaucoup de nos prévisions étaient considérées comme futuristes. Entre temps, la révolution de l’IA générative nous a donné raison, nos prévisions se réalisant plus vite qu’anticipé.

Du côté des attaquants, l’IA est désormais effectivement massivement employée, à la fois pour intensifier les attaques contre les infrastructures critiques (+300% en 2023) et pour doper les techniques de manipulation comme le social engineering, notamment à l’aide des deepfakes, qui deviennent aujourd’hui une réalité inquiétante.

Du côté de la cyber défense, cela fait bien longtemps que l’IA est utilisée massivement, et sous toutes ses formes, pour :

  • Identifier très tôt les tentatives d’attaques,
  • Orchestrer/automatiser la réponse aux incidents (SOAR: Security Orchestration Automatisation and Response),
  • Se préparer aux menaces émergentes avec la threat intelligence, entre autres usages…

Les responsables de la sécurité des systèmes d’information (RSSI) sont confrontés à une explosion exponentielle de données à traiter et de nouvelles réglementations, qui émergent de tout part. Comme nous l’avions prédit, on voit apparaître avec l’IA de véritables assistants de sécurité pour l’aider dans ces tâches. C’est ce que nous avons nous-même développé dans le cadre de notre nouvelle génération de solution de MDR, AIsaac Cyber Mesh.

Certaines des tendances que nous avions identifiées restent en revanche encore émergentes, notamment notre vision de la « data equity protection » et des systèmes auto-réparateurs. C’est en cours, mais il y a encore beaucoup de progrès à venir !

 

2) Comment voyez-vous les applications de l’IA évoluer en sécurité ? Voyez-vous de nouvelles tendances clés se dessiner ?

Cette tendance de l’IA à se généraliser à la fois en cyber attaque et en cyber défense va s’accélérer. En même temps, et c’est paradoxal, rien de tout cela n’est fondamentalement nouveau. L’IA existe depuis longtemps. Si ses concepts fondateurs remontent concrètement aux années 1930 et 40 avec Alan Turing, on pourra citer l’effet catalyseur de la conférence de Darmouth en 1956 sur la recherche dans ce domaine. Notamment, l’IA est utilisée depuis longtemps dans le monde de la cybersécurité, les problèmes de Big Data n’y étant pas nouveaux, et ce même si tous les utilisateurs n’en ont pas forcément conscience.

Avec l’IA générative, nous avons néanmoins fait un saut gigantesque. L’IA se démocratise massivement et l’hybridation de ses technologies (IA symbolique, prédictive, générative…) permet une explosion des cas d’usage. Cela va à la fois répondre et contribuer en même temps à l’explosion des flux de données. Dans un monde de plus en plus distribué et interconnecté, avec le cloud, l’IoT et le Swarm, les vulnérabilités se multiplient. L’IA va être vitale pour répondre à cette complexité exponentielle.

Il est essentiel pour les RSSI de s’approprier ces technologies, qui ne remplaceront pas leur expertise (les risques d’hallucinations restent encore élevés) mais vont leur faire gagner du temps. Au-delà des outils, cela va d’ailleurs nécessiter une vraie réflexion de refonte des processus. Dans les grandes entreprises, ce mouvement est déjà engagé.

Il y a en revanche des risques croissants pour les PME.

En effet, du côté des criminels et des groupes organisés, on voit toute une économie se développer autour de la création d’outils de type « DarkGPT » ou « WormGPT » facilitant des attaques massives grâce à des mails et des sites miroirs de phishing quasi parfaits, accessibles même à des cybercriminels peu expérimentés.

Ces derniers vont voir leur niveau de dangerosité progresser drastiquement. A leur tour, ils vont s’attaquer à des entreprises qui étaient auparavant sous les radars de l’activité criminelle, les petites entreprises et indépendants, qui n’ont pas l’expertise et les outils pour se protéger.

Une autre menace que nous observons est l’avancée inquiétante des deepfakes, qui commencent à avoir des degrés de réalisme dangereux, même pour les personnes averties, et risquent de porter le social engineering à niveaux jusqu’alors inconnus. C’est une révolution stratégique qui se prépare ici.

 

3) Comment les entreprises peuvent elles se préparer ?

Nous entrons dans un monde où il devient impossible de faire pleinement confiance à tout ce qu’on lit, voit ou entend dans le monde numérique : texte, image, audio et bientôt vidéo. Cela va avoir d’énormes conséquences sur la vie professionnelle, mais aussi privée. En quelques clics, il est aujourd’hui possible de créer une photo ou une vidéo incriminante contre n’importe qui, et de les utiliser pour lancer des opérations de déstabilisation massives, ciblées ou via les réseaux sociaux.

Côté professionnel, les sociétés vont devoir s’équiper pour détecter ces menaces, et s’en prémunir, notamment avec la généralisation de processus de filigranes numériques (watermarking)  et de signatures électroniques. L’enjeu n’est pas tant le développement des technologies d’identité – elles sont au point – que le renforcement de la surveillance et des procédures de contrôle.  Malheureusement, le temps où les vies professionnelle et personnelle étaient disjointes est fini, notamment pour le management. Dans un contexte mondial de plus en plus multipolaire et hyper concurrentiel, nous assistons à l’intensification d’une véritable la guerre économique de 5e génération. Il va falloir s’y préparer.

Pour le grand public, on peut craindre également une explosion des menaces. Avec les outils d’IA, les moyens d’escroquerie, de désinformation ou d’extorsion sont à la portée de n’importe qui, et peuvent viser n’importe qui. A l’heure actuelle, même sans IA, la plupart des internautes sont vulnérables. La majorité des populations ne sont pas prêtes.

Cette révolution ne sera pas tant technologique que comportementale. A terme, cette révolution de l’IA va nécessiter une profonde transformation sociétale.