L’intelligence artificielle (IA) a provoqué un bouleversement majeur dans le monde des entreprises, touchant tous les secteurs et les technologies. Mais comme toute nouvelle technologie, les opportunités d’amélioration sont aussi nombreuses que les risques d’usages controversés. Compte tenu des répercussions profondes qui s’annoncent déjà, il nous faut comprendre où va l’IA et comment elle va alimenter la croissance des entreprises.

Nous abordons tout cela dans un entretien avec Thierry Caminel, CTO pour l’IA chez Eviden. Avec une forte expertise en apprentissage automatique, IA générative et graphes de connaissances, Thierry a dirigé la Communauté d’experts en IA du groupe Atos et piloté des projets pour des clients dans divers secteurs et régions.

Nous nous sommes entretenus avec lui pour explorer l’avenir de l’IA : Où en sommes-nous aujourd’hui ? Quelles sont les principales tendances qui se dessinent à l’horizon ? Et comment les entreprises peuvent-elles se préparer aux changements à venir?

Voici ce qu’il a partagé.

1) Il y a 1 an, vous souligniez l’émergence rapide de la technologie des agents intelligents et publiiez un livre blanc sur leur mise en œuvre concrète. Où en sommes-nous aujourd’hui ?

Aujourd’hui, c’est l’ensemble de l’écosystème informatique qui évolue vers des technologies d’agents autonomes.

Les fournisseurs de grands modèles de langage (LLM) améliorent leurs modèles avec des fonctionnalités qui facilitent l’intégration de ces agents : meilleure prise en charge JSON, meilleure décomposition de problèmes en sous problèmes, et des capacités d’appel de fonctions plus robustes. Certains commencent même à implémenter des accélérateurs dédiés, voire directement des agents, comme Swarm chez OpenAi ou AutoGen chez Microsoft.

En parallèle, les fournisseurs de solutions informatiques développent des catégories d’agents qui permettent une interaction en langage naturel avec leurs systèmes, en remplacement ou en complément parfois des outils RPA ou BPM. On assiste dans le même temps à une montée en puissance de startups et de communautés Open Source qui se concentrent sur des frameworks à code réduit ou sans code, conçus pour ces agents.

Comme prévu, la capacité des agents à interagir avec les postes de travail et les interfaces utilisateurs se développe aussi. Une capture d’écran est aujourd’hui suffisante à certains agents pour comprendre et exécuter en toute autonomie des tâches d’assistance à l’utilisateur. On en voit les prémisses avec la dernière version du modèle Claude d’Anthropic, qui intègre nativement de telles capacités.
Cette évolution va de pair avec l’émergence de modèles de langage plus petits mais néanmoins puissants, capables de fonctionner sur des smartphones ou des ordinateurs de bureau, dont bon nombre sont aujourd’hui dotés de GPU.

Aujourd’hui, des modèles comportant 8, voire 3 milliards de paramètres, rivalisent avec les performances des modèles à 150 milliards de paramètres d’il y a seulement 18 mois ! Cette évolution va permettre aux agents d’opérer partout, de communiquer et de collaborer de manière transparente pour automatiser de multiples tâches humaines. Ce domaine n’en est qu’à ses débuts mais il progresse rapidement.

2) Quelles perspectives envisagez-vous pour les deux ou trois années à venir ? Doit-on s’attendre à de nouvelles évolutions disruptives ?

Trois ans, dans le domaine de l’IA, c’est une éternité ! Nous sommes toujours dans une phase d’innovation exponentielle.

Une tendance claire, néanmoins, est l’intégration croissante de capacités de ‘raisonnement’ dans les agents, c’est à dire de la capacité à décomposer des tâches en sous-tâches, et d’utiliser les outils appropriés pour chacune d’entre elles, à l’instar d’un humain. Cela va permettre à l’IA de traiter des demandes beaucoup plus complexes, telles que celles nécessitant une analyse stratégique ou le traitement de grands volumes de documents.

Il existe également une convergence intéressante entre les différents types d’IA. Alors que le Deep Learning et les LLM excellent dans la reconnaissance des formes, ils peinent à ‘résoudre ’ de véritables problèmes. Cependant, en associant le Deep Learning à des techniques d’IA symbolique – comme par exemple les graphes de connaissances – on peut bâtir des solutions hybrides particulièrement puissantes. Des domaines tels que la santé ou la finance, qui disposent déjà d’ontologies très détaillées, pourraient en bénéficier rapidement. Dans cette même logique d’hybridation, DeepMind fait des progrès très intéressants. Par exemple, lors de récentes compétitions de mathématiques, des résultats impressionnants ont été obtenus en combinant LLM et solveurs de preuves mathématiques.

L’évolution vers la multimodalité est une autre tendance forte, l’IA étant de plus en plus capable de traiter l’audio en temps réel et, bientôt, la vidéo.

Cependant, la tendance disruptive majeure se situe sans doute dans le domaine de la robotique. L’hybridation de différents types d’IA va bientôt permettre de commander à la voix de multiples outils robotiques : depuis les bras robotisés jusqu’à des robots humanoïdes qui seront probablement disponibles demain pour quelques milliers d’euros. Des entreprises connues comme Tesla ou plus confidentielles, comme 1X, Agility Robotics ou Figure, réalisent des progrès rapides dans ce sens. Même Hugging Face développe désormais des frameworks open source pour la robotique.

3) Pour se préparer à ces évolutions, que doivent faire les entreprises ? Quelles pourraient être selon vous les priorités stratégiques ?

Paradoxalement, leur priorité devrait sans doute être de sensibiliser et de former massivement leurs collaborateurs – y compris le management – à ces avancées technologiques rapides et à leurs implications sur leurs métiers.

Contrairement aux idées reçues, l’IA est aujourd’hui davantage portée par les avancées technologiques que par les cas d’usages, qui suivent rapidement, mais dans un second temps.

Pour l’entreprise, il est essentiel d’avoir une vision prospective afin d’anticiper les impacts sur les solutions, les processus et les modèles métiers, et de se préparer de manière proactive, plutôt que de devoir réagir après coup, de manière défensive.

Notre époque à haute intensité technologique demande de remettre l’anticipation technologique au cœur de la réflexion stratégique. Des changements majeurs se profilent à l’horizon. Les gains de productivité qu’offrent aujourd’hui les usages classiques de ChatGPT, Copilot, Gemini ou autre ne sont, à mon avis, qu’une vaguelette par rapport aux prochaines vagues d’innovation qui pourraient déferler.

L’impact sera bien plus important qu’un simple gain de productivité de 30% pour les cols blancs. On le voit déjà dans le domaine de la génération de logiciels. Par exemple, Google déclare que 25% de son code est désormais généré par IA un code qui permet lui-même de créer davantage de solutions d’IA. On a de l’IA qui génère de l’IA pour faire de l’IA !

On a là une boucle de rétroaction qui pourrait conduire à des phénomènes d’accélération récursive. Ce n’est qu’un exemple parmi d’autre : les applications potentielles dans le domaine de la chimie, de la biologique, de l’ingénierie, et autres, sont innombrables.

Nous ne sommes encore qu’au tout début d’une nouvelle phase de disruption, avec des conséquences sociétales potentiellement majeures, et qui doivent être appréhendées dès maintenant.