Dans le contexte géopolitique actuel, de nouvelles menaces émergent, ouvrant la voie à des formes de conflits inédites. Combats de haute intensité, cyberattaques et autres guerres informationnelles, autant d’événements qui accélèrent l’ambition des Armées de développer et d’intégrer des technologies innovantes au service des besoins opérationnels contemporains. Ainsi, pour maintenir leur avantage stratégique et leur capacité opérationnelle au plus haut niveau, les Armées évoluent et se modernisent afin de déployer des systèmes numériques de pointe. La surcharge informationnelle créée par ce flux de données nécessite le déploiement d’Intelligences Artificielles pour supporter la prise de décision sur les théâtres d’opération. Alors comment adapter ces technologies et leurs usages, inspirées pour partie du monde civil, tout en respectant les contraintes inhérentes à leur cadre d’emploi ? 1 . Une attente forte des Armées Inscrite en priorité numéro 1 dans le document de référence de l’orientation de l’innovation de Défense DrOID 2023, et réaffirmée par la création en mars 2024 de l’Agence Ministérielle pour l’Intelligence Artificielle de Défense, l’IA dans les Systèmes Critiques répond à de multiples besoins des Armées, qui s’articulent autour de plusieurs axes principaux. Outil d’aide à la prise de décision : Tout d’abord, l’IA doit pouvoir aider à la prise de décisions en planification et en conduite des opérations. Par une analyse rapide et approfondie des données, elle doit permettre d’anticiper les évolutions du champ de bataille et les menaces. Elle doit ainsi contribuer à offrir une meilleure compréhension de l’environnement opérationnel aux commandeurs pour leur permettre de prendre les décisions optimales. Facilitateur de la coordination des forces et du combat collaboratif: L’IA doit également renforcer l’efficacité opérationnelle en facilitant la coordination entre les différentes unités, supportant ainsi le combat collaboratif, et en assurant l’interopérabilité avec les alliés, tout en maintenant la capacité à opérer de manière autonome. Technologie souveraine, résiliente et de confiance: Enfin, une autonomie dans la conception des systèmes d’IA doit permettre de garantir la souveraineté de nos solutions critiques et éviter une dépendance préjudiciable aux pays étrangers. Pour garantir des systèmes robustes et sécurisés qui assistent le soldat et le commandement sans créer de vulnérabilités, il est essentiel d’avoir une IA de confiance et sécurisée. Mais comment la définir, et dans quel cadre éthique et juridique s’inscrit-elle ? 2 .Un cadre éthique et juridique Definitions IA frugale : Une IA frugale désigne un système d’intelligence artificielle conçu pour fonctionner efficacement en utilisant un minimum de ressources matérielles et énergétiques. Un tel système est donc optimisé pour avoir une empreinte réduite, que ce soit en termes de puissance de calcul, de mémoire ou de stockage de données. IA transparente : Une IA transparente fait référence à un système d’intelligence artificielle dont les mécanismes de prise de décision et les processus internes sont ouverts et compréhensibles par les utilisateurs. Elle vise à fournir une visibilité sur la manière dont les données sont traitées, les modèles sont construits et les conclusions sont tirées. Elle est donc auditable et certifiable et permet de détecter les biais. IA boîte noire : Une IA boîte noire désigne un système d’intelligence artificielle dont les processus internes de prise de décision sont opaques et non explicables aux utilisateurs. Les utilisateurs peuvent voir les données d’entrée et les résultats de sortie, mais ils ne peuvent pas facilement comprendre comment ou pourquoi l’IA est parvenue à ces résultats. Cette opacité peut poser des problèmes en termes de responsabilité, de confiance et de conformité réglementaire, en particulier dans des domaines critiques. Une IA de confiance est définie par plusieurs critères essentiels qui garantissent sa fiabilité et sa conformité aux valeurs éthiques et aux exigences des Armées, dans un cadre juridique établi au niveau international et européen. L’une de ses principales qualités est d’être « Human Centric ». L’homme ne doit pas être seulement « dans la boucle » comme un point de passage obligé d’un processus, mais l’IA doit être façonnée selon son mode de pensée pour être une extension de son action. Malgré l’autonomie des systèmes d’IA, en France, c’est à l’humain qu’incombe la responsabilité liée à la prise de décisions critiques. Cette nécessité définit naturellement trois autres critères essentiels : la transparence des systèmes, l’intelligibilité et l’explicabilité des prédictions faites par l’IA. Ce sont donc des systèmes qui doivent pouvoir être certifiables et auditables. Au-delà d’une validation statistique et par échantillon d’une boite noire, un système transparent fait l’objet d’une validation préalable formelle et réfutable sur l’ensemble de son cadre d’emploi. Enfin, et grâce aux caractéristiques définies précédemment, elle doit permettre la détection des biais, condition indispensable à la qualification d’une IA éthique et responsable. 3. RAID – Reasoning AI for Decisions Sur un théâtre d’opérations, de multiples paramètres doivent être pris en compte simultanément dans un contexte instable et de haute intensité. Planifier, affiner, exécuter : ce cycle incarnant les fondements de toute action militaire à chaque niveau de décision tactique doit s’exécuter de plus en plus rapidement. Agir sur la charge cognitive au moment de la prise de décision est donc nécessaire pour une action rapide et efficace. RAID, Reasoning AI for Decisions, permet de délivrer une réponse rapide et fiable à un problème complexe en reprenant les mêmes étapes que le cerveau humain : recueillir des données, valider et traiter ces données et produire la meilleure décision possible. Répondant à toutes les contraintes inhérentes à l’intégration d’IA dans les Systèmes Critiques, RAID est à la fois robuste et souveraine, transparente et intelligible, éthique et responsable. Au cœur de ce système : Xtractis® , une IA unique, inventée et créée par le Professeur Zyed ZALILA, codéveloppée et éditée par la société française INTELLITECH. Positionnant l’Humain au cœur du système, cette collaboration homme-machine garantit une supériorité stratégique et opérationnelle en possédant toutes les caractéristiques d’une IA de confiance. « Le positionnement du problème, c’est l’être humain, la résolution du problème c’est Xtractis®, et l’audit, la certification et le déploiement, c’est l’être humain. » Zyed Zalila Enfin, l’une des spécificités de cette technologie est de pouvoir être embarquée. En effet, une fois le système de règles validé, le modèle fonctionne de manière frugale, même en environnement contraint. 100% française dans sa production, elle est développée sur les serveurs Eviden Bullsequana, la dernière technologie du constructeur européen Eviden.