Depuis son entrée en vigueur en août 2024, et avec sa première mise en application le 2 février prochain avec l’interdiction des IA interdites, l’AI Act soulève autant de questions que d’inquiétudes.
Adopté par les instances de gouvernance européennes dans le but de définir un cadre règlementaire permettant d’éviter les dérives des IA, de garantir la protection des citoyens et le respect des droits des personnes, cette loi impose des règles strictes, adaptées aux différents usages de ces nouvelles technologies.
Être en conformité avec l’Ai Act est donc, pour les industriels et les fournisseurs d’IA, un énorme défi à relever, et tend à être perçu comme un véritable frein à l’innovation, mettant en difficultés les entreprises européennes sur la scène internationale face à des concurrents moins, voire pas du tout, contraints par un tel cadre juridique.
Se conformer à l’AI Act devrait donc signifier être moins performant ? Moins compétitif ? En réalité, il n’en est rien, au contraire.
Si nous nous concentrons sur les systèmes critiques à haut risque, ceux pour lesquels la régulation et les exigences sont les plus fortes, plusieurs principes sont fondamentaux.
Détection des biais et transparence : une exigence clé pour les systèmes critiques
En premier lieu, l’un des risques majeurs d’une IA réside à générer, ou augmenter des biais. La notion de « Biais » mérite avant tout d’être définie dans le cadre de cette technologie et de la règlementation.
« Biais : différence systématique de traitement de certains objets, personnes ou groupes par rapport à d’autres »[1].
Des données de mauvaise qualité utilisées comme données d’apprentissage pour un système, génèreront un modèle comportant des erreurs, des biais. Mais si le système utilisé ne permet pas à l’humain d’avoir accès à ce modèle, de le comprendre, et de corriger ce biais, l’erreur persiste, se répète, et s’aggrave.
En revanche, un modèle dit « transparent »[2]expose sa mécanique à l’humain. Il est compréhensible et contrôlable. Ainsi, une fois le biais détecté et corrigé, le modèle va pouvoir être à nouveau entraîné et s’améliorer. Une boucle d’apprentissage continue se met alors en place, permettant de développer un modèle de plus en plus performant, et de plus en plus robuste. Par ailleurs, la transparence est également l’une des exigences majeures de l’AI Act, dans l’univers des systèmes critiques à haut risque.
Elle est l’élément clé de la confiance. Aujourd’hui, beaucoup de solutions intégrant de l’IA essaient d’atteindre ce précieux sésame, qui reste encore une prouesse technologique.
Au-delà de la validation statistique et tests d’échantillons d’un SIA opaque (« boîte noire »), un SIA transparent subit une validation préalable formelle et réfutable dans l’ensemble de son cadre d’emploi. Il s’agit de vérifier l’intégralité des connaissances embarquées dans le SIA, formant sa logique interne décisionnelle, et si elles sont adaptées et suffisantes au cadre d’emploi.
Avoir un système nativement transparent est le moyen le plus sûr pour garantir la transparence attendue, en conformité avec le cadre règlementaire de l’AI Act, mais également nécessaire à la confiance accordée à une solution basée sur un système d’IA. En effet, dans le cadre des systèmes critiques à haut risque, la notion de responsabilité tient une part importante, voire prioritaire. Fournir ce type de solution engage pleinement la responsabilité de l’entreprise envers le client, surtout lorsqu’il s’agit d’un outil d’aide à la prise de décisions.
Conformité réglementaire : un levier de compétitivité, pas un frein
Ainsi, se mettre en conformité avec l’AI Act est en effet une obligation légale à destination des acteurs européens. Pour autant, permettre de délivrer des systèmes plus performants, plus sûrs et explicables, n’est-ce pas, contrairement à ce que certains acteurs industriels craignent, se positionner en concurrents solides fournissant des systèmes sécurisés et dignes de confiance ?
Respecter le cadre réglementaire ne représente donc pas un frein à l’innovation. Au contraire, s’orienter vers des solutions performantes, robustes et éthiques en intégrant dès la conception les exigences de transparence, de traçabilité, et de gestion des risques permet de développer des systèmes plus fiables et mieux adaptés aux attentes des utilisateurs finaux, en particulier pour les systèmes critiques. Cela permet non seulement d’anticiper les évolutions réglementaires futures, mais aussi de créer un avantage concurrentiel fondé sur la confiance et la qualité.
Aujourd’hui, nous ne devons pas choisir entre conformité et performance.