La transparence sur les algorithmes est essentielle pour renforcer la confiance des utilisateurs dans les systèmes d’IA

Chief Expert Software chez Siemens, Thomas Hahn préconise une approche réglementaire de l’IA harmonisée et basée sur les risques au niveau européen.

Comment définiriez-vous les principaux objectifs d’un cadre réglementaire de l’IA ?

Le cadre réglementaire de l’IA doit garantir que les systèmes d’intelligence artificielle sur le marché européen sont sûrs et respectent les lois et les valeurs de l’UE. Il crée également une sécurité juridique pour faciliter l’investissement et l’innovation dans l’IA. Nous saluons l’approche basée sur le risque. Par exemple, l’utilisation de l’IA dans les chaînes de montage des usines est communément acceptée car elle implique des gains d’efficacité. À l’inverse, par exemple, l’utilisation de la robotique dans la vie quotidienne peut être considérée comme une classe de risque plus élevée. Il est également nécessaire de prendre en compte les réglementations existantes et d’éviter la duplication des règles qui pourrait être contre-productive.

Quels sont les risques liés à l’IA ?

L’introduction de l’apprentissage automatique dans les secteurs réglementés pourrait avoir pour effet de modifier le comportement d’une machine, ce qui conduit à un certain nombre de questions concernant l’impact de cette transformation sur la réglementation.  L’autre grande question est celle de l’explicabilité des algorithmes. La performance grandissante des algorithmes au fil des années s’est accompagnée d’une difficulté croissante à expliquer le rationnel de leur fonctionnement interne, ce qui constitue un véritable enjeu au niveau juridique. Des recherches supplémentaires sur l’explicabilité sont encore nécessaires et essentielles pour renforcer et maintenir la confiance des utilisateurs dans les systèmes d’IA.

La réglementation est parfois perçue comme un frein à l’innovation. Quelle est votre opinion à ce sujet ?

Il est difficile de donner une réponse tranchée. Il est nécessaire de trouver un équilibre entre la nécessité de renforcer la confiance dans l’intelligence artificielle sans tomber dans le piège de la destruction de la puissance d’innovation de cette technologie. Nous sommes tous impliqués dans les processus de discussion et de consultation de la Commission européenne sur les politiques en la matière, par exemple sur l’IA Act, et en particulier sur la proposition de créer des bacs à sable réglementaires pour l’IA, qui visent à tester des projets du monde réel avec des cohortes d’entreprises dans un environnement contrôlé.

Cette approche collaborative entre le gouvernement, l’industrie et d’autres parties prenantes a été déclenchée par l’importance d’établir la transparence et la confiance dans l’IA.

À l’heure actuelle, différentes stratégies émergent au sein des entreprises et même des pays en ce qui concerne l’IA. Quelle serait, selon vous, la meilleure approche ?

La création d’une approche commune et harmonisée au niveau européen (voire mondial) serait hautement souhaitable. Il existe déjà de nombreuses initiatives dans ce sens. Quelques exemples : sous l’égide du Digital Trust Forum, nous travaillons actuellement sur un projet de label « Trust AI » qui garantirait l’acceptabilité de l’IA de manière claire et transparente. À titre personnel, je suis également impliqué dans le programme français Confiance.ai et dans les initiatives Data/Industrial AI de BDVA/Gaia-X, qui encouragent l’industrialisation de l’IA dite de confiance dans les produits ou services industriels critiques. 

Comment les gouvernements peuvent-ils parvenir à réglementer une intelligence artificielle en constante évolution ?

Il est dans notre intérêt à tous d’inclure des experts (du gouvernement, du monde universitaire, de l’industrie, des utilisateurs, des fournisseurs, de la société, etc…) dans l’élaboration de la réglementation de l’IA. Pour une raison simple : tous ces acteurs ont un intérêt commun à ce que l’IA soit sûre et fiable.