Loi européenne sur l'Intelligence Artificielle (IA) : brève analyse des limites et des défis liés à la FinTech
Par : Gaby Kabue
2024-09-01 15:07:27
L'IA dans la FinTech est récemment devenue très marquante en raison de sa capacité à traiter une quantité considérable de données, permettant les prises de décision plus rapides et plus efficaces. La « notation de crédit basée sur l'IA », est l’une des applications les plus usitées de l'IA dans la FinTech permettant d’évaluer la solvabilité des emprunteurs. Cependant, la notation de crédit basée sur l'IA, comme tant d’autres applications IA, peut entraîner des biais algorithmiques, menant à une discrimination envers certains emprunteurs en fonction de caractéristiques telles que le sexe, la race, la couleur ou d'autres attributs personnels.
Publiée dans le Journal Officiel de l'Union Européenne (UE) le 12 juillet 2024 et entrée en vigueur le 2 août 2024, la loi sur l’IA de l’UE devient la première loi globale sur l'IA au monde. Elle introduit une approche proportionnée et efficace basée sur les risques, classifiant ces risques en quatre catégories : risque inacceptable, risque élevé, risque limité et risque minimal. À la lumière de la loi sur l’IA, la notation de crédit basée sur l'IA est classifiée comme un « système d'IA à haut risque » en raison de ses impacts potentiels sur les droits fondamentaux. En conséquence, la loi sur l’IA impose de stricte obligation au déployeur de systèmes d'IA à haut risque, tel que la notation de crédit basée sur l'IA, de réaliser une Évaluation de l'Impact sur les Droits Fondamentaux (EIDF) afin d'identifier et d’atténuer les risques spécifiques que ces systèmes d'IA à haut risque peuvent poser aux droits fondamentaux des personnes ou des groupes concernés.
Cependant, notre analyse révèle que la loi sur l’IA, présente certaines limitations, ambiguïtés et difficultés qui compliquent la conformité réglementaire pour les entreprises de FinTech. Par exemple, l'article 27 de la loi sur l’IA n'est pas encore entièrement clair sur le champ d'application des droits fondamentaux à considérer lors du processus d'évaluation. Une question cruciale est de savoir si tous les droits fondamentaux doivent être soumis à l'évaluation ou si le déployeur peut limiter l'évaluation aux droits fondamentaux les plus susceptibles d'être affectés par la notation de crédit basée sur l'IA.
Les limitations découlent de l'article 27(3) de la loi sur l’IA, qui stipule : « Une fois l'évaluation effectuée, le déployeur doit notifier les résultats à l'autorité de surveillance du marché [...] ». Cette disposition attribue de manière critique la responsabilité de réaliser l'évaluation au déployeur de systèmes d'IA à haut risque (tel que la notation de crédit basée sur l'IA), qui lui, a évidemment un intérêt propre dans le résultat. En conséquence, cela pourrait entraîner des conflits d'intérêts, dans la mesure où le déployeur pourrait avoir des intentions à minimiser ou à ignorer d'autres risques pour éviter des sanctions administratives ou financières. De plus, une fois l'évaluation terminée et la notification faite à l'autorité de surveillance du marché, il n'existe aucun mécanisme pour l'autorité de surveillance de faire le suivi et de confirmer ou pas si le déployeur devrait procéder ou non au lancement du système d'IA à haut risque évalué.
D'un point de vue juridique, l'état actuel de la loi sur l’IA démontre que celle-ci ne régule pas tous les aspects de l'IA. En effet, les chercheurs et les praticiens du droit continuent d'identifier les limitations et les ambiguïtés de cette loi qui pose encore des défis en matière de conformité réglementaire pour les entreprises de FinTech. Une question cruciale est de savoir si la loi sur l’IA peut effectivement réguler l'IA dans son ensemble. J.R. Simpson soutient dans son livre intitulé « AI Prevails: How to Keep Yourself and Humanity Safe » que tenter de réguler l'IA dans son ensemble serait une erreur, étant donné qu'il n'existe pas de définition claire de l'IA (ce n'est pas une entité unique) et que ses risques et considérations varient véritablement selon les secteurs. Le point de vue de J.R. Simpson s’inscrit dans le cadre de la « boite noire de l’IA », un phénomène selon lequel même les créateurs d’un système de l’IA est incapable de fournir les informations requises sur les tenants et les aboutissants du fonctionnement d’une IA. En conséquence, la régulation complète de l’IA demeure un défi.