Transparence et responsabilité, les enjeux de l’intelligence artificielle

Partager

L’intelligence artificielle (IA) et ses potentialités, dont le développement est extrêmement rapide, nous font vivre une véritable révolution numérique. Certaines applications pratiques sont majeures. L’intelligence artificielle améliore les calculs, les diagnostics médicaux et les prévisions (qu’elles concernent la météorologie ou le trafic routier. Elle optimise les capacités de production, renforce la cybersécurité…
Cependant, cette transformation radicale de nos sociétés, ne doit pas occulter les risques qui peuvent en découler comme :

  • le développement, par le privé, d’algorithmes qui ne sont pas soumis à la réglementation française ou européenne et souffrent d’un manque de transparence ;
  • de possibles atteintes à la vie privée, violations de la confidentialité, pertes de données ou discriminations ;
  • la question non résolue de la responsabilité en cas d’ « erreurs-machine ».

La société civile exigera, à raison, de plus en plus de transparence et de responsabilité, notamment en ce qui concerne les algorithmes. C’est pourquoi, il est nécessaire et urgent de réglementer sur l’IA.
Ce règlement devrait établir des principes généraux et fixer des normes pour son développement autour de 3 considérations fondamentales : l’investissement et l’innovation, la souveraineté numérique et les considérations éthiques et humaines.

Investissement et innovation

En février 2020, la Commission européenne a publié la Stratégie européenne sur les données et le Livre blanc sur l’Intelligence artificielle. Dans ces documents, elle considère que les investissements constituent une des clés pour accompagner le développement de l’IA. Ces investissements doivent être ciblés sur des secteurs stratégiques tels que l’environnement, la santé, les transports et la défense/ sécurité. L’Union européenne prévoit d’augmenter les investissements publics et privés pour atteindre au moins 20 Mds € par an au cours de la décennie 2020-2030. Il faut aussi investir dans les écoles et les formations professionnelles pour permettre aux citoyens européens de se "requalifier" sur ces sujets. Les PME et startups doivent bénéficier d’un soutien spécifique, afin de limiter la charge qu’une réglementation sur l’IA pourrait représenter. Enfin, renforcer les capacités d’innovation, avec des tests de référence et des infrastructures d’expérimentation solides, permettra de créer un environnement favorable.

Souveraineté numérique

Lorsqu’il s’agit de l’IA, la souveraineté et l’indépendance nationales sont en jeu. C’est depuis longtemps un sujet de préoccupation majeur pour les leaders technologiques de tous les secteurs. Les grandes entreprises, tous secteurs confondus, du commerce de détail à l’agriculture, tentent d’intégrer l’"apprentissage machine" dans leurs produits. Dans le même temps, elles connaissent une pénurie de talents en IA. Cette situation alimente une course effrénée pour attirer les meilleures start-ups en IA, dont beaucoup en sont encore aux premiers stades de la recherche et du financement.

Il est essentiel pour garantir notre souveraineté numérique de :

  • développer de nos propres applications, technologies et infrastructures d’IA,
  • construire et promouvoir dans le monde entier un modèle européen de réglementation fondé sur nos valeurs européennes.

Pour ce faire, pour mieux servir notre économie et nos citoyens, nous devons analyser les données qui alimentent l’IA en évaluant la façon dont elles sont créées et peuvent être utilisées. Cela implique des solutions souveraines de « cloud computing » et des transferts de données plus faciles, ce qui est possible grâce à la création d’espaces de données communs. À l’échelle européenne, cela pourrait prendre la forme d’un marché commun des données.
En outre, l’Europe doit saisir le potentiel que représente l’exploitation des « données non personnelles » ou données industrielles.

Considérations éthiques et humaines

L’Union européenne, et la France en particulier, sont très actives en ce qui concerne la reconnaissance des considérations éthiques et humaines.
Le Groupe d’experts de haut niveau sur l’IA, nommé par la Commission européenne en avril 2019, a ainsi défini 7 séries de critères pour garantir une IA digne de confiance  :
1/ Facteur humain et contrôle humain,
2/ Robustesse et sécurité,
3/ Respect de la vie privée et gouvernance des données,
4/ Transparence,
5/ Diversité, non-discrimination et équité,
6/ Bien-être sociétal et environnemental,
7/ Responsabilisation.
Dans cette logique, la Commission appelle, dans son livre blanc, à un « écosystème de confiance » permettant le respect des droits fondamentaux, la sécurité et la stabilité réglementaire. Depuis 2019, la France est, avec le Canada, particulièrement impliquée sur ce sujet à travers le lancement du Partenariat mondial sur l’IA (PMIA), qui vise à mettre en place une expertise mondiale indépendante sur l’IA et se concentre sur sa régulation éthique.
La France est également très active au sein du groupe de travail sur l’IA du Groupe de haut niveau des Nations unies sur la coopération numérique (HLP), qui recherche des solutions pour atténuer les risques de l’IA, notamment en exigeant l’explicabilité* des décisions et des résultats des systèmes intelligents autonomes, et en veillant à ce que les humains soient en fin de compte responsables de leur utilisation de ces technologies. Car dans la « vision française », c’est l’homme qui devrait être prioritairement tenu responsable en cas de dommages causés par l’utilisation de systèmes d’IA.
Ce point est illustré par la loi française de 1978 sur la protection des données qui stipule que la décision d’un tribunal ne peut pas être basée uniquement sur un traitement automatisé d’informations. La France prend aussi une part active aux travaux en cours autour de l’IA dans d’autres enceintes, telles que l’UNESCO et le Conseil de l’Europe.

* Néologisme qui désigne le fait que les résultats fournis par les algorithmes (de machine learning notamment) soit explicables.