Close

2020-05-05

Le livre blanc sur l’intelligence artificielle4 min read

La Commission européenne présente quelques orientations en matière d’intelligence artificielle dans le cadre de sa stratégie pour un marché unique numérique.

Le livre blanc a été publié le 19 février 2020 et il est soumis à consultation publique jusqu’au 19 mai 2020.

Qu’est-ce que l’intelligence artificielle ?

La notion étant assez floue et sans consensus scientifique sur la notion, la Commission reprend la conception qu’elle avait adoptée lors sa communication « L’intelligence artificielle pour l’Europe le 25 avril 2018 et celle adoptée dans les Lignes directrices en matière d’éthique pour une IA digne de confiance du 8 avril 2019.

La Commission insiste sur la nécessité de définir la notion d’Intelligence artificielle avec une définition « suffisamment souple pour tenir compte des progrès techniques tout en étant suffisamment précise pour garantir la sécurité juridique nécessaire ».

Un plan pour une politique industrielle

Dans son Livre blanc, la Commission européenne présente son plan pour une politique industrielle.

Par ailleurs, elle définit des orientations globales en matière de régulation de l’intelligence artificielle. Elle rappelle que le régime de protection des données à caractère personnel ou du consommateur est applicable à l’intelligence artificielle.

Elle précise, néanmoins, que ces technologies génèrent de nouveaux risques pouvant porter atteinte aux droits fondamentaux et sur la sécurité et le bon fonctionnement du régime de responsabilité.

Aussi, elle préconise d’adapter les règles préexistantes aux nouvelles technologies et de créer de nouvelles mesures.

Ces nouvelles mesures seraient imputables aux applications d’intelligence artificielle à « haut risque ». Le haut risque est déterminé en fonction du secteur (l’énergie, les transports, les soins de santé) et en fonction de l’utilisation en elle-même.

Certains usages bien que n’entrant pas dans ces catégories peuvent être considérés à risque et être soumis à la même réglementation. C’est notamment le cas de « l’utilisation d’applications d’IA dans les procédures de recrutement et dans des situations ayant une incidence sur les droits des travailleurs » et de « l’utilisation d’applications d’IA à des fins d’identification biométrique à distance et pour d’autres technologies de surveillance intrusive ».

Les réglementations juridiques applicables à l’Intelligence artificielle

La Commission n’énonce pas précisément les mesures imputables aux applications d’intelligence artificielle à haut risque, mais présente les exigences générales en vue de constituer le socle d’une future réglementation.

La Commission précise que « chaque obligation devrait s’appliquer à l’acteur ou aux acteurs qui sont le mieux placés pour éliminer tout risque potentiel », en commençant par le développeur qui est mieux à même d’éliminer les risques liés à la phase de développement et le déployeur est également en mesure de maîtriser les risques au cours de la phase d’utilisation.

Précisons que les obligations seraient applicables à toute intelligence artificielle développée dans l’Union européenne, que les acteurs économiques concernés soient ou non établis sur le territoire.

La Commission a regroupé les exigences imputables aux applications d’intelligence artificielle à haut risque six thèmes :

Données d’entraînement (veiller au respect des exigences en matière de sécurité et de protection des droits fondamentaux) ;

Conservation des dossiers et des données, notamment les « dossiers de programmation de l’algorithme et des données utilisées pour entraîner les systèmes d’IA à haut risque et dans certains cas, […] des données elles-mêmes » en vue de pouvoir vérifier la conformité des systèmes d’intelligence artificielle ;

Fourniture d’information (dans un souci de respecter les exigences de transparence et de renforcer la confiance envers les systèmes d’intelligence artificielle) ;

Robustesse et précision (en termes de fiabilité et de sécurité afin de « réduire autant que possible le risque de préjudice ») ;

Contrôle humain, qui « contribue à éviter qu’un système d’IA ne mette en péril l’autonomie humaine ou ne provoque d’autres effets néfastes » et dont l’intensité doit dépendre de l’utilisation prévue de l’intelligence artificielle et de ses incidences potentielles ;

Exigences spécifiques pour l’identification biométrique à distance, qui « comportent des risques particuliers en termes de droits fondamentaux » et dont l’utilisation doit être « dûment justifiée, proportionnée et assortie de garanties adéquates ». Pour les applications d’intelligence artificielle qui ne sont pas considérées comme étant à haut risque, la Commission préconise la création d’un label non-obligatoire, dont les exigences deviendraient contraignantes pour les opérateurs qui y souscriraient.

Si vous souhaitez avoir des précisions sur les enjeux juridiques de l’Intelligence Artificielle et être accompagné dans vos projets, contactez-nous à cette adresse : contact@articlaw.net

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

neuf − 2 =