En avril 2021, la Commission européenne publiait son projet de règlement sur l’IA. En ce début d’année 2022, elle peine à faire émerger le projet en raison de la complexité technique, politique et juridique du dossier.
En avril 2021, la Commission européenne publiait son projet de règlement sur l’intelligence artificielle, aussi appelé l'Artificial Intelligence Act (AIA).  Toutefois, en ce début d'année 2022, la Commission européenne peine à faire émerger le projet en raison de la complexité technique, politique et juridique du dossier. 
En effet, l’Union Européenne perd en avantage concurrentiel et son dynamisme est affaibli en tant qu'entité régulatrice de l'intelligence artificielle, alors qu'elle était pourtant perçue comme "cheffe" de file en la matière. Retour sur les éléments de contexte d'un règlement très attendu.
Tout d'abord, au sein du Parlement européen, les retards sont dus à plus de six mois de querelles politiques entre les législateurs devant prendre la tête du dossier. 
Sans surprise et dans la lignée des travaux préparatoires, la définition en droit des systèmes d'IA reste problématique et difficile.
Si les chercheurs et data scientists s'accordent facilement à définir l'IA comme un système de "machine learning", les hommes de textes en théorie peinent à qualifier et appréhender en droit cette technologie, rendant difficile un régime juridique efficace et uniforme pour l'ensemble des pays de l'Union européenne.
De plus, les députés s'inquiètent des conséquences des technologies de l'IA sur la vie privée. Malgré l'intention est de tenir le vote final en novembre 2022, les députés continuent de rechercher la juste voie, naviguant entre les nombreux enjeux de l'IA, aussi bien en termes de respect des droits fondamentaux, d'élaboration de principes éthiques, de responsabilisation des acteurs, de transparence, mais aussi d'enjeux de marché et de concurrence, tous associés à ces technologies.
Par exemple, reste en débat pour l'instant l'attribution de la responsabilité de la décision algorithmique finale (à attribuer en amont, au producteur, ou en aval, au fournisseur). 
Par ailleurs, les députés veulent interdire les systèmes de notation sociale qui tentent d’évaluer la fiabilité des citoyens en fonction de leur comportement ou de leur personnalité. Ils demandent ainsi des garanties solides lorsque des outils d’intelligence artificielle sont utilisés par les services répressifs et se révèlent globalement contre la surveillance de masse. En ce sens, l'utilisation de systèmes de reconnaissance biométrique en temps réel a principalement monopolisé le débat public et les Etats européens ne s'accordent pas sur les exceptions, notamment au contrôle des frontières dans le domaine du terrorisme.
Pour respecter la vie privée et la dignité humaine, les députés demandent donc une interdiction permanente de la reconnaissance automatisée des individus dans les espaces publics, faisant remarquer que les citoyens ne devraient être surveillés que lorsqu'ils sont soupçonnés d'un crime. Le Parlement souhaite, en ce sens, interdire l'utilisation de bases de données privées de reconnaissance faciale ainsi que toute police prédictive basée sur des données comportementales. 
La Commission européenne a proposé un ensemble de critères pour mettre à jour la liste des applications dîtes "à haut risque". Cependant, cette dernière n'a pas fourni de justification pour la liste existante, entraînant toute mise à jour difficile. Les valeurs d'éthique sous-jacentes risquent d'être âprement débattues tout au long du processus législatif. 
Les intérêts des parties en présence révèlent une constante tension entre les besoins d'innovation de l'industrie, comme certains États membres l'ont déjà souligné, et la garantie de la protection des consommateurs au sens le plus large, y compris l'utilisation des données personnelles.
Dans ce contexte, les entreprises européennes craignent par exemple que les règles relatives à l'éthique, la confiance et à la transparence, issues du projet de règlement ne soient pas effectivement intégrées dans les normes internationales. Rares sont les grandes entreprises américaines par exemple à même de souhaiter mettre à la lumière les modèles à l'origine de décisions algorithmiques, parfois non exemptes de biais discriminatoires. Aussi, les pays tiers recourent facilement à des techniques spécifiques de collecte de données, comme celle du scrapping, au détriment des entités réalisant des traitements de données personnelles conformes au RGPD
Durant cette attente, d’autres juridictions de pays étrangers et tiers à l'Union européenne, comme la Chine et le Brésil, ont réussi à adopter leur législation. Cela ne simplifiera pas les écarts concurrentiels en la matière, puisqu'adoptée une règlementation permet aux professionnels et au public créant ou utilisant des systèmes d'intelligence artificielle de s'adapter aux attendus, à l'état de l'art et donc au marché international.

En avril 2021, la Commission européenne publiait son projet de règlement sur l’intelligence artificielle, aussi appelé l'Artificial Intelligence Act (AIA).  Toutefois, en ce début d'année 2022, la Commission européenne peine à faire émerger le…
Je gère mes abonnements push
Les informations recueillies sont destinées à CCM Benchmark Group pour vous assurer l’envoi de votre newsletter.
Elles seront également utilisées sous réserve des options souscrites, par CCM Benchmark Group à des fins de ciblage publicitaire et prospection commerciale au sein du Groupe Le Figaro, ainsi qu’avec nos partenaires commerciaux.
Le traitement de votre email à des fins de publicité et de contenus personnalisés est réalisé lors de votre inscription sur ce formulaire. Toutefois, vous pouvez vous y opposer à tout moment
Plus généralement, vous bénéficiez d’un droit d’accès et de rectification de vos données personnelles, ainsi que celui d’en demander l’effacement dans les limites prévues par la loi.
Vous pouvez également à tout moment revoir vos options en matière de prospection commerciale et ciblage. En savoir plus sur notre politique de confidentialité ou notre politique Cookies.

source

Catégorisé:

Étiqueté dans :