Modifié

Première mondiale, l'UE adopte une loi encadrant l'intelligence artificielle

Le Parlement européen a finalisé son projet de loi pour encadrer l'intelligence artificielle et son utilisation
Le Parlement européen a finalisé son projet de loi pour encadrer l'intelligence artificielle et son utilisation / 12h45 / 1 min. / le 13 mars 2024
Le Parlement européen a adopté mercredi des règles pour encadrer les systèmes d'intelligence artificielle (IA) comme ChatGPT, une législation unique au niveau mondial. Les milieux de la tech craignent que le texte ne freine l'innovation.

Le commissaire européen chargé du dossier, Thierry Breton, s'est félicité sur X du "soutien massif" du Parlement (523 voix pour, 46 voix contre) à ce texte qui établit les "premières règles contraignantes et complètes au monde pour une IA fiable".

Ce projet de loi avait été présenté par la Commission européenne en avril 2021. L'apparition fin 2022 de ChatGPT de la start-up californienne OpenAI, capable de rédiger des dissertations, poèmes ou traductions en quelques secondes, lui a donné une nouvelle dimension.

Ce système a révélé l'énorme potentiel de l'IA mais aussi ses risques. La diffusion de fausses photos ou vidéos, plus vraies que nature, a ainsi alerté sur le danger de manipulation de l'opinion.

Transparence et droits d'auteur

La législation prévoit une approche à deux niveaux. Les modèles d'IA à "usage général" devront respecter des obligations de transparence ainsi que les règles européennes en matière de droit d'auteur.

Quant aux systèmes considérés comme à "haut risque" - utilisés par exemple dans les infrastructures critiques, l'éducation, les ressources humaines, le maintien de l'ordre -, ils seront soumis à des exigences plus strictes. Ils devront par exemple prévoir la mise en place d'une analyse d'impact obligatoire sur les droits fondamentaux.

Les images, textes ou vidéos générés artificiellement (deep fakes) devront être clairement identifiés comme tels.

Surveillance de masse interdite

Le texte interdit aussi les systèmes de notation citoyenne ou de surveillance de masse utilisés en Chine, ou encore l'identification biométrique à distance des personnes dans les lieux publics. Sur ce dernier point, les Etats ont toutefois obtenu des exemptions pour certaines missions des forces de l'ordre comme la prévention d'une menace terroriste ou la recherche ciblée de victimes.

La législation européenne sera dotée de moyens de surveillance et de sanctions avec la création d'un office européen de l'IA, au sein de la Commission européenne. Il pourra infliger des amendes allant de 7,5 à 35 millions d'euros, en fonction de l'infraction et de la taille de l'entreprise.

"Nous réglementons le moins possible, mais autant que nécessaire", a écrit sur X le commissaire européen Thierry Breton.

"Règles floues"

Mais le monde de la tech s'est montré circonspect. "Nombre de ces nouvelles règles restent floues et pourraient ralentir le développement et le déploiement d'applications innovantes", estime ainsi Boniface de Champris, un responsable Europe du CCIA, un lobby du secteur.

De leur côté, l'Observatoire des multinationales (France), Corporate Europe Observatory (Belgique) et LobbyControl (Allemagne) redoutent que les lobbys affaiblissent la mise en oeuvre des règles entourant l'IA.

Les 27 États de l'UE devraient approuver le texte en avril avant que la loi ne soit publiée au Journal officiel de l'UE en mai ou juin.

ats/miro

Publié Modifié