L’AI Act est adopté : l’intelligence artificielle va changer dans l’Union européenne

 

Le Parlement européen a définitivement adopté l'AI Act, à savoir un ensemble de règles encadrant les intelligences artificielles. C'est la première au monde à avoir autant d'ampleur. Cela va changer certaines choses pour les géants de l'industrie : OpenAI, Microsoft, Google et compagnie.

Une image générée par Midjourney avec un prompt demandant une illustration d’intelligence artificielle // Source : Frandroid

C’était attendu depuis longtemps, c’est désormais acté : le Parlement européen a adopté l’AI Act, un ensemble de lois visant à réguler les intelligences artificielles au sein de l’Union européenne. Une législation « historique » selon le Parlement, de par son ampleur et son avant-gardisme.

Comment fonctionne l’AI Act ?

Peu importe le système d’intelligence artificielle dont on parle, pour qu’il soit disponible sur le marché européen, il devra respecter « certaines exigences en matière de transparence ». Cela comprend le respect du droit d’auteur, mais aussi le fait de fournir des résumés détaillés des contenus utilisés pour leur entraînement. Le texte de loi est disponible sur EUR-Lex, le portail officiel du droit européen.

Une image générée par Midjourney après lui avoir demandé d’illustrer une IA participant à un salon tech // Source : Frandroid

Par ailleurs, les images, vidéos et audios manipulés, pour se faire passer pour quelqu’un d’autre, devront être signalés comme tels. Les intelligences artificielles génératives devront être confiées à l’UE avant leur mise sur le marché. Cela signifie qu’elles devront respecter des règles de transparence : le Parlement souhaite en fait s’assurer qu’elles ne vont pas courir un danger aux citoyens. Ces IA devront naturellement empêcher la création de contenus illicites. En fait, si l’intelligence artificielle était par défaut sous le coup de la loi, notamment par rapport au RGPD, c’est la première fois que les IA génératives sont comprises dans un texte de loi européen.

Les systèmes d’IA à « haut risque »

Le Parlement européen fait dans son texte une distinction entre deux types de systèmes d’intelligence artificielle. Il y a ceux qui sont « classiques » et qui seront les plus utilisés par la population. À côté, il y a les systèmes dits « à haut risque », c’est-à-dire ceux qui peuvent avoir des impacts sur la santé, la sécurité, les droits humains, l’environnement ou encore la démocratie. C’est par exemple le cas des systèmes d’identification biométrique (reconnaissance faciale notamment). Cela dépend aussi de leur environnement d’usage : certaines infrastructures sont plus sensibles, comme les organisations politiques, les écoles, les hôpitaux, etc.

Source : Unsplash

Ces systèmes à haut risque devront « faire l’objet d’une évaluation et d’une réduction des risques, être assortis de registres d’utilisation, être transparents et précis et être soumis à une supervision humaine », précise le Parlement. Si un citoyen de l’Union européenne attaque en justice l’un de ces systèmes, il pourra recevoir des explications sur la décision du système qui l’a affecté.

Certaines IA seront interdites dans l’Union européenne

Comme le communiqué de presse du Parlement l’affirme, certaines applications basées sur l’intelligence artificielle seront interdites au sein de l’Union européenne. Cela concerne notamment « les systèmes de catégorisation biométrique utilisant des caractéristiques sensibles et l’extraction non ciblée d’images faibles sur Internet ou par vidéosurveillance pour créer des bases de données de reconnaissance faciale. » Plus généralement, tous les systèmes de notation sociale, de reconnaissance des émotions en milieu professionnel ou encore la police prédictive seront interdits.

Source : Guillaume Périgois

Un tel règlement ne va pas sans quelques exceptions. Par exemple, les systèmes d’identification biométrique en temps réel pourront être utilisés, seulement si certaines garanties sont respectées. Cela comprend des limites géographiques et temporelles ou encore l’acceptation par une autorité judiciaire ou administrative spécifique. En France, cela pourrait être la Cnil qui pourrait autoriser ou non l’usage de ces systèmes. L’idée est de pouvoir rechercher une personne disparue, ou bien de prévenir les attaques terroristes. Tandis que pour les systèmes d’identification biométriques utilisés « a posteriori », il faudrait que ce soit lié à une affaire judiciaire pénale.

Quand est-ce que l’AI Act entrera en vigueur ?

Si le texte est adopté, il doit encore être vérifié linguistiquement et juridiquement. Si l’on en croit le Parlement, l’AI Act sera adopté d’ici à la fin de la législature, soit début juillet prochain. Par la suite, elle sera publiée au Journal officiel, qui acte réellement l’entrée du texte dans la législation européenne.

L’AI Act prévoit qu’il sera applicable 24 mois après son entrée en vigueur, à quelques exceptions près :

  • 6 mois pour les pratiques interdites ;
  • 9 mois pour les codes de pratique ;
  • 12 mois pour « l’IA à usage général » ;
  • 36 mois pour les obligations des systèmes à haut risque.

Si vous voulez recevoir les meilleures actus Frandroid sur WhatsApp, rejoignez cette discussion.

Les derniers articles