Horizons d'émancipations.

Une série de dossiers. pour mieux (se) comprendre.

Réguler l’Intelligence Artificielle, est-ce possible ?

L’intelligence artificielle est maintenant un outil utilisé à l’échelle planétaire. Mais tous les Etats n’ont pas la même conception de la défense des libertés publiques, ni des règles à appliquer pour les outils qui relèvent du numérique. Il peut être utile de réfléchir aux moyens d’encadrer d’un point de vue législatif et politique l’IA pour qu’elle ne devienne pas une machine infernale sans aucune limite, qui mettrait en péril nos libertés individuelles, notre intimité ainsi que les libertés collectives.

Depuis deux ans, la Commission Européenne (21_06_2021) a rendu publique « l’A.I Act », un projet européen de réglementation. Cette initiative vise à encadrer l’IA de façon à la rendre digne de confiance. Le projet réglementaire est centré sur « l’humain et l’éthique ». Il s’agit de protéger les usagers et édictant 4 interdictions : 

  • Les systèmes établissant une « note sociale », qui classifient les personnes selon leur fiabilité, par exemple, et peuvent conduire à « un traitement préjudiciable ou défavorable » ;
  • Les systèmes d’identification biométrique à distance et en temps réel « dans des espaces accessibles au public à des fins répressives », y compris par les autorités ;
  • Les systèmes qui visent à manipuler par des techniques subliminales agissant sur l’inconscient ;
  • Les systèmes ciblant les personnes vulnérables comme les enfants ou les personnes handicapées.

Qu’est-ce que l’IA Act ?

Le projet de règlement de la Commission européenne sur l’IA a été proposé pour la première fois en avril 2021. Le texte vise à apporter un cadre juridique uniforme à l’usage et à la commercialisation des intelligences artificielles. Pour protéger les usagers, les IA y sont catégorisées selon la gravité des risques qu’elles posent, avec des garde-fous adaptés à chaque type. Selon des hauts fonctionnaires européens « Il est important d’aller vite. Nous avons vraiment besoin que notre législation s’adapte. » La vice-présidente de la Commission européenne Margrethe Vestager l’affirmait le 8 mai 2023 : l’Union européenne « n’a pas de temps à perdre » pour réguler l’IA. Il faut dire que la première version de l’IA Act a été présentée il y a déjà deux ans. 

Il nous semble important de ne pas opposer régulation et innovation. Au contraire un système toujours mieux encadré et respectueux des libertés publiques sera une garantie pour éviter les dérives. On pourrait suggérer que la France soit à l’initiative en créant notamment une autorité administrative indépendante (AAI) qui aurait pour mission d’empêcher que la ligne rouge ne soit franchie. Or, pour ne prendre qu’un exemple, les systèmes d’identification biométrique fortement souhaités par l’actuel ministre de l’intérieur sont déjà une dérive dangereuse. Cette autorité aurait donc la possibilité d’accepter ou de refuser certains systèmes et de rappeler à la puissance publique et aux entreprises de respecter les cadres légaux définis par le Parlement.

Mais il y a d’autres types de risques qui ne sont pas des fantasmes, comme le clonage y compris des êtres humains. Là l’enjeu ne concerne pas seulement les droits mais aussi l’éthique. Les IA génératives (ChatGPT) ingurgitent illégalement des quantités énormes de données personnelles. Cela soulève la question du droit de propriété intellectuelle.

L’IA, comme le reste, doit être contrôlée démocratiquement afin de respecter les libertés publiques et individuelles et éviter que les multinationales et les puissances financières ne contrôlent la planète et nos esprits.

Daniel Rome

Cet article fait partie du dossier :

Horizons d'émancipation

Intelligence artificielle :  boîte de Pandore ? 

L’intelligence artificielle prend une place grandissante dans nos vies. Quels progrès permet-elle de réaliser ? Quels risques comporte-t-elle? Sont-ils réels ou fantasmés ?  Les « régulations » actuelles peuvent-elles ...
Partager sur :         
Retour en haut