Mes lectures pour préparer le dossier de Cerises sur l’Intelligence Artificielle ont bousculé quelques-unes des certitudes que j’avais sur le développement scientifique et technique, sur son caractère inéluctable et positif. Jamais je n’ai pensé que les usages qui en étaient faits étaient neutres, indépendants des rapports de force existants. Mais, hormis en biologie ou en médecine, et notamment à propos du génome humain, je ne m’étais jamais interrogé sur l’arrêt de la R&D sur certains sujets pour des raisons éthiques. Tout en doutant de notre capacité collective à l’empêcher !
Ce que j’ai compris des réseaux de neurones à apprentissage profond, c’est que la programmation humaine consiste à reproduire le fonctionnement du cerveau humain, à partir des études en neurosciences, pour obtenir un apprentissage et un fonctionnement autonomes de la machine (tout en s’appuyant sur les travailleurs du clic tels que les a décrits Antonio Casilli).
Ce ne sont pas les capacités actuelles des machines qui m’interrogent :
- aujourd’hui les systèmes sont moins intelligents qu’un chat, dont le cerveau possède 760 millions de neurones et 10 000 milliards de synapses ;
- obtenir la puissance du cerveau humain demanderait de connecter une centaine de milliers de processeurs graphiques au sein d’un ordinateur géant, 25 MW de puissance électrique quand le cerveau humain consomme 25 watts !
- les enjeux résident dans leur destination et dans leurs usages, dans la démocratie et la capacité collective à agir sur les développements et usages de l’IA dont les principaux acteurs sont Facebook, Google, Amazon, Nvidia, Microsoft, Intel, Samsung, Alibaba, Huawei,..
Par contre m’interrogent les perspectives à moyen et long terme. Faut-il s’autoriser à reproduire les mécanismes de l’intelligence humaine compte tenu des problématiques qui en résultent :
- l’autonomie croissante des machines dans leurs apprentissages et dans leurs décisions. Au point qu’on s’interroge sur notre capacité à comprendre demain les découvertes qui seront faites par nos systèmes.
- l’intelligence humaine est fondée sur deux types de mécanismes, la réaction en réponse à des stimuli, ce que font actuellement les machines, et un mécanisme délibéré qui fait intervenir notre modèle du monde et notre capacité à planifier. Aujourd’hui c’est ce second mécanisme qui est en développement au sein de l’IA.
- La complexité croissante des machines rend de plus en difficile la compréhension de leurs décisions. Faut-il accepter de la machine ce que nous acceptons d’un médecin, d’un artisan ou d’un pilote de ligne en leur faisant confiance ?
- Dans son ouvrage Yann Le Cun se dit convaincu que les machines posséderont un jour et une forme de conscience et des émotions, au même titre que la machine biologique qu’est le cerveau humain.
Faut-il considérer positifs et inéluctables ces développements, quand le modèle du monde qui prévaudra pour l’IA sera défini par les majors qui dominent actuellement ? Comment accepter des décisions sur la seule base de la confiance à la machine qui la produit ? Et si demain les machines possèdent une conscience et des émotions, qui pourrait avoir le droit de les déconnecter ? Finalement construire des machines reproduisant le cerveau humain et donc l’intelligence humaine, n’est-ce pas ouvrir une boîte de Pandore ?
Sans réponses à ces questions, j’en viens à penser qu’il serait sans doute urgent qu’un débat s’ouvre le plus largement possible sur l’éthique de ces développements.
Olivier Frachon
- Notamment « Quand la machine apprend » de Yann Le Cun Éditions Odile Jacob autour duquel j’ai rédigé cet article
A lire également
Quid de l’organisation révolutionnaire ?
Le conflit pour faire démocratie
Rennes, une citoyenne à la mairie