Publicités

TRIBUNE – Intelligence artificielle : pourquoi le rapport Villani manque sa cible

L’intelligence artificielle est de nouveau au centre de toutes les expectatives. Après l’immense espoir des années 70, avorté notamment faute de moyens techniques, aujourd’hui, la conjonction de la puissance de calcul, la capacité de récupérer et de conserver les données font qu’une étape qualitative semble franchie. Que ce soit pour le meilleur (la victoire décisive et surprenante d’Alpha Go contre les meilleurs joueurs humains de go) comme pour le pire (les accidents de véhicules autonomes), il n’est pas un jour qui se passe sans que les IA ne fassent la une des médias. Surfant sur cette vague médiatique, le gouvernement a donné la mission à Cédric Villani de faire un rapport sur le sujet.

Lire aussi Villani : « L’activité de chercheur et celle de startuper peuvent se renforcer »

On ne peut nier la pertinence du sujet : il est, entre autres, rappelé dans le rapport que Vladimir Poutine lui-même estime que celui qui maîtrisera les IA contrôlera le monde. Il n’en demeure pas moins que l’on peut s’interroger sur la pertinence des suggestions avancées dans ce rapport. D’ailleurs, selon moi, le principal intérêt de ce travail est de servir de point de départ pour amorcer un débat autour de cette thématique. Car ce rapport, écrit par un mathématicien, aussi brillant soit-il dans son domaine, tape largement à côté.

L’IA ne suffit pas à faire le changement

Tout d’abord cette focalisation sur l’intelligence artificielle (IA) semble complètement rater le fait que, plus que les IA en elles-mêmes, c’est leur intégration à un environnement technologique riche qui est à l’origine des plus gros impacts sur la société. Par exemple, si on considère une application de rupture de type Uber, ce n’est pas uniquement l’utilisation de l’IA qui a fait de cette application un tel « game changer ». C’est la conjonction d’une myriade de services, de technologies et d’IA qui rendent cette rupture possible. Pour Uber, on peut citer pêle-mêle les applications GPS couplées au service « Maps » de Google, le paiement sécurisé par Internet (donc, au passage, le fait qu’Internet soit accessible par tous, partout, et tout le temps), l’ubiquité de terminaux génériques (les smartphones sont plus des ordinateurs ultraportables personnels qu’autre chose), etc. L’IA n’est qu’une brique, certes importante, dans un édifice bien plus large.

De plus, cette concentration sur l’IA ne permet pas de donner de la perspective. Cela implique que nombre de pistes évoquées deviennent « hors-sol ». Par exemple, une part importante du rapport concernant les problèmes éthiques n’aborde absolument pas les problèmes de privacité, et de sécurité, des données. Or c’est une réflexion préalable sur les données qui pourra déboucher sur une utilisation éthique de ces dernières par les IA.

Des conséquences imprévisibles

Enfin les aspects « boîte noire » sont longuement discutés : il s’agit du fait que les résultats produits par les IA, s’ils sont très efficaces, ne sont pas explicables d’un point de vue humain. S’il est vrai que c’est un problème de première importance (on peut penser aux répercussions dans des domaines comme ceux de la justice ou de la santé), rien ne permet de croire que l’audit des IA soit envisageable. En effet, quasiment par définition, les techniques de l’IA sont utilisées quand on ne sait pas comment résoudre un problème par un algorithme précis (qui, lui, peut être audité). C’est faire un contresens presque complet sur ce que sont ces techniques que d’imaginer, ou de demander, qu’elles puissent être auditées. On aurait plutôt attendu dans ce rapport un cadre définissant quelles sont les utilisations envisageables, ou non, des IA en prenant en compte cet état de fait.

En conclusion, ce rapport laisse l’impression de mettre la charrue avant les bœufs en discutant avant même qu’elle existe de ses limites éthiques et de ce que devrait être l’intelligence artificielle (inclusive et diverse, éco-consciente, etc.). Il est vrai que la France et l’Europe sont en retard. Mais ce n’est pas un rapport qui va changer la donne, surtout dans ce domaine où il est très difficile de penser les implications sociales en amont. L’histoire nous a montré qu’elles sont largement imprévisibles. Il serait dangereux de se brider avant même d’avoir commencé à faire.

Frédéric Prost est maître de conférences à l’université Grenoble Alpes et chercheur au laboratoire LIG, spécialisé sur la théorie des langages de programmation, de la confidentialité et de l’intelligence artificielle.


Continuer à lire sur le site d’origine

Publicités

Laisser un commentaire

Publicités
%d blogueurs aiment cette page :