L’IA Deviendra Légitime Quand Elle Sera Certifiée

AI will be considered legitimate when it can be certified

A quoi va servir l’IA ? Et d’ailleurs, qu’est-ce que l’IA ? Sous ce terme générique d’Intelligence Artificielle se cache une réalité assez simple désormais à appréhender : l’IA au sens général, une super puissance artificielle capable de penser avec supposément plus d’intelligence que nous n’existe pas.

A ce titre, je vous recommande le dernier ouvrage de Luc JULIA qui nous explique très bien les raisons de la grande supercherie actuelle sur l’IA. Ce qui existe aujourd’hui et va se développer de plus en plus rapidement est une myriade de solutions spécialisées pour assister, augmenter ou remplacer l’homme dans certaines tâches intellectuelles.

Comme les robots physiques qui sont dédiés à une tâche sur laquelle ils ont été programmés pour la remplir mieux que nous (vitesse, précision, répétition, environnement dangereux, etc…), les IA spécialisées sont des robots virtuels qui ont pour vocation à décider mieux que nous. Notre environnement professionnel, social et culturel se numérise et de nombreuses applications vont émerger.

Elles auront pour ambition de décider « la vérité ». Et si cette application a un potentiel impact éthique, nous pouvons imaginer que sa légitimité va dépendre de son niveau d’intégrité intrinsèque : mais qui va garantir ça ? 

Je suis le Président d’une société qui développe une solution dédiée à l’optimisation des processus de production automatisés dans l’industrie. Afin de pouvoir « apprendre » des conditions historiques de production, et proposer des actions d’ajustement des paramètres de pilotage des machines, nous utilisons une technologie de calculs basée sur des probabilités qui fait partie de la catégorie de l’Intelligence Artificielle.

Et tous les jours nous augmentons les équipes de production en répondant à certaines de leurs questions ou en leur offrant des prescriptions au bon moment. Quelle est la légitimité de notre solution ? En quoi les modifications de réglages de paramètres que nous proposons sont «vraies». La réponse tient en deux points : la performance de recommendation de notre système repose sur la qualité des données historiques et la justesse mathématique de nos algorithmes.

Les usines nous fournissent une grande quantité de données, imparfaites mais assez descriptives des conditions de production. On reconstitue un jeu d’apprentissage sain, incomplet et parfois imprécis mais suffisant pour être utilisé avec un bon niveau d’efficacité.

Ensuite, les algorithmes que nous utilisons sont basés sur des formules de recherche d’optimum probabiliste qui ont une grande qualité : ils sont explicables. En gros nous sommes capables par principe de justifier mathématiquement que le résultat offert est juste. Et dans notre cas le meilleur possible avec la qualité des données disponibles.

On offre une solution avec une grande légitimité. Et d’autres sociétés développent des applications avec la même démarche de recherche avant tout de légitimité par la justesse. Je ne parle plus de vérité mais bien de justesse.

En revanche, beaucoup d’applications actuelles mises sur le marché utilisent d’autres technologies. L’IA la plus commentée est centrée sur une technologie d’apprentissage : les réseaux de neurones. Depuis la redécouverte de théories enfouies datant des années 80, beaucoup de chercheurs et d’ingénieurs se sont lancés dans l’utilisation avancée de cette théorie en espérant faire des miracles.

Mais aujourd’hui il faut bien constater que loin des miracles attendus, ils ont abouti à des résultats très médiocres : taux de précision faible pour une consommation énergétique pharaonique. Pourtant des applications utilisent quotidiennement des réseaux de neurones entrainés.

Et là on touche le deuxième point sensible : entrainer sur quelles données ? En gros, ça dépend du contexte, mais derrière la plupart des données utilisées il n’y a pas de systèmes numériques industriels mais bien des gens qui viennent qualifier à la main les données. Parfois ce sont des experts (comme les radiologues), mais souvent ce sont des anonymes, embauchés à la mission sur les plateformes dites de turc mécanique.

Donc on se trouve dans une situation où on utilise des systèmes apprenants peu performants, donc soumis à beaucoup d’erreurs, entrainés sur des données dont on ne maitrise pas la réelle qualité. Comment peut-on faire confiance à de telles solutions ? Elles n’ont aucune légitimité pour la plupart, et leurs biais de conception ou d’apprentissage les rendent au mieux inutiles, au pire dangereuses.  

Nous ne devons pas rester naifs devant la situation, hypnotisés par les bonimenteurs de toute sorte. Soit un système apporte une vraie justesse estimable et nous fournit une vraie aide dans nos tâches, soit il est tout simplement inacceptable par manque de qualité. Qui voudrait voler dans des avions non fiables ? Les objets que nous utilisons ont un niveau minimum de certification. La nourriture industrielle que nous consommons, beaucoup des services que nous utilisons sont contrôlés et certifiés

Il faut sortir du fantasme numérique, et rapidement considérer les IA comme des outils, et offrir aux utilisateurs un moyen d’identifier la qualité de justesse de ces outils. Il va nous falloir établir rapidement un système d’évaluation et de certification des IA. Après avoir commencé à protéger nos données avec le RGPD, il faut continuer en nous protégeant de leur utilisation médiocre.

Sans légitimité l’IA devient un vrai danger.

Ressources associées: