L’IA Deviendra Légitime Quand Elle Sera Certifiable

AI will be considered legitimate when it can be certified

A quoi va servir l’IA? Et d’ailleurs, qu’est-ce que l’IA? Sous ce terme générique d’Intelligence Artificielle se cache une réalité assez simple désormais à appréhender: l’IA au sens générale, une super puissance artificielle capable de penser avec supposément plus d’intelligence que nous n’existe pas.

A ce titre, je vous recommande le dernier ouvrage de Luc Julia qui nous explique très bien les raisons de la grande supercherie actuelle sur l’IA. Ce qui existe aujourd’hui et va se développer de plus en plus rapidement est une myriade de solutions spécialisées pour assister, augmenter ou remplacer l’homme dans certaines tâches intellectuelles.

Comme les robots physiques qui sont dédiés à une tâche sur laquelle ils ont été programmés pour la remplir mieux que nous (vitesse, précision, répétition, environnement dangereux, etc…), les IA spécialisées sont des robots virtuels qui ont pour vocation à décider mieux que nous. Notre environnement, professionnel, sociale et culturel se numérise et de nombreuses applications vont émerger.

Elles auront pour ambition de décider « la vérité ». Et si cette application a un potential impact éthique, nous pouvons imaginer que sa légitimité va dépendre de son niveau d’intégrité intrinsèque : mais qui va garantir ça? 

Je suis le Président d’une société qui développe une solution dédiée à l’optimisation des processus de production automatisées dans l’industrie. Afin de pouvoir « apprendre »  des conditions historiques de production, et proposer des actions d’ajustement des paramètres de pilotage des machines, nous utilisons une technologique de calculs basées sur des probabilités qui fait partie de la catégorie de l’Intelligence Artificielle.

Et tous les jours nous augmentons  les équipes de production en répondant à certaines de leurs questions ou en leur offrant des prescriptions au bon moment. Quelle est la légitimité de notre solution ? En quoi les modifications de réglages de paramètres que nous proposons sont « vraies ». La réponse tient en deux point : la performance de recommendation de notre système repose sur la qualité des données historiques et la justesse mathématique de nos algorithmes.

Les usines nous fournissent une grande quantité de données, imparfaites mais assez descriptives des conditions de production. On reconstitue un jeu d’apprentissage sain, incomplet et parfois imprécis mais suffisant pour être utilisé avec un bon niveau d’efficacité.

Ensuite, les algorithmes qui nous utilisons sont basés sur des formules de recherche d’optimum probabiliste qui ont une grande qualité : ils ont explicables. En gros nous sommes capables par principe de justifier mathématiquement que le résultat offert est juste. Et dans notre cas le meilleur possible avec la qualité des données disponibles.

On offre une solution avec un grande légitimité. Et d’autres sociétés développent des applications avec la même démarche de recherche avant tout de légitimité par la justesse. Je ne parle plus de vérité mais bien de justesse.

En revanche, beaucoup d’applications actuelles mise sur le marché utilisent d’autre technologie. L’IA la plus commentée est centrée sur une technologie d’apprentissage : les réseaux de neurones. Depuis la redécouverte de théories enfouies datant des années 80, beaucoup de chercheurs et d’ingénieurs se sont lancés dans l’utilisation avancée de cette théorie en espérant faire des miracles.

Mais aujourd’hui il faut bien constater que loin des miracles attendus, ils ont aboutis à des résultats très médiocres : taux de précision faible pour une consommation énergétique pharaonique. Pourtant des applications utilisent quotidiennement des réseaux de neurones entrainés.

Et là on touche le deuxième point sensible : entrainer sur quelles données? En gros, ça dépend du contexte, mais derrière la plupart des données utilisées il n’y a pas des systèmes numériques industriels mais bien des gens qui viennent qualifier à la main les données. Parfois ce sont des experts (comme les radiologues), mais souvent ce sont des anonymes, embauchés à la mission sur les plateformes dite de turcs mécaniques.

Donc on se trouve dans une situation ou on utilise des système apprenant peu performant, donc soumis à beaucoup d’erreur, entrainé sur des données dont on ne maitrise la réelle qualité. Comment peut-on faire confiance à de telles solutions? Elles n’ont aucune légitimité pour la plupart, et leurs biais de conception ou d’apprentissage les rendent dangereuses ou inutiles.  

Nous ne devons pas rester naifs devant la situation, hypnotisés par les bonimenteurs de toute sorte. Soit un système apporte une vraie justesse estimable et nous fournit une vraie aide dans nos tâches, soit il est tout simplement inacceptable par manque de qualité. Qui voudrait voler dans des avions non fiables? Tous objets que nous utilisons ont un niveau minimum de certification. la nourriture industrielle qui nous consommons est certifiée et contrôlé.

Les services que nous utilisons sont souvent maudites et certifiés. Il faut sortir du fantasme numérique, et rapidement considérer les IA comme des outils. Et offrir aux utilisateurs un moyen d’identifier la qualité de justesse de ces outils. Il va nous falloir établir rapidement un système d’évaluation et de certification des IA. Après avoir commencé à protéger nos données, il faut continuer en nous protégeant de leur utilisation médiocre.

Sans légitimité l’IA devient un vrai danger.

Transformez vos données.
Accélérez vos performances.

Parler avec un expert