giancarlomangiagli.it

Quelques considerations sur l’Intelligence Artificielle

AVIS AU LECTEUR

Je ne me considère pas comme un gourou de l’intelligence artificielle, et, j’ai seulement rassemblé quelques-unes de mes réflexions à ce sujet dans cet article. Je suis conscient du risque de pouvoir encourir même des banalités et des erreurs. Donc, n’hésitez pas à envoyer à mon adresse e-mail vos suggestions, corrections, ou commentaires généraux pour que je puisse l’améliorer. Cet article ne vise pas à désinformer.

INTRODUCTION

On étudie et on applique l’intelligence artificielle depuis des décennies, mais, jamais comme aujourd’hui le milieu scientifique n’est intéressé à en annoncer largement son imminence dans la vie quotidienne afin de prendre le pouvoir en bouleversant le style de vie et les habitudes occidentales.

Toutefois, cette prévision ne me convainc que partiellement parce que l’intelligence artificielle ne peut être autoréférentielle que dans certaines limites, au-delà desquelles elle doit faire face à une “réalité, encore aujourd’hui, stupidement naturelle” (pour définir un antonyme littéral de l’intelligence artificielle).

Ce que je veux dire par là, c’est que l’I.A. n’est pas une baguette magique qui transforme immédiatement ce qui n’est pas intelligent et/ou artificiel en quelque chose d’intelligent et/ou artificiel. Je vais essayer d’expliquer ces obstacles, au moyen de quelques exemples qui me viennent à l’esprit.

LES MALENTENDUS

“Bonjour, je voudrais avoir ma pension”. Certains des pensionnés prononcent cette phrase en se présentant au guichet bancaire. La réponse suivante est tout à fait correcte : “Bonjour Monsieur, je vous informe que vous êtes déjà bénéficiaire de pension. Pour de plus amples informations, vous pouvez vous adresser à l’office de sécurité sociale compétent”. Mais, une telle réponse pourrait déclencher une contre-réplique du pensionné tout à fait pas agréable.

La vie quotidienne est pleine de ces circonstances dans lesquelles l’expéditeur formule un message qui est mal compris par le destinataire, pour des raisons diverses, comme, par exemple, l’adoption d’expressions d’usage commun mais non universel, l’utilisation des phrases ambiguës dans le discours, ou, encore, une association mentale erronée entre le signifiant et le signifié du mot.

Je me souviens, à ce propos, que quand j’étais petit, j’étais convaincu que les mots “surface” et “périmètre” étaient synonymes. Aujourd’hui, encore, je confonds les mots “canapé” avec “fauteuil” et vice-versa ! (Ce sont les équivoques les moins embarrassantes que je peux raconter !).

Donc, si un être humain ne prévient pas correctement les malentendus, d’autre part un système artificiel peut-il le faire ? Et si oui, peut-on le prouver ? Peut-être on pourrait essayer tous les combinaisons d’interactions possibles entre l’homme et l’I.A.

Tout de suite, je ne suis pas si convaincu qu’un système artificiel, bien qu’intelligent, puisse en général mieux gérer les malentendus que l’être humain, mais, peut-être, qu’il peut les gérer mieux que lui dans de nombreuses circonstances spécifiques.

Par exemple, alors que les êtres humains sont tous différents entre eux, on peut essayer d’homologuer la technologie de l’I.A. pour que tous les systèmes qui l’adoptent aient des propriétés communes, comme celle d’apprendre de leurs erreurs (tous les humains ne le font pas) ou de s’arrêter en cas de doute pour effectuer de nouvelles investigations susceptibles de lever l’ambiguïté (alors que les humains agissent parfois d’instinct et se jettent) etc.

C’est dommage que cette homologation, qui permettrait de faire sur certains fronts un saut de qualité par rapport à l’intelligence humaine, à l’état actuel des choses, soit, à mon avis, difficilement réalisable en raison d’un problème qui afflige tous les systèmes et pas seulement ceux de l’I.A., dont je parlerai plus loin, c’est-à-dire l’hétérogénéité.

L’INEXPÉRIENCE

Que faisons-nous,-nous les humains, face à une expérience que nous n’avons jamais vécue ? Décidons quoi faire ! Mais, malheureusement, parfois, nous ne nous apercevons qu’à posteriori que nous avons vécu une expérience “nouvelle” sans, en effet, n’avoir pris aucune décision. Donc, on met en évidence que d’un côté il y a la capacité de s’arrêter pour changer de stratégie quand on est face à une circonstance jamais affrontée auparavant (et les machines pourraient y arriver, sans les pièges des équivoques dont j’ai parlé plus haut) d’autre côté il y a la faiblesse de s’apercevoir de la nouveauté pendant l’expérience elle-même.

Par exemple, si je suis un vendeur de boissons alcoolisées à mon premier jour de travail, je donne simplement aux clients les produits qu’ils demandent. Le lendemain, je suis poursuivi parce que j’ai vendu de l’alcool à un mineur, qui était, simplement, un client comme un autre pour moi. Le client mineur est la nouvelle expérience que j’ai découverte seulement après l’expérience elle-même.

Cette circonstance est clairement ingérable tant par l’homme que par l’I.A., sauf en demandant au monde entier (qui est plus expérimenté que moi) et à chaque instant si l’on prit la bonne décision.

Voici que l’expérience toujours limitée rend les humaines et l’I.A. faibles et cette condition est aggravée par l’hétérogénéité et l’isolement déjà cités (ces sont deux sujets dont je vais parler plus loin).

LE MANQUE DE FIABILITÉ

Qui demanderait des tâches extrêmement complexes et/ou extrêmement risquées à l’I.A. ?

La fameuse voiture électrique à pilote automatique se remplace à l’homme dans une tâche, à la fois complexe et risquée, comme la conduite ! Face à tout cela, un consommateur d’une telle voiture a juste trois choix possibles.

La première opportunité est de faire en sorte que la voiture conduise toute seule, donc, on a la plus grande confiance. Compte tenu des limites dont j’ai parlé sur l’expérience et les malentendus, je ne sais pas si c’est en général un bon choix. Peut-être le serait-il s’il n’y avait pas d’autre solution. La deuxième option est celle de l’assistance à la conduite. Mais, puisque la voiture pourrait conduire seule, vous seriez souvent tenté de tomber dans la légèreté en vous distrayant au volant, ce qui est très proche de la première option. Une forme d’assistance est celle dans laquelle la voiture impose son intervention active dans une situation qu’elle considère comme dangereuse ou omet d’intervenir dans des situations dangereuses qu’elle ne considère pas comme telles ; cela correspond à courir le risque de tomber en faux positifs et faux négatifs, générant des situations de danger potentiel. La troisième option est celle où l’homme conduit activement, avec une attitude détachée par rapport aux équipements de la voiture, en désactivant seulement les aides automatiques et, donc, pas les éventuels signaux de danger. Cette dernière est, peut-être, le choix le plus prudent.

Après avoir parlé d’une tâche risquée et compliquée, comme la conduite, on peut voir que même si la tâche est simple mais néanmoins risquée, on trouverait les mêmes pièges. Par exemple, effectuer un virement bancaire est une opération délicate mais pas complexe. Il faut faire attention, cependant, à la renvoyer à un assistant vocal par une demande verbale : “Giuseppe- c’est un faux nom au gout exotique- effectuez-vous un virement d’euros –x- à la coordonnée bancaire –x- ”. Et si par hasard “Giuseppe” n’a pas bien compris le montant du virement ? La correction formelle des coordonnées bancaire peut être vérifiée automatiquement mais le montant n’est pas. Dans certains contextes, donc, la fiabilité est essentielle et l’I.A. n’inspire pas confiance.

L’HÉTÉROGÉNÉITÉ

Chaque système de l’I.A. est un monde spécifique, développé avec des modalités propres, sinon même “personnelles”. Sûrement, les techniques et algorithmes se ressemblent, mais, le comportement final est fortement influencé par les choix de conception et de réalisation individuels. Ainsi, aux limites et défauts intrinsèques de l’I.A. s’ajoutent des limites et des défauts spécifiques à chaque système existant.

L’ISOLEMENT

La science (y compris la sociologie et la théorie des jeux) affirme qu’en règle générale, entre êtres humains ou associations d’êtres humains (pays, entités, entreprises, etc.), il est convenable de coopérer.

Par extension, la même réflexion se pourrait étendre dans l’I.A. Malheureusement, l’idée du projet de connecter les différents systèmes pour interagir et communiquer entre eux n’est pas encore répandue. Ils sont donc, en fait, isolés. Si l’on envisageait des langages communs, des conventions, des modalités partagées d’interaction entre les systèmes, ce serait constructif et avantageux, soit pour renforcer le secteur de l’I.A., soit pour combler réciproquement, une partie de leurs limites et défauts respectifs.

LE CHOIX PRÉMATURÉ DE L’I.A.

Le sujet que je vais décrire est, ce que je considère comme le plus important de tout l’article et a été, pour moi, la réflexion principale qui m’a donné l’occasion de l’écrire. Je commence avec une métaphore.

On soupçonne que je sois un mauvais élève, que je n’aie pas acheté les manuels scolaires, que j’aie pris quelques notes dans mes cahiers à l’école de façon imprécise.

Pour réussir mon examen, si je vais étudier et apprendre rapidement les sujets la nuit avant, au moins au pire, je pourrais reprendre mes notes, mais je ne comprendrais peut-être pas grand-chose. Je pourrais alors me confier à un système de l’I.A. qui, instruit sur la base d’échantillons de notes scolaires bien pris, m’aide à ranger les notes et, peut-être, récupérer les parties manquantes que je n’ai pas notées. Le résultat final serait probablement médiocre, mais j’arriverais à obtenir la suffisance à l’examen.

Au-delà de la métaphore, je fais le parallèle avec les applications informatiques traditionnelles et - bien que je ne veux pas faire de généralisations- j’ai comme l’impression que dans ce domaine le monde grouille de produits médiocres, qui n’ont pas été développés en suivant des modèles, règles et des bonnes pratiques. Par contre, ils sont très différents les uns des autres, fermés, isolés et même assez défectueux. Les consommateurs, par habitude, n’y prêtent pas attention. Mais, beaucoup de personnes qui travaillent semblent (consciemment ?) ignorer cette réalité qui est tout à fait évidente.

L’intelligence artificielle, en en parlant, est l’étape suivante par rapport aux modèles classiques de l’informatique (déterministes et schématiques) et le monde de la recherche scientifique a dignement suivi le bon parcours parce qu’il a fait mûrir le premier pas suffisamment pour s’occuper du second. Une grande partie du marché, en revanche, n’a pas, à mon avis, fait mûrir le premier pas et je ne comprends donc pas avec quelle crédibilité et fiabilité il veut se “révolutionner” avec l’I.A. De la même manière que l’étudiant qui n’a pas bien fait ses devoirs veut impressionner l’enseignant en tentant de dissimuler sa propre réussite à l’examen.

Une entreprise, par exemple, qui a mal abordé l’informatique classique, fera la même chose avec l’I.A. Dans le même contexte d’entreprise peuvent coexister des secteurs qui travaillent avec l’informatique classique pas bien faite et qui, en conséquence, prouvent envie pour les autres secteurs fournis de l’I.A. mais, qui, à son tour, ne fonctionnent pas bien. Certains managers pourraient avoir l’idée de remplacer des secteurs mal informatisés ou mal organisés par des systèmes basés sur l’I.A. Je parie qu’ils ne fonctionneraient pas et qu’ils résoudraient d’anciens problèmes et en créeraient autant que les nouveaux.

Pour en revenir à la métaphore, si l’étudiant n’apprend pas à prendre ses notes d’abord, il ne sera jamais capable, même avec les astuces les plus sophistiquées, d’être suffisamment préparé pour pouvoir répondre pleinement à toute question posée à l’examen.

Cette problématique de l’approche est encore plus marquée dans le domaine de l’automatisation et de la robotique, c’est-à-dire dans la période où le travailleur - même dans le secteur tertiaire - sera totalement remplacé par les robots et/ou par l’I.A. Les robots automatisent des procédures tangibles (manipulation physique d’objets) ou intangibles (les logiciels). Si ces procédures ont été mal conçues et sont inefficaces et fallacieuses depuis l’origine, les robots ont tendance à être peu utiles car ils ne servent qu’à augmenter la vitesse et à diminuer les erreurs occasionnelles. Paradoxalement, un procédé mal conçu est quotidiennement et constamment rectifié par l’intervention humaine par la connaissance et l’expérience (dans certaines limites), ce qu’un robot ne pourrait pas faire. Il ferait ainsi échouer son travail, toujours plus vite que l’être humain.

Je pense aussi à la bureaucratie, pour raconter un autre exemple et revenir à l’I.A. Si un manager veut aujourd’hui remplacer un bureaucrate par une machine de l’I.A., il doit faire face à toutes les limites que j’ai décrites dans les paragraphes précédents (qui ne sont d’ailleurs pas exhaustives) et, en plus, à des procédures bureaucratiques qui fonctionnent très mal. L’I.A. ne peut pas combler les défauts d’une mauvaise organisation qui se reflète sur le système d’information (et vice-versa), mais peut se substituer en partie à l’intellect humain s’il a de bases solides sur lesquelles se déplacer.

Je développe un sujet. Il s’agit de la délivrance d’un certificat, pour lequel actuellement on se rend auprès de l’organisme, on se fait reconnaître, on remplit des formulaires, on paie l’éventuelle taxe, puis on reçoit le document. Soudain, on veut introduire l’I.A. Mais, de quelle manière ? Supposons qu’on le fasse en créant des assistants virtuels qui reconnaissent l’utilisateur, amènent à remplir des formulaires, font signer, font payer etc. En dehors des coûts exorbitants et du temps indéfini pour développer une procédure aussi complexe, il y aura enfin beaucoup d’erreurs et de défauts qui ne seraient pas assez efficaces pour justifier leur existence. À ce moment-là, les mauvais managers au lieu de se regretter et de revenir en arrière, forceraient les techniciens à tout faire bien, dépenseraient plus d’argent et essayeraient de cacher les échecs par des méthodes indignes. Par contre, au lieu de ces approches inconsidérées, le processus bureaucratique devrait être modifié avec l’informatique traditionnelle. Par conséquence, l’intelligence artificielle ne pourrait servir que de manière limitée et ciblée (par exemple, comme assistant vocal de support en matière de dispositions) ou ne pourrait pas servir pas du tout. On pourrait créer un processus informatique par lequel un individu peut faire des opérations sur des sites Web simples avec son propre ordinateur et être certifie par la signature numérique.

En résumé, lorsque la base sur laquelle l’I.A. doit être mis en œuvre est peu solide, celle-ci échoue. C’est-à-dire si l’organisation préexistante et l’infrastructure informatique classique qui l’accompagne ne deviennent pas vertueuses auparavant, appliquer l’I.A. est un choix prématuré et déconseillé. Il ne faut pas remplacer les travailleurs, mais, plutôt, peut-être, il faut remplacer les managers !

PROPOSITIONS À COURT TERME POUR L’APPLICATION DE L’I.A.

En résumé, je pense que l’I.A., assistée par l’homme si nécessaire et associée à d’autres formes de fonctionnement, peut atteindre un bon résultat pour répondre à des besoins spécifiques et circonscrits (pas pour tout nécessité).

L’I.A. peut être très utile pour conduire un robot qui fait le ménage, pour deviner les préférences et faire des propositions commerciales, pour faire des prédictions sur lesquelles baser des choix pas extrêmement stratégiques, ou bien pour le jeu d’échecs, pour aider un professionnel (médecin, avocat, chercheur, etc.) à explorer et à croiser rapidement et de manière capillaire certaines sources de connaissances de manière à extrapoler rapidement des contenus d’intérêt. Ils existent d’innombrables autres cas. Qu’est-ce que toutes ces idées ont en commun ? Le fait qu’il s’agit de champs d’application sans risque ou de champs d’application où, s’il y a risque, ils ne servent qu’à soutenir l’être humain qui prend la décision finale. Pour donner un exemple : j’ai entendu parler d’un établissement de crédit qui fait apposer aux clients, toujours en présence de l’employé de banque, une signature graphométrique avec le contrôle automatique de validité (comme vérification de correspondance avec la signature originale). Eh bien, apparemment, le contrôle est paralysant et parfois il méconnaît des signatures authentiques. À mon avis, si le système se limitait à signaler à l’employé des anomalies éventuelles, sans être bloquant, il serait beaucoup plus utile.

Je me sens d’admettre, comme seule exception, l’emploi de l’I.A. autonome lorsque l’aide de l’être humain n’est pas possible. Par exemple, (je ne sais pas à quel point c’est vraisemblable mais il est pour rendre l’idée), si dans un avion civil de ligne, le pilote et le copilote pendant le vol ils ont un malaise, l’action d’un pilote automatique, même avec tous les risques éventuels, pourrait devenir l’unique salut pour les passagers.

En conséquence, à court terme, il convient, à mon avis, d’utiliser l’I.A. dans les cas où l’autonomie de la “machine” (c’est-à-dire l’absence de l’homme) est d’autant plus grande que le risque et vice-versa.

Soit données C “convenance”, A “ autonomie” et R “risque”, la formule est C = 1 - (A * R). Toutes les variables sont des nombres réels compris entre 0 et 1 et la convenance dans l’utilisation de l’I.A. est C > 0,5 (Je dois avouer que j’ai énoncé un concept banal, mais j’ai toujours rêvé de pouvoir écrire un concept banal comme on le lit dans plusieurs articles et d’écrire la formule insignifiante du concept banal !).

PROPOSITION À MOYEN OU À LONG TERME POUR L’APPLICATION DE L’I.A.

Tout d’abord, je propose, au-delà de l’I.A., d’améliorer et de diffuser la culture et la sensibilité de l’informatique, tant chez les développeurs que, surtout, chez les managers. Il devient essentiel pour obtenir des produits finaux qui soient efficaces, conformes aux règles, aux bonnes pratiques et également préparés à l’interaction avec d’autres systèmes (par exemple, parmi le API open data). Ce serait le terrain fertile sur lequel étendre les développements de l’I.A.

En ce qui concerne l’intelligence artificielle, je propose que, pour enrichir le seuil d’autonomie de ces systèmes, même dans des contextes risqués, on commence à rassembler les forces de tous les producteurs. Ils dévoient prendre des initiatives précises, dont deux découlent naturellement de toutes les considérations que j’ai faites dans cet article :

En ce faisant et en unissant les connaissances, on pourra maîtriser une bonne partie des problèmes de malentendu, d’inexpérience et de manque de fiabilité.

Sur cette dernière proposition, je me rends compte qu’il y a des problèmes de confidentialité et d’autres implications en matière de sécurité, mais je crois que nous pouvons glisser le défi en remplaçant les informations spécifiques en d’autres informations génériques et anonymes, sans effacer la valeur intrinsèque.

Le fait de conceptualiser l’intelligence artificielle comme un modèle qui imite tout à fait la copie fanée d’un seul cerveau humain est très limitant. Par contre, si on conçoit un méga cerveau donné de l’union et de la combinaison de connaissances et d’expériences de multitudes de systèmes de l’I.A., on peut vraiment révolutionner ce domaine. Cela aiderait à surmonter certaines limites de la singularité des individus humains avec les vertus d’une communauté homogène et coopérative, même si elle est immatérielle et artificielle.

(traduction de l'italien de Verangela Viscuso)