L’IA parle-t-elle vraiment et son intelligence est-elle générale ? 

Publié le

Par Jean-Gabriel Ganascia, ingénieur philosophe et professeur d’informatique, Sorbonne Université.

Depuis soixante-neuf ans qu’elle existe, l’intelligence artificielle a conquis le monde et s’impose désormais partout, ou presque. Après une esquisse de son histoire, ses récentes avancées ont été évoquées, en particulier celles tenant à la génération automatique de textes et d’images avec les modèles dits « fondationnels ». Il a alors été montré que, pour autant, l’IA générale et l’IA forte ne reposent sur rien de tangible. Il n’empêche que les développements de l’IA suscitent des inquiétudes fort légitimes qui ont été mentionnées en conclusion.

« Qu’est-ce que c’est que l’intelligence artificielle ? Cela conduit à se demander ce qu’est l’intelligence. Le terme lui-même éminemment polysémique vient de legere, c’est un verbe latin qui signifie à la fois cueillir, mais en même temps lier, rassembler. Il y a plusieurs significations au sens classique. La première : l’intelligence c’est un esprit. Le second sens c’est l’ingenium (ingéniosité) et la troisième définition est liée au traitement de l’information (central intelligence agency, intelligence services).

Mais lorsqu’on parle d’IA, le sens retenu est très clair, il a été introduit par des psychologues à la fin du 19e siècle, et il désigne l’ensemble des facultés cognitives. Sa naissance elle-même s’inscrit dans une tradition très ancienne. Elle n’a pas surgi tout d’un coup comme ça, il y a deux ans. C’est l’idée de reproduire la pensée sur des machines. Le moment où l’expression a été inventée, c’est en 1955 par un chercheur du nom de John McCarthy. Celui-ci décide de déposer un projet auprès de la Fondation Rockfeller pour organiser une école d’été en 1956 sur ce qu’il appelle l’intelligence artificielle.

« Ce qui ressort de cette première expérience, c’est que l’IA est une discipline de recherche selon laquelle tous les aspects de l’apprentissage et toutes les autres caractéristiques de l’intelligence (capacités cognitives) sont en principe, décomposables en modules si élémentaires qu’on peut fabriquer des machines pour les simuler ».

En presque 70 ans, énormément d’outils mathématiques, de logique, de psychologie, de linguistique ont été mis à contribution pour travailler sur l’intelligence artificielle.

Alors, quelles sont les sources d’inspiration ? Ça n’est pas simplement le cerveau humain, cela peut être le psychisme, l’évolution, la société, la culture, etc. Et quelles sont ces fonctions cognitives ? La perception, la reconnaissance des visages, la reconnaissance de la parole, la mémoire, les fonctions expressives et exécutives, cela couvre énormément de facultés différentes. L’IA est quelque chose de très large, de très répandu et cela a transformé le monde.

Je voudrais ici me concentrer sur une approche particulière de l’IA, ce qu’on appelle les réseaux de neurones formels, nés en 1943. Il s’agit de modéliser ce qu’on savait du cerveau au début du 20e siècle, avec les automates formels. Les neurones formels sont dans un état 0 ou 1. Il y a des connexions entre eux qui sont affectées d’un certains poids. C’est-à-dire qu’il y a des relations synaptiques entre un neurone et un autre neurone. Ceux-ci peuvent ensuite être disposés en couches. Les scientifiques McCulloch et Pitts ont démontré que si on les dispose en trois couches avec deux couches de liaisons (des liaisons entre les neurones de la première et de la deuxième couche et entre les neurones de la deuxième et de la troisième qui sont affectées d’un poids), on peut réaliser n’importe quelles fonctions logiques. Toute la difficulté est de savoir comment établir ces poids de connexion. À la main c’est très difficile, on va alors essayer de le faire automatiquement. Cela a donné lieu à beaucoup de recherches. Les scientifiques se sont cassés les dents là-dessus. En 1958, l’un d’entre eux, Rosenblatt, a trouvé un algorithme, sur des réseaux de neurones à deux couches. C’est-à-dire une couche d’entrée et une couche de sortie. On a appelé ça le Perceptron, qui ressemblait un peu à ce qu’on imaginait être la rétine. Le problème c’est que les réseaux de neurones à deux couches ne permettent pas de réaliser des fonctions très compliquées. On s’est rendu compte que c’était assez inutile, on a donc arrêté, à partir des années 1960, de travailler sur les réseaux de neurones formels.

Ceux-ci sont revenus à la mode en 1986 lorsque des chercheurs ont généralisé l’algorithme du Perceptron à des réseaux à plusieurs couches. À partir de 1992, les travaux de l’apprentissage statistique ont donné naissance à d’autres techniques d’apprentissage, en particulier ce qu’on a appelé les supports vectors machines, les machines à vecteurs de supports ou les machines à noyaux. On n’utilisait plus de réseaux de neurones formels. Il a fallu attendre 2012 pour qu’un chercheur Français, Yann Lecun, les développe non pas sur 2 ou 3 couches mais sur beaucoup de couches. C’est ce qu’on appelle les réseaux de neurones profonds. Et les résultats ont été, de façon étonnante, extrêmement satisfaisants.

« Cela a marqué la renaissance de l’intelligence artificielle à partir de 2012-2013 et c’est ce qui explique les grands succès qu’on a eus avec les machines qui l’ont emporté sur le meilleur joueur d’échecs au jeu de go ».

Alors qu’est-ce qu’on appelle l’intelligence artificielle générative qui s’est développée après ? Il s’agit de l’utilisation des techniques pour fabriquer du texte, et ce n’est pas nouveau. Cela date du début de l’IA. Prenons comme exemple le musicien français Pierre Barbaud qui, à partir de 1957, a décidé de créer des compositions musicales avec des ordinateurs. Aujourd’hui, ce qu’on utilise repose sur de nouvelles techniques fondées sur l’utilisation de réseaux de neurones formels profonds. À partir de 2014, des outils étaient en mesure de générer automatiquement des images. Comment est-ce possible ? On entraîne ces réseaux de neurones sur d’immenses quantités de textes, des centaines de milliers d’ouvrages. Ainsi, on peut faire du résumé de textes, de l’extraction de connaissances à partir de textes, des modules questions/réponses, rédiger des projets, générer des textes dans des langages artificiels, créer des sites web…

Maintenant il est opportun de se demander si les Chatbots sont doués de parole. Que sont ces agents conversationnels ? Il faut savoir que les premiers ont été réalisés par un scientifique qui s’appelle Joseph Weizenbaum en 1965, qui a imaginé fabriquer des systèmes très simples. Ces outils ont fait beaucoup de progrès à travers le temps et aujourd’hui des réalisations sont assez convaincantes. Mais si vous regardez l’étymologie, qu’est-ce que chatbots veut dire ? Chatter : c’est bavarder en anglais et bot, c’est la contraction de robot. Donc ce sont des robots qui bavardent. Est-ce que bavarder c’est parler ? En juin 2022, les tous premiers outils de génération automatique de textes ont été développés par la société Google (transformeurs). On va essayer de créer une machine qui extrait l’esprit de la langue automatiquement. C’est cette idée qu’il y a des relations invisibles entre les mots. C’est extrêmement choquant. En effet, une langue est d’abord un lexique, ensuite une syntaxe puis une sémantique. Tout cela serait inutile. Il suffirait juste d’apprendre des liens entres les mots ou des sous-parties de mots. On apprend ces modèles de langues, ensuite on va les utiliser dans différentes techniques de traitement automatique de la langue. Il s’agit de bénéficier d’une forme de sémantique qui est déterminée de façon statistique. On définit le sens d’un mot à partir de l’environnement dans lequel il se trouve.

Ces machines, sont capables de réaliser tout un tas de tâches qui peuvent faire illusion. Mais est-ce qu’elles arrivent à avoir une conscience ? Est-ce que l’on peut parler de super intelligence ? Il y a des limites à leur puissance et aux techniques qui sont utilisées.

« Je crois que les machines excèdent certaines choses mais peut-être pas partout ».

La notion de régulation, de réglementation s’est accélérée depuis décembre 2019. Il y a eu différents textes qui essayent de répondre à toutes les inquiétudes mais qui s’avèrent impuissants face à elles ».