You are currently viewing Aux sources de l’Intelligence Artificielle  (souvenirs)

Aux sources de l’Intelligence Artificielle (souvenirs)

L’Intelligence Artificielle est aujourd’hui un des sujets tendance. Pourtant, cette terminologie n’est pas nouvelle et elle avait même disparu pendant de nombreuses années tant ses détracteurs avaient fini par convaincre que ça ne pouvait pas fonctionner. Dans les années 80, l’IA regroupait plusieurs axes de recherche : langages, techniques de modélisation de données, algorithmes, etc… LISP et Prolog étaient en concurrence pour calculer au plus vite factorielle(10) (10*9*8*7*…*1) et les techniques de reconnaissance de formes balbutiaient.

Plus tard, les résultats n’étant pas, aux yeux de certains, satisfaisants, l’IA est devenu l’Informatique Avancée, le terme étant moins présomptueux.

Bref, revoilà l’Intelligence Artificielle. 

En 1984, avec Michel Couprie (à présent Enseignant chercheur à l’ESIEE), nous avons eu le privilège de travailler avec Yann LeCun (on ne savait pas encore, ni lui, que ce serait un jour un privilège). Il nous avait présenté une idée de technique de reconnaissance de formes basée sur un concept intitulé « Perceptron » qu’il avait amélioré. 

L’idée est de considérer que les données d’entrée constituent une grille (un tableau de pixels) dont les éléments sont connectés à un « neurone » qui somme les valeurs des pixels attachés et applique au résultat une fonction (par exemple, un seuil). Cet Elément Linéaire à Seuil (ELS) couvrant quelques pixels (par exemple 4×4), il doit être combiné à plusieurs autres pour couvrir toute la grille d’origine.

On peut ensuite imaginer une couche supplémentaire de ces pseudo-neurones ayant le même effet sur la couche intermédiaire, etc… jusqu’à avoir un vecteur de sortie ou un seul élément.

Avec cette modélisation, il est alors possible de présenter une image en entrée et d’ajuster les valeurs de chaque « neurone » pour obtenir une valeur de sortie voulue.

On a alors un réseau qui apprend d’où le nom de réseau adaptatif. Il apprend par « rétro-propagation » des valeurs. Si on lui impose une valeur de sortie, l’apprentissage est guidé. Il peut « apprendre » seul si on lui indique simplement que les données d’entrée représentent plusieurs fois la même image (il « décide »  alors de la valeur de sortie).

Présenté ainsi, on comprend mieux que l’IA c’est surtout des maths et des algorithmes.

Mais en 1984, ce concept était, avec le recul, sacrément malin ! La puissance de calcul de l’époque ne permettait pas de faire grand chose. Aujourd’hui, c’est une des bases des concepts mis en oeuvre par les équipes en IA. Et la puissance des processeurs, la quantité de données manipulées et les capacités de stockage permettent des résultats impressionnants dont Internet se fait l’écho régulièrement.

Par miracle, je viens de retrouver le mémoire rédigée avec Michel Couprie en 1984. Et il est dans Calaméo….

 

PS : Yann, si tu lis ce papier, désolé il y avait un bug dans le programme de l’époque. Je viens de le trouver. Appelle moi c’est urgent 😉