| ARTE | Archives | Tout sur Archimède |
| Emission du 13 avril 1999 |
Alexis Drogoul
(retranscription intégrale du reportage)
Alexis Drogoul
Je m'appelle Alexis Drogoul, je suis chercheur au
laboratoire d'informatique de l'université Paris VI et je travaille sur des systèmes qui
se situent à la frontière entre l'intelligence artificielle et la vie artificielle et la
robotique.
Ce que vous venez de voir est un robot fourmi qui
sait se déplacer sur ses six pattes. C'est l'exemple même du type des systèmes sur
lequel nous travaillons en collaboration avec des industriels ou d'autres chercheurs du
monde entier.
Ici, les techniques que l'on utilise permettent de
modéliser, en fait, chacune des fourmis de la colonie avec ses propres comportements,
éventuellement ses propres envies, ses propres buts permettent également de modéliser,
donc, les comportements qu'elle va avoir à l'égard des autres fourmis, à l'égard de
son environnement. On peut voir, ici, les oeufs, la nourriture, etc...
Et à partir de là, en faisant interagir ces fourmis artificielles, on
essaie de se montrer capable de reproduire aussi fidèlement que possible le comportement
collectif de la colonie. A partir du moment où on reproduit un système sur informatique,
ça veut dire que l'on est capable d'en concevoir un qui soit similaire mais pas tout à
fait semblable... qui utilise les mêmes propriétés et notamment les propriétés
d'auto-organisation que l'on a chez la fourmi.
Quand on voit une colonie de fourmis fonctionner, on imagine
assez bien qu'on puisse transformer toutes ces petites fourmis en des petites choses
mécaniques et que l'on soit capable, donc, de créer, non pas des robots fourmis
artificiels mais des colonies de robots fourmis artificiels. La colonie robot que
lon souhaite mettre dans le laboratoire est donc constituée d'un ensemble de
robots.
Vous avez dix robots qui sont, chacun, dotés d'une autonomie au niveau du
comportement et de la mobilité mais qui vont devoir mener à bien des taches, ensemble.
Qui vont devoir, par exemple, explorer leur environnement, se communiquer éventuellement
les résultats de leurs explorations afin de permettre aux autres robots de gagner du
temps, tout simplement, en allant se promener dans le laboratoire. Et une de leur tache
essentielle, ce sera, comme une colonie d'insectes ou comme un groupe social d'animaux
dans un environnement qui leur est inconnu, ça sera, tout simplement, de survivre.
Un robot, c'est une pièce
mécanique avec éventuellement des roues, avec éventuellement des pattes, un programme
informatique dedans qui effectue le contrôle de ces roues et de ces pattes. Grosso modo,
en fait, c'est une enveloppe charnelle qui n'a strictement rien avoir avec les systèmes
que l'on qualifie le plus volontiers d'intelligents, c'est à dire les êtres humains.
Donc, toute la question et, je dirais, toute la légitimité de l'intelligence
artificielle, repose sur une position que l'on peut ou non accepter mais à mon avis que
l'on est obligé d'accepter si on souhaite construire des machines intelligentes, c'est
que pour une grande part, l'intelligence d'un système artificiel est dans l'oeil de
l'observateur.
Cest à dire, la personne qui, par exemple, va voir fonctionner un robot et en le voyant
fonctionner, en le voyant éviter les obstacles, en le voyant se promener dans
l'environnement, va commencer à penser que le robot met en oeuvre une stratégie, met en
oeuvre une intelligence quelconque, eh bien, cette personne-là se trompe peut-être
complètement. Le robot est tout simplement pourvu d'un certain nombre d'actes réflexe
qui lui permettent d'entretenir cette illusion de comportement complexe. Cette illusion
là est au coeur de l'intelligence artificielle.
Et maintenant, c'est vrai qu'on
arrive à aller encore un peu plus loin puisque ce petit animal non seulement, je dirais,
bon, ressemble à une peluche, euh, avec toutes les caractéristiques d'une peluche, mais
en plus, elle va être dotée d'un certain nombre de comportements dont certains pourront
même être relativement autonomes, donc non liés à la volonté directe de l'enfant.
L'exemple le plus simple étant quand on souhaite endormir ce type de petit robot. Il va
refuser de temps en temps de s'endormir. Le refus va marquer l'émergence d'une
personnalité. C'est tout simplement quelque chose d'aléatoire mais que l'on va
immédiatement interpréter comme quelque chose d'intentionnel. Ce que l'on voit ici, en
fait, c'est un prototype. Il préfigure très certainement ce que seront les jouets de
demain : des choses beaucoup plus autonomes, des choses qui pourront interagir de façon
sans doute plus fine avec leurs utilisateurs donc les... principalement les enfants... des
choses qui pourront peut-être communiquer les unes avec les autres, qui pourront
peut-être former des communautés à part entière, comme on peut le voir un peu avec les
tamaguschis, par exemple, au Japon qui depuis quelques années en tous cas, mais
maintenant peuvent, par exemple, communiquer par téléphone à l'insu de leur
propriétaire.
Et même si pour l'instant, ce genre de jouet est encore très simple, on voit très bien
que tout pourrait gagner à être un peu amélioré, on est amené à la lisière entre
quelque chose que l'on fait habituellement avec des animaux domestiques, c'est à dire
leur prêter de l'intelligence, de l'intentionnalité et puis se mettre en quatre pour
eux, est quelque chose qu'on ne fait pas encore avec les machines. Quand cette limite, un
petit peu, sera franchie entre les deux, c'est à dire qu'on aura vraiment des machines
qui nous feront douter de leur statut de machine, je pense que l'on aura franchi un
énorme pas . Peut-être dans la compréhension de la vie mais sans doute et très
fortement dans la compréhension de notre intelligence, en fait, dans la compréhension de
notre façon de fonctionner vis à vis des objets qui nous entourent.