2007-01-06

 

Retour au test de Turing...

Je reviens sur le sujet de l'intelligence artificielle que j'avais abordé cet été...

En 1985, Daniel Dennett avait soutenu que le test de Turing était un test maximal. Si un ordinateur passait le test de Turing, on ne pourrait nier qu'il soit doté d'intelligence. On pouvait se disputer sur le sens de tests moins exigeants, mais il semblait évident qu'une machine capable de faire la conversation avec un humain serait au moins aussi intelligente que cet humain. Dennett citait d'ailleurs Descartes, qui affirmait dans le Discours de la méthode que jamais les machines «ne pourraient user de paroles, ni d'autres signes en les composant, comme nous faisons pour déclarer aux autres nos pensées» :

« Car on peut bien concevoir qu'une machine soit tellement faite qu'elle profère des paroles, et même qu'elle en profère quelques-unes à propos des actions corporelles qui causeront quelque changement en ses organes : comme, si on la touche en quelque endroit, qu'elle demande ce qu'on lui veut dire; si en un autre, qu'elle crie qu'on lui fait mal, et choses semblables; mais non pas qu'elle les arrange diversement, pour répondre au sens de tout ce qui se dira en sa présence, ainsi que les hommes les plus hébétés peuvent faire. »

Ce que je trouve intéressant dans ce passage de Descartes, c'est qu'il n'envisage pas que l'on puisse traiter matériellement des informations au même titre que des impressions sensibles. Car le principe des ordinateurs actuels, c'est de réagir d'une manière mécanique à des données fournies par l'intermédiaire d'un clavier (ou autre interface). On pourrait dire que Descartes a été mauvais devin, et les partisans de l'intelligence artificielle espèrent forcément qu'il a eu tort. Mais l'erreur de Descartes pourrait être multiple. D'une part, il a pu se tromper en suggérant qu'une machine ne serait jamais intelligente. D'autre part, il a pu se tromper en affirmant qu'une machine ne serait jamais capable de produire mécaniquement des paroles apparemment sensées.

De nos jours, pourtant, avec le développement d'internet et des techniques de surveillance, on pourrait imaginer qu'un ordinateur (massivement parallèle? quantique?) aurait mémorisé un tel nombre de conversations réelles ou pourrait échantillonner en temps réel les conversations téléphoniques, les conversations captées dans la rue ou les conversations archivées sur internet de manière à fournir des réponses apparemment sensées. Ce serait la « stratégie Google » pour réussir le test de Turing. Des logiciels de traduction exploitent déjà cette possibilité entrevue depuis un moment, grâce à l'analyse statistique de textes, la constitution de bases d'exemples et à l'exploration de ressources comme internet, justement.

Mais à quoi bon réussir le test de Turing en trichant ?

Ce qui est authentiquement exigeant, du moins potentiellement, dans le test du Turing, c'est qu'il s'agit d'un test en miniature de la connaissance du monde. Nous représentons le monde par le verbe. Par conséquent, une conversation met à l'épreuve la maîtrise du monde par un locuteur. Non qu'on s'attende à ce que les gens intelligents connaissent tout du monde qui les entoure. Mais on s'attend à ce qu'ils aient des opinions sur un nombre monumental d'aspects du monde, opinions construites sur la base d'expériences personnelles ou fournies par d'autres (parents, amis, médias). C'est le fondement de ce qu'on appelle le sens commun et les informaticiens tentent justement de doter certains systèmes informatiques de cette faculté.

Sauter cette étape ne rapprocherait guère les ordinateurs de l'intelligence artificielle.

Mais cela permettrait de tester le test lui-même.

Le test sépare, d'un côté de l'écran, un joueur qui essaie d'abuser un juge et, de l'autre, un juge qui essaie de voir clair dans le jeu de son interlocuteur invisible. Nul ne met en doute l'intelligence requise pour tromper quelqu'un; on dit toujours que mentir est plus exigeant que dire la vérité, après tout...

Mais un doute persiste quant à la valeur du test en raison de la personne de l'autre côté de l'écran : le ou la juge.

Si c'était si facile de percer à jour les mensonges, il n'y aurait pas besoin de serments sur l'honneur, de polygraphes et autres détecteurs de mensonges, de sérums de vérité, etc.

Turing s'était inspiré d'un jeu d'imitation (imitation game) de son époque qui semblait prouver qu'un juge intelligent était capable de distinguer deux formes d'intelligence humaine, associées soit aux hommes soit aux femmes. A fortiori, un tel juge n'aurait aucun mal à distinguer une entité intelligente d'une autre qui le serait incomplètement ou pas du tout.

Mais la différenciation des rôles sexuels (ou sexuaux, comme dirait Guy Bouchard) était beaucoup plus marquée dans l'Angleterre d'il y a soixante ans. En 1985, Dennett trouvait encore évidente l'existence de différences facilement identifiées : « A little reflection will convince you, I am sure, that, aside from lucky breaks, it would take a clever man to convince the judge that he was a woman — assuming the judge is clever too, of course.» De nos jours, je ne crois pas que l'on puisse être si catégorique. Depuis l'avènement d'internet, des forums et du clavardage, etc., on a prouvé maintes fois qu'un homme peut se faire passer pour une femme, ou vice-versa, d'où l'observation bien connue : « On the Internet, nobody knows you're a dog. » Sans parler des prédateurs sexuels qui se font passer pour des fillettes ou des adolescentes — tout comme les policiers qui les traquent.

J'ai l'impression que, de nos jours, les deux moitiés de l'humanité se connaissent un peu mieux et ont de moins en moins de secrets (ou de domaines réservés), du moins dans certains cercles de certaines sociétés. Et comme la transgression des frontières d'antan suscite (légèrement?) moins de suspicion qu'avant, il est bien possible que le jeu d'imitation serait plus ardu maintenant.
(En passant, je me demande si Turing, qui était homosexuel, avait fréquenté des travestis, homosexuels ou non, qui auraient été en mesure de jouer l'imitation game avec plus de succès que d'autres. Turing en aurait-il conclu nécessairement qu'ils manifestaient une forme de super-intelligence ?)

Mais si ce n'est plus si simple de distinguer les hommes des femmes, faut-il conclure qu'il ne serait pas si facile de distinguer l'intelligence de sa contrefaçon?

Dans le test de Turing, il semble qu'il faille conclure que c'est le rôle du juge qui est le plus intéressant. Je ne crois pas qu'on ait proposé souvent d'en faire un critère d'intelligence : pourtant, ce serait le test ultime de l'intelligence d'une machine que de distinguer de manière fiable un humain d'une machine. (Le reverse Turing test désigne parfois les cas où un ordinateur est chargé de distinguer un humain d'une machine, grâce à l'utilisation de tests rapides dans le genre des CAPTCHA. Mais ces tests sont beaucoup plus limités que le test de Turing originel.)

Et ceci permettrait d'induire une hiérarchie des intelligences. Une intelligence artificielle de premier niveau serait capable de distinguer, en tant que juge d'un test de Turing, un humain d'une machine contrefaisant l'intelligence. Mais une IA de deuxième niveau serait capable de différencier un humain d'une IA de premier niveau. Et ainsi de suite...

Libellés : , , , ,


Comments: Publier un commentaire

<< Home

This page is powered by Blogger. Isn't yours?