Il semble que les psy soient des sources d’inspiration pour la recherche d’Intelligence Artificielle. Ce n’est pas tant que qu’ils soient des puits de science ou d’intelligence, mais plutôt que sur le plan formel, les échanges patient psychologue semblent faciles à modéliser

C’était en tous cas l’idée de Joseph Weizembaum lorsqu’il avait mis au point Eliza en 1966. Eliza simulait le comportement d’un psychothérapeute rogerien en reformulant systématiquement ce qui lui était dit. Le tour de passe passe est simple puisqu’il suffit de repérer des mots et de les reprendre dans la relance. La cuisine de ces substitutions peut se lire ici. On a ainsi des dialogues du type :

 

[patient] Je suis fatigué

[thérapeute] Qu’est ce qui vous fait dire je suis fatigué ?

Eliza est comme tout le monde : maintenant, on la trouve sur le réseau et il est donc facile de se faire une idée, pour peu que l’on baragouine un peu l’anglais. Elle a quelques enfants, et le petit dernier s’appelle MindMentor. MindMentor serait compétent dans des domaines aussi divers que le stress, les problèmes familliaux, les problèmes relationnels, les insomnies, les conflits… Il ne le serait pas pour la schizophrénie, la toxicomanie, la psychose maniaco dépressive mais il pourrait cependant apporter une aide. Disponible 24 heures sur 24, peu onéreux – 4 euros 5 l’heure – il se présente comme une alternative aux psychologues de chair, qui, comme on le sait, ont leurs faiblesses. Il est assisté de deux autres Intelligences Artificelles, RoboRoschach et ProvoBot.

MindMentor a été créé par deux psychologues hollandais, Jaap Hollander et Jeffrey Wijnberg, de l’ Institute for Eclectic Psychology. MindMentor est aidé par deux assistants, RoboRorschach et ProvBot. Son action est réglée sur la Programmation Neuro Linguistique, les tests projectifs, la thérapie par la provocation, la thérapie centrée sur le client et le conditionnement classique.

Il est assez évident que MindMentor n’a d’intelligence que le nom. Il s’agit ni plus ni moins d’une version animée de ce que les anglosaxons appellent les self-help programs.J’ai peine à croire que Hollander et Jeffrey Wijnberg pensent sérieusement ce qu’ils disent sur la page de MinMentor. Que ce type d’expérimentation soit intéressant, c’est évident. De là a affirmer que l’on a passé le test de Turing et que MindMentor équivaut a un psychologue, il y a une limite franchie : celle de la supercherie.

Il faut pourtant garder à l’esprit que nous approchons du moment ou il ne sera plus possible de différencier une intelligence artificielle d’un être humain. Les machines deviendront singulières c’est à dire qu’elles seront pour les humains des objets d’ attachement et des sujets de droit. Que les objets importent dans le fonctionnement psychique, dans nous le savons avec H. Searles (L’environnement non-humain), D. Winnicott (Jeu et réalité) et S. Tisseron (Comment l’esprit vient aux objets). Aux USA, Sherry Turkle théorise ces questions avec la notion de thinkable object  (objet pensable/pensant)

Nous avons à penser ces objets et ces mondes numériques, puisque, déjà, ils nous conduisent, nous assistent et nous surveillent. C’est d’autant plus nécessaire que l’espace public se transforme en contenant l’information produite par ces objets. Nos activités, traduites en informations via twitter, facebook et autres flickr, sont échangées, réservées, ou stockées modifiant du même nos façons d’être ensemble. Nous avons également à penser comment ces objets concourent à la construction de soi. Par exemple, démonter un lecteur mp3 n’apporte aucune information sur la façon dont il fonctionne, tandis que les engrenages et les rouages d’une voiture apportent quelques informations. La question est donc la suivante : comment les enfants de demain, ou de cet après-midi vont il se construire au contact d’objets à la fois plus intelligents mais aussi plus secrets ?