Dans mes discussions avec mes collègues, je suis souvent surpris par la certitude avec laquelle ils affirment qu’une IA ne les remplacera jamais. Il me semble que c’est un bon exemple de la blessure algorithmique, une nouvelle blessure narcissique – après la blessure copernicienne (la Terre n’est pas le centre de l’univers), la blessure darwinienne (l’homme est un animal comme les autres) et la blessure psychanalytique (« le Moi n’est pas le maître dans sa propre maison ») – que les IA infligent à l’humanité.
De fait, les IA font déjà au moins aussi bien que les psychanalystes, comme cela a été montré dans une étude récente. Une équipe de chercheurs sud-coréens s’est posé la question suivante : ChatGPT est-il capable de produire des interprétations psychodynamiques crédibles, comme le ferait un clinicien formé à la psychanalyse ? Pour le savoir, ils ont soumis à l’intelligence artificielle un cas clinique psychiatrique issu de la littérature, centré sur une patiente souffrant de crises d’angoisse et de dépression.
L’objectif : voir si ChatGPT peut non seulement résumer les faits, mais aussi proposer une formulation psychodynamique, c’est-à-dire une interprétation du fonctionnement psychique du patient en lien avec son histoire, ses émotions et ses conflits internes.
Comment l’étude a-t-elle été menée ?
Les chercheurs ont testé quatre types de demandes (ou “prompts”) adressées à ChatGPT :
- Un prompt simple : “Voici l’histoire du cas, propose une formulation”.Un prompt enrichi avec des mots-clés générés par ChatGPT lui-même.
- Un prompt avec des mots-clés choisis par un psychiatre.
- Un prompt combinant l’histoire et des concepts psychanalytiques classiques (comme « représentation d’objet », « cohésion du moi », « mécanismes de défense »).
À partir de chacun de ces prompts, ChatGPT a produit une formulation complète. On lui a ensuite demandé de le faire selon trois approches différentes de la psychanalyse :
– la psychologie du Moi,
– les relations d’objet,
– la psychologie du Self.
Cela a donné 12 textes différents, que cinq psychiatres cliniciens ont évalués à l’aveugle.
Qu’ont-ils découvert ?
Les résultats sont surprenants :
-
ChatGPT a réussi à produire des formulations cohérentes avec chacune des trois approches psychanalytiques.
-
Les psychiatres ont jugé la plupart des textes cliniquement acceptables, notamment ceux générés à partir de concepts psychanalytiques bien définis.
-
Le modèle de la psychologie du Self a reçu les meilleurs scores d’adéquation.
-
Étonnamment, le prompt le plus “naïf” (simple résumé) a parfois donné de meilleurs résultats que les prompts contenant juste des mots-clés.
En bref, plus le prompt donnait de cadre théorique, plus l’IA produisait un texte riche et pertinent. Cela montre que ChatGPT peut non seulement traiter l’information, mais aussi s’adapter à différents modèles psychodynamiques.
Ce que ça veut dire
Même si l’intelligence artificielle n’a aucune conscience, ni formation clinique réelle, elle est capable de générer des textes ressemblant à des analyses psychanalytiques professionnelles, si elle reçoit les bonnes instructions. Cela ouvre des perspectives pour la formation des cliniciens, la supervision, ou même des outils d’aide à la réflexion thérapeutique.
Mais attention : il s’agit d’une étude exploratoire, basée sur un seul cas, et les résultats reposent sur l’avis subjectif de quelques experts. ChatGPT n’est pas (encore) un psychanalyste, mais il peut en imiter le langage et le raisonnement, à condition qu’on lui fournisse le bon cadre.