Ces dernières années, les intelligences artificielles comme ChatGPT ont montré des capacités étonnantes à comprendre non seulement les mots que nous utilisons, mais aussi les émotions que nous exprimons dans nos messages. Une série d’études récentes a cherché à répondre à cette question : les IA peuvent-elles vraiment reconnaître nos émotions comme le ferait un humain ?

Les recherches montrent que les intelligences artificielles comme ChatGPT :

  • Peuvent reconnaître les émotions dans des textes et images aussi bien que les humains – parfois mieux ;

  • Sont capables de traduire des émotions complexes, comme la déception ou la frustration ;

  • Fonctionnent même dans des langues peu utilisées, ou sur des textes inhabituels ;

  • Pourraient, dans le futur, aider les professionnels de la santé mentale.

Comprendre les émotions dans les textes

Dans les conversations écrites, les émotions sont parfois explicites (« je suis triste »), mais souvent implicites. C’est là que les modèles comme ChatGPT entrent en jeu. Par exemple, l’étude de Tu et al. (2023) a montré qu’on pouvait demander à ChatGPT de repérer les émotions exprimées dans un dialogue. En combinant plusieurs types de connaissances (le contexte, les causes émotionnelles, les sous-entendus), ChatGPT a permis de construire un système beaucoup plus performant que les modèles précédents.

De son côté, Khan et al. (2025) a utilisé ChatGPT pour analyser plus de 11 000 avis négatifs sur des applications. L’objectif ? Identifier si l’utilisateur était frustré, déçu, en colère, etc. Résultat : l’IA a réussi à distinguer des émotions complexes avec une grande précision, et même à améliorer l’entraînement de modèles d’apprentissage profond (deep learning).

Reconnaître les émotions dans les images

Mais les émotions ne passent pas que par les mots. Elyoseph et al. (2023) et Refoua et al. (2024) ont testé la capacité de ChatGPT à interpréter des images de regards humains (dans un test appelé RMET). Ce test est normalement utilisé pour évaluer l’empathie. ChatGPT-4o, la version la plus récente, a obtenu des scores supérieurs à ceux des humains, et sans montrer de biais selon l’origine ethnique des visages présentés.

ChatGPT face aux humains

Une question revient souvent : ChatGPT est-il aussi bon qu’un humain pour comprendre les émotions dans un texte ? Selon Gilardi et al. (2023), la réponse est oui – et parfois mieux ! En comparant ChatGPT à des travailleurs en ligne (comme ceux recrutés sur MTurk), les chercheurs ont trouvé que l’IA était plus précise, plus cohérente… et bien moins chère.

Nasution & Onan (2024) sont allés plus loin, en testant ChatGPT dans des langues peu utilisées (comme le minangkabau). Là encore, l’IA a tenu tête aux annotateurs humains, voire les a dépassés.

Et en santé mentale ?

Dans un autre domaine sensible, la psychiatrie, l’équipe de Cheng et al. (2023) imagine des usages futurs : des IA qui aideraient les cliniciens à détecter les émotions, à évaluer l’état mental d’un patient, voire à fournir un premier soutien psychologique. On en est encore loin, mais les bases techniques sont déjà là.

Est-ce que ChatGPT comprend vraiment ?

Une dernière étude intéressante, celle de Wang et al. (2024), a voulu tester ChatGPT dans des tâches complexes, où il fallait non seulement dire si un texte est positif ou négatif, mais aussi comprendre des tournures comme « pas mauvais » ou s’adapter à des sujets inconnus. Même sans entraînement spécifique, ChatGPT s’en sort très bien – surtout quand on lui donne quelques exemples en plus (few-shot prompting).

Conclusion

Les recherches récentes le montrent : les intelligences artificielles comme ChatGPT ne se contentent plus de comprendre ce qu’on dit, elles commencent aussi à saisir ce qu’on ressent. Qu’il s’agisse de repérer de la frustration dans un avis client, de deviner la tristesse dans un regard, ou encore d’interpréter les nuances d’une phrase ambivalente, ces systèmes montrent une capacité étonnante à traiter des émotions humaines.

Bien sûr, il faut garder en tête que ces IA ne ressentent rien. Elles ne comprennent pas les émotions comme nous, elles les reconnaissent à partir de modèles statistiques et de milliards de textes. Pourtant, dans de nombreux cas, leurs réponses sont justes, nuancées, et parfois plus cohérentes que celles des humains.

Cela ouvre des perspectives intéressantes, notamment dans des domaines comme la santé mentale, l’analyse d’opinion ou la médiation en ligne. Mais cela pose aussi des questions : peut-on vraiment déléguer l’interprétation de nos émotions à une machine ? Et jusqu’où veut-on aller dans cette direction ?

Cheng, S.-W., Chang, C.-W., Chang, W.-J., Wang, H.-W., Liang, C.-S., Kishimoto, T., … & Su, K.-P. (2023). The now and future of ChatGPT and GPT in psychiatry. Psychiatry and Clinical Neurosciences. https://doi.org/10.1111/pcn.13588

Elyoseph, Z., Refoua, E., Asraf, K., Lvovsky, M., Shimoni, Y., & Hadar-Shoval, D. (2023). Can Large Language Models “Read Your Mind in Your Eyes”? JMIR Preprints. https://doi.org/10.2196/preprints.54369

Gilardi, F., Alizadeh, M., & Kubli, M. (2023). ChatGPT outperforms crowd workers for text-annotation tasks. Proceedings of the National Academy of Sciences, 120(30), e2305016120. https://doi.org/10.1073/pnas.2305016120

Khan, N. D., Khan, J. A., Li, J., Ullah, T., & Zhao, Q. (2025). Leveraging Large Language Model ChatGPT for enhanced understanding of end-user emotions in social media feedbacks. Expert Systems With Applications, 261, 125524. https://doi.org/10.1016/j.eswa.2024.125524

Nasution, A. H., & Onan, A. (2024). ChatGPT Label: Comparing the Quality of Human-Generated and LLM-Generated Annotations in Low-Resource Language NLP Tasks. IEEE Access, 12, 71876–71892. https://doi.org/10.1109/ACCESS.2024.3402809

Refoua, E., Meinlschmidt, G., & Elyoseph, Z. (2024). Generative Artificial Intelligence Demonstrates Excellent Emotion Recognition Abilities Across Ethnical Boundaries. SSRN. https://doi.org/10.2139/ssrn.4901183

Tu, G., Liang, B., Qin, B., Wong, K.-F., & Xu, R. (2023). An Empirical Study on Multiple Knowledge from ChatGPT for Emotion Recognition in Conversations. Findings of the Association for Computational Linguistics: EMNLP 2023, 12160–12173. https://doi.org/10.18653/v1/2023.findings-emnlp.813

Wang, Z., Xie, Q., Feng, Y., Ding, Z., Yang, Z., & Xia, R. (2024). Is ChatGPT a Good Sentiment Analyzer? In Proceedings of the Conference on Language Modeling (COLM 2024). https://github.com/NUSTM/ChatGPT-Sentiment-Evaluation