" "

Conçu par Freepik

L’IA dans PsyCare ne joue qu’un rôle de soutien auprès des professionnels de la santé mentale. Elle permet de disposer d’une plateforme unique :

  • Enregistrements sécurisés et cryptés des sessions vidéo pouvant être visionnés ultérieurement ;
  • Prenez note de ce qui se passe pendant la séance ;
  • Insérer des repères qui pourraient être utiles au thérapeute pour se souvenir d’un élément saillant survenu pendant la séance ;
  • Disposer d’une barre latérale pour la détection des émotions en temps réel ;
  • Disposer de rapports et de graphiques relatifs aux notes et à l’évolution émotionnelle des patients pour une séance unique ou une période donnée.


Cela permet au thérapeute de disposer de diverses informations pouvant étayer le processus de diagnostic et de traitement, mais l’IA de PsyCare ne remplacera jamais le thérapeute lui-même.. 

L’intelligence artificielle émotionnelle utilise des technologies capables de percevoir, d’analyser et d’interagir avec les émotions humaines. Mais comment procède-t-elle ? Grâce à des méthodes avancées comme l’apprentissage profond, cette IA traite différents types de données pour interpréter les états émotionnels. La méthode la plus étudiée, et celle qui offre les résultats les plus fiables, est l’analyse des expressions faciales.

Le modèle théorique qui nous a inspirés est le Facial Action Coding System (FACS), développé par le psychologue Paul Ekman. Ce système interprète une expression et la décompose en unités d’action (UA), c’est-à-dire les mouvements musculaires individuels qui la composent. La validité de cette approche réside dans son universalité : les unités d’action sont reconnues dans le monde entier, indépendamment des cultures. Cela nous permet de disposer d’une mesure objective et en temps réel des émotions primaires, offrant ainsi aux professionnels un outil supplémentaire pour enrichir leur analyse.. 

L’IA peut être utile pour suivre diverses données et informations sur les patients au sein d’une plateforme unique afin de surveiller leur parcours de soins.

Non, l’IA ne prendra pas de décisions à la place du thérapeute et n’effectuera pas d’évaluations diagnostiques. Elle est conçue comme un outil d’aide à la décision pour le thérapeute.. 

Comme indiqué lors du cours de formation ECM « Entre humain et numérique : l’intelligence artificielle dans la pratique psychologique », organisé par le CNOP et disponible en ligne du 20 août au 31 décembre 2025, les psychologues et les psychothérapeutes pourraient bénéficier de nouvelles opportunités d’emploi :

  • Psychologues spécialisés dans la dépendance numérique et le cyberharcèlement
  • Psychotechnologues (concepteurs de nouvelles applications et de nouveaux dispositifs pour le bien-être psychologique)
  • Des psychologues développent des jeux vidéo pour un changement positif
  • Psychologues virtuels (créateurs d’environnements thérapeutiques immersifs de guérison)
  • Psychologues spécialisés en intelligence artificielle et en mégadonnées (concepteurs de chatbots et de GPT)
  • Psychologues en thérapie numérique (Ingénieurs en algorithmes transformateurs)
  • Psychologues du travail hybride humain-artificiel
  • Psychologues, chercheurs et validateurs éthiques et neuroscientifiques des technologies émergentes
  • Pour les psychologues et les psychothérapeutes : les psychothérapies de 4e génération intégreront des logiciels et du matériel de technologie psychologique.

Le cours de formation ECM « Entre humain et numérique : l’intelligence artificielle dans la pratique psychologique », organisé par le CNOP, a mis en lumière certaines compétences clés pour les professionnels de la santé mentale qui entrent dans le monde de l’IA :

  • Savoir naviguer dans la complexité, apprendre à sélectionner, interpréter et combiner les informations générées par les systèmes d’IA, développer des compétences métacognitives avancées.
  • Redéfinir la créativité, co-construite avec l’IA. Les professionnels devront filtrer les possibilités infinies offertes par les systèmes génératifs pour ne retenir que celles qui correspondent à leur propre vision. En ce sens, la créativité demeure intrinsèquement humaine, empreinte de sensibilité et d’affectivité.
  • Apprendre à penser avec l’IA, développer une nouvelle compétence cognitive, tout en préservant sa capacité d’agir et son autonomie intellectuelle, tout en se laissant soutenir par ces nouveaux outils.

Les professionnels de la santé mentale ne peuvent être remplacés par des technologies d’IA utilisées sans supervision car elles présentent certaines limites :

  • Biais algorithmiques et culturels, principalement dictés par les méthodes statistiques sur lesquelles ils reposent.
  • Opacité algorithmique : les systèmes d’IA sont entraînés sur de vastes ensembles de données qui reflètent inévitablement les biais historiques, culturels et contextuels de la réalité dont ils sont issus.. 
  • L’obéissance excessive, alors que le travail des psychologues/psychothérapeutes consiste parfois aussi à mettre le patient/client dans une position qui lui permette de se remettre en question.

De plus, plusieurs études affirment que la manière d’être du thérapeute, exprimée par le concept d’écoute incarnée, est particulièrement bénéfique au patient et influencée par l’orientation théorique du thérapeute, tout en étant ancrée dans son histoire personnelle (Stange Bernhardt I., Nissen-Lie HA & Rabu M., 2020). Par conséquent, l’accordage émotionnel, la présence et l’authenticité du thérapeute font toute la différence dans l’efficacité des interventions psychothérapeutiques, des aspects qu’une IA ne possédera jamais, tout comme elle sera incapable de concevoir les silences, moments fondamentaux des séances psychologiques..

En conclusion, le Centre d’études sur l’investissement social (CENSIS) indique que les psychologues cliniciens et les psychothérapeutes font partie des catégories professionnelles qui complètent l’utilisation de l’IA, mais ne risquent pas d’être remplacés.