fbpx
" "

Designed by Freepik

L’IA in PsyCare ha solamente un ruolo di supporto per i professionisti della salute mentale. Consente di avere in un’unica piattaforma:

  • Registrazioni criptate e sicure delle videosedute che è possibile rivedere in un secondo momento;
  • Prendere nota di quanto avviene in seduta;
  • Inserire dei marker che potrebbero essere utili al terapeuta per ricordare qualcosa di saliente avvenuto durante la seduta;
  • Avere a disposizione una sidebar relativa alla rilevazione delle emozioni in tempo reale;
  • Disporre di report e grafici relativi alle note e all’andamento emotivo dei pazienti relativi a una singola seduta o a un certo lasso temporale


Ciò consente al terapeuta di disporre di diverse informazioni che possono supportare il processo diagnostico e terapeutico, ma l’IA in PsyCare non andrà mai a sostituire il terapeuta stesso. 

L’Intelligenza Artificiale Emotiva impiega tecnologie in grado di percepire, analizzare e interagire con le emozioni umane. Ma come ci riesce? Sfruttando metodi avanzati come il deep learning, questa IA elabora diversi tipi di dati per interpretare gli stati d’animo. Il metodo più studiato, e che offre i risultati più affidabili, è l’analisi delle espressioni facciali.

Il modello teorico di riferimento al quale ci siamo ispirati è il Facial Action Coding System (FACS), ideato dallo psicologo Paul Ekman. Questo sistema non si limita a interpretare un’espressione, ma la scompone in Action Units (AU), ovvero i singoli movimenti muscolari che la compongono. La validità di questo approccio è data dalla sua universalità: le Action Units sono riconosciute in tutto il mondo, a prescindere dalla cultura di appartenenza. Questo ci permette di avere una misura oggettiva in tempo reale delle emozioni primarie, fornendo al professionista uno strumento in più per arricchire la sua analisi. 

L’IA può essere utile per tenere traccia, all’interno di un’unica piattaforma, di diversi dati e informazioni del paziente al fine di monitorare il suo percorso terapeutico.

No, l’IA non prenderà decisioni al posto del terapeuta né svolgerà valutazioni con finalità diagnostiche. Si configura come uno strumento a supporto del terapeuta. 

Come affermato durante il corso di formazione ECM “Tra umano e digitale: l’Intelligenza Artificiale nella pratica psicologica”, organizzato dal CNOP, disponibile online dal 20 agosto al 31 dicembre 2025, psicologi e psicoterapeuti potrebbero avere nuove opportunità lavorative:

  • Psicologi esperti in dipendenze digitali e cyberbullismo
  • Psicotecnologi (progettisti di nuove app e dispositivi per il benessere psicologico)
  • Psicologi sviluppatori di videogame per il cambiamento positivo
  • Psicologi virtualisti (costruttori di setting terapeutici immersivi curativi)
  • Psicologi dell’intelligenza artificiale e dei Big Data (costruttori di chatbot e GPT)
  • Psicologi delle terapie digitali (ingegneri degli algoritmi trasformativi)
  • Psicologi del lavoro ibrido umano e artificiale
  • Psicologi ricercatori e validatori etico-neuroscientifico delle tecnologie emergenti
  • Per psicologi psicoterapeuti: le psicoterapie di 4a generazione integreranno software e hardware psytech.

Sempre dal corso di formazione ECM “Tra umano e digitale: l’Intelligenza Artificiale nella pratica psicologica”, organizzato dal CNOP, sono emerse alcune competenze centrali per i professionisti della salute mentale che si addentrano nel mondo dell’IA:

  • Saper navigare la complessità, imparando a selezionare, interpretare e combinare le informazioni generate dai sistemi di IA, sviluppando una capacità metacognitiva avanzata.
  • Ridefinire la creatività, la quale viene co-costruita con l’IA. I professionisti dovranno filtrare tra infinite possibilità proposte dai sistemi generativi quelle coerenti con la propria visione. In tal senso la creatività rimane propria dell’essere umano, dotato di sensibilità e affettività.
  • Imparare a pensare con l’IA, sviluppando una nuova competenza cognitiva, di mondo da preservare la propria agency e autonomia intellettuale, ma lasciandosi comunque supportare da questi nuovi strumenti.

I professionisti della salute mentale non possono essere sostituiti dalle tecnologie di IA utilizzate senza supervisione poichè queste possiedono alcuni limiti:

  • Bias algoritmici e culturali, dettati principalmente dai metodi statistici su cui si basano.
  • Opacità algoritmica: i sistemi di IA vengono addestrati su un vasto insieme di dati che riflettono inevitabilmente i pregiudizi storici, culturali e contestuali della realtà da cui sono tratti. 
  • Accondiscendenza eccessiva, mentre il lavoro di psicologi / psicoterapeuti, talvolta, è anche quello di porre il paziente / cliente in una posizione che gli consenta di mettersi in discussione.

Inoltre, diversi studi affermano che il modo di essere del terapeuta, espresso dal concetto di ascolto incarnato, è di particolare aiuto per il paziente e influenzato dall’orientamento teorico del terapeuta, oltre ad essere radicato nella sua storia personale (Stange Bernhardt I., Nissen-Lie H.A & Rabu M., 2020). Per cui, la sintonizzazione emotiva, la presenza e la genuinità del terapeuta fanno la differenza nell’efficacia degli interventi psicoterapeutici, aspetti che un’IA non potrà mai possedere, così come non potrà concepire i silenzi, momenti fondamentali nelle sedute psicologiche.

Per concludere, il Centro Studi Investimenti Sociali (CENSIS) indica che psicologi clinici e psicoterapeuti rientrano tra le categorie professionali complementari all’utilizzo dell’IA, ma non sono a rischio sostituzione.