Modelli di intelligenza artificiale generativa in Psicoterapia: Strumenti di Sostegno o Illusione di Aiuto?

Servizio di Francesco Augello*

La pelle trascina in sé quel desiderio di contatto che nessun algoritmo è capace di sperimentare

L’uso crescente dei chatbot basati su modelli di intelligenza artificiale per il supporto emotivo solleva interrogativi profondi sulla natura della sofferenza e del legame sociale. Ciò è ancor più evidente negli adolescenti, nei giovani, è l’ampio interrogativo dentro una hyper-modernità ambivalente, creando nuove connessioni, esperienze e persino modi di percepire se stessi in equilibrio tra opposti, negando a se stessi, forse, qualcosa di più profondo.  

È inutile tentare di smentire come l’intelligenza artificiale stia modificando, giorno dopo giorno, i confini delle interazioni, rendendole sempre più aleatorie e imprevedibili, a un livello tale   che anche il più anacronistico dei giochi, quello della roulette, appare nella sua analogica interazione uomo – vincita, certa ad ogni giro di ruota. Così, mentre quest’ultima conserva un legame diretto tra azione e risultato, l’IA introduce livelli di imprevedibilità e fluidità che trasformano il rapporto tra causa ed effetto nelle comunicazioni e nelle decisioni tra uomo e reti neurali profonde.

Tuttavia, gli assistenti virtuali sono sempre più i nuovi interlocutori quotidiani che plasmano il nostro modo di connetterci con gli altri e con il mondo. Secondo un articolo di Geopop, a cura della sociologa Samantha Maggiolo, molte persone preferiscono confidarsi con dei chatbot come ChatGPT invece che con uno psicologo, perché l’IA non propone punti di vista scomodi, non ha memoria personale e non è una presenza viva. In un’unica espressione “un rifugio privo di giudizio”. Ciò che tuttavia non appare ancora chiaro a molte persone, adolescenti in prima linea, è che questo rifugio non contempla la privacy, cosa a cui invece uno psicologo è tenuto per ossequio alla professione e alle norme deontologiche, garantendo al tempo stesso il più totale rispetto e tutela di chi si affida con fiducia a un intervento psicologico. L’ascolto senza filtri ha indubbiamente un costo da pagare per chi si confida a un ChatBot basato su un modello di intelligenza artificiale generativa, che in nessun modo potrà qualificarsi come sostituto di un professionista clinico. Vi è poi come accennato, la questione privacy, spesso sottovalutata, soprattutto tra i più giovani. Infatti, ciò che in tanti non considerano è che i dati scambiati, anche se solo in apparenza anonimi, possono essere registrati, analizzati e utilizzati per una moltitudine di scopi e, solo per citarne alcuni: il miglioramento dei modelli IA, la pubblicità mirata per confezionare messaggi in linea con gli interessi e il comportamento degli utenti, rilevazione di attività sospette o, semplicemente per  prevenire attività fraudolente, basti pensare al download di App, ma anche feedback e recensioni. Inoltre, alcune piattaforme possono vendere o condividere dati con aziende esterne per scopi commerciali o di ricerca senza che l’utente ne sia consapevole, aspetti non sempre esplicitati e con un rischio di un sovra-controllo, mentre il mondo sensibile, quello che mantiene una sua fisicità, fatta di persone e cose, è ancora preoccupato per una videocamera di sorveglianza, mentre l’individuo accetta di svuotare se stesso, il proprio intimo, travasandolo in quel contenitore che si chiama “ragnatela digitale” e che è accessibile a tutti. Il paradosso è che ciò che viene raccontato volontariamente a un chatbot o condiviso sui social network è spesso più dettagliato e vulnerabile di quanto una videocamera potrebbe mai catturare. Sembra che quell’adattamento di cui parlava Anthony Giddens, uno dei massimi sociologi e politologi britannici dell’inizio del secolo precedente, introducendo il concetto di “modernità riflessiva” oggi debba essere messo in discussione. Per Giddens, infatti, una società abitata da continue evoluzioni non si limita a vivere il progresso, ma lo analizza, lo mette in discussione e lo ridefinisce costantemente. Ma è ancora così? È quello che fanno le nuove generazioni nel momento in cui affidano l’IO e tutto ciò che vi è sullo sfondo del proprio esistere a un algoritmo?

È certo che la hyper-modernità, caratterizzata da velocità, iperconnessione e fluidità delle identità, solleva dubbi sulla reale capacità di riflessione della società attuale. Affidare il nucleo identitario e la profondità del proprio esistere a un algoritmo implica una trasformazione radicale del modo in cui le nuove generazioni costruiscono e percepiscono se stesse.

Questo cambiamento immediato, alimentato da una rapida hyper-connessione e da una hyper-globalizzazione, e spesso accettato senza il tempo necessario per valutarne le implicazioni.

A differenza di uno psicologo, che può analizzare il contesto e costruire un percorso di cura su misura, l’intelligenza artificiale offre risposte basate su modelli predittivi, senza una reale comprensione empatica o un’attenzione alla storia personale dell’individuo. Va anche aggiunto che ChatGPT proprio perché è progettato e costantemente implementato su un modello di linguaggio non segue, nello specifico, alcun modello psicoterapico, il suo funzionamento si basa sulla previsione delle parole più appropriate in una conversazione, piuttosto che su un approccio terapeutico strutturato come quelli utilizzati dagli psicologi. In breve, qualunque algoritmo che sostiene ChatGPT è privo di quella intenzionalità che si manifesta nella consapevolezza del momento presente, nella responsabilità personale e nella capacità di dare senso alle proprie esperienze attraverso l’interazione con l’ambiente. Potrà riflettere, certamente sì, una direzionalità “terapeutica”, mescolando senza criterio alcuno, diversi approcci, ma senza “cura” alcuna. Viene da chiedersi se questa evoluzione rappresenti una nuova forma di supporto complementare, oppure stia normalizzando un modello di interazione che, pur offrendo risposte immediate, potrebbe limitare la capacità di elaborare emozioni in modo autentico? A ciò va anche aggiunto che qualunque bot ChatGPT, anche se sostenuto dal più brillante meccanismo di attenzione neurale, non ha capacità diagnostiche né la possibilità di condurre un vero percorso terapeutico, poiché manca dell’intuizione clinica, della capacità di cogliere segnali non verbali e della costruzione di un legame basato sulla fiducia, tutti elementi che risultano fondamentali all’interno del processo terapeutico e che un’intelligenza artificiale semplicemente non può replicare.

Ciò che oggi molte persone sperimentano è semplicemente una simulazione, a voler utilizzare un’espressione ottimistica, ma questa tendenza riflette quella mancanza di profondità che permette, in ultimo, il vero cambiamento di una persona in cerca di cura. Il rischio concreto è quello di sostituire un sensibile percorso psicoterapico con una simulazione di dialogo che, per quanto rassicurante, alimenta dubbi sulla profondità e sull’autenticità dell’ascolto, al netto di qualsivoglia sostegno, incoraggiamento, resilienza e speranza, proprio come recita il nuovo Therabot, allocato su server americani,  sviluppato nell’aprile di quest’anno, spianando un cammino che i suoi sviluppatori, un team di ricercatori del Dartmouth College, con il supporto della Mississippi State University, definiscono promettente per chi potrebbe sentirsi solo. Nonostante taluni risultati clinicamente incoraggianti, come dichiarato dal gruppo di sviluppo, Therabot – e vale per qualsiasi sistema basato sull’IA – non è in grado di cogliere le sfumature, non può diagnosticare disturbi mentali o prescrivere trattamenti, né lavorare su una dimensione olistica, osservando nella sua totalità la presenza del paziente, nonché l’importanza della consapevolezza immediata e dell’esperienza presente nel contesto terapeutico, ciò che un gestaltista definirebbe semplicemente con l’espressione “qui e ora”. Rimane ad ogni modo la necessità di porsi comunque un paio di interrogativi: questa tendenza all’uso dei ChatBot clinici è destinata a radicarsi nelle nuove generazioni, trasformando il concetto stesso di cura, oppure è solo un passaggio che porterà a una nuova consapevolezza del valore del supporto umano? Siamo di fronte a un’alternativa che ridisegna i confini della terapia o a una deviazione momentanea destinata a essere riassorbita dalla necessità di un contatto reale? L’hyper-modernità è ancora nel pieno del suo svelarsi, forse la risposta ci verrà fornita proprio dall’esperienza diretta di chi attraversa questa trasformazione: il tempo ci dirà se la digitalizzazione del supporto emotivo è ed è stata solo una fase o, diversamente, il preludio a una nuova forma di sostegno e psicoterapia, con dinamici confini che richiedono costante esplorazione. Ciò che è indubbio è che la pelle, il tatto, quel bisogno viscerale di connessione fisica ed emotiva, rimane comunque un linguaggio che nessun codice potrà mai emulare davvero.

***

Approfondimenti consigliati:

Di Bello, B. (2023). ChatGPT for Dummies. Hoepli.

De Baggis, M., & Puliafito, A. (2023). In principio era ChatGPT. Slow News.

Autori Vari. (2023). Uno, nessuno, ChatGPT. Ledizioni.

Roncaglia, G. (2023). L’architetto e l’oracolo. Laterza.

Meggiorin, E. (2023). ChatGPT. Independently Published.

Breve biografia autore

Francesco Augello (Agrigento, 1973) docente formatore, psicologo, aforista e saggista. Esercita attivamente come psicologo, occupandosi delle trasformazioni socio-psicoeducative nell’iper-modernità, con particolare attenzione alle tematiche della disabilità e ai percorsi di inclusione. Esperto in tecnologie informatiche e programmazione, esplora l’intersezione tra intelligenza artificiale, educazione e psicologia, studiandone l’impatto sul benessere psicologico anche in contesti lavorativi. Ha maturato un particolare interesse ed esperienza nel campo dei disturbi della nutrizione e dell’alimentazione (DNA), approfondendo la diagnosi, il supporto psicologico e il rinvio a pratiche terapeutiche mirate.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *