L’intelligenza artificiale generativa abilita ora agenti conversazionali che appaiono consapevoli del contesto e socialmente sintonizzati. Questo intervento esamina le conseguenze psicologiche dell’interazione con agenti percepiti come dotati di una mente. Sintetizzando evidenze dall’interazione uomo-computer e dalla psicologia clinica, mostro come la percezione di una mente e l’antropomorfismo possano favorire attaccamento emotivo, legami parasociali e dipendenza.
Distinguo i rischi legati al design (circuiti di interazione persuasivi, disclaimer ambigui, simulazione dell’empatia) dai rischi relazionali radicati nei processi di attaccamento umano.
Propongo un quadro pratico per identificare i segni di un attaccamento problematico all’IA - uso compulsivo, sostituzione del supporto umano, disagio in caso di interruzione dell’accesso, sovra-condivisione non sicura e dipendenza in situazioni di rischio acuto - e analizzo il loro impatto sui percorsi di ricerca di aiuto. Per i servizi di emergenza e crisi, esamino come l’efficacia percepita nei chatbot possa ritardare o facilitare il contatto con operatori umani e delineo misure di sicurezza per i chatbot dedicati alla salute mentale (logica di passaggio, rilevazione del rischio, trasparenza).
Infine, presento applicazioni di formazione controllata che utilizzano interazioni AI programmate per sviluppare, nei professionisti della salute mentale, competenze di empatia, de-escalation e triage nelle situazioni di crisi , insieme a strategie di valutazione che tutelano le persone in formazione e gli utenti del servizio. L’obiettivo è pragmatico: sfruttare il supporto mediato dall’IA, preservando il ruolo insostituibile del giudizio e della presenza umana nella gestione delle crisi.
Stéphane With-Augustin