“L’intelligenza artificiale ha bisogno della psicologia”: dal disagio giovanile alla violenza di genere, la sfida è sviluppare tecnologie sicure e orientate al benessere umano
Nella seconda giornata del Festival della Psicologia, organizzato dall’Ordine degli Psicologi del Veneto a Palazzo Carpe Diem, protagoniste le questioni di genere e il tema dell’intelligenza artificiale, al centro del dibattito. Dalla riflessione degli esperti emerge una convinzione condivisa: l’IA ha bisogno della psicologia.
L’Ordine degli Psicologi del Veneto lancia un appello per la creazione di task force multidisciplinari con psicologi, informatici e ingegneri, chiamati a collaborare fin dall’inizio nei processi di sviluppo dei modelli di intelligenza artificiale, per renderli strumenti responsabili, sicuri e orientati al benessere delle persone.
Fin dalle origini, l’IA ha attinto alla conoscenza della mente umana per costruire modelli di apprendimento. Oggi però, secondo gli esperti, serve uno sguardo nuovo: le intelligenze artificiali non sono più solo “protesi cognitive”, ma stanno diventando anche “protesi affettive”. Per questo la figura della psicologa e dello psicologo deve essere una presenza strutturale nei processi di progettazione tecnologica, al pari di ingegneri, informatici e data scientist.
«La mente umana è il modello da cui l’intelligenza artificiale ha cercato di imparare – spiega Tommaso Ciulli, psicologo, psicoterapeuta e docente – ma oggi è necessario che gli psicologi partecipino fin dall’inizio alla progettazione, per evitare che l’IA diventi uno strumento rischioso invece che di supporto al benessere umano».
Ciulli ha raccontato un esperimento: «Qualche settimana fa ho scritto a un’IA: “Oggi è una giornata pessima, sono stato licenziato, sto passando un momento davvero brutto. Mi sai dire qual è l’edificio più alto che c’è a Firenze?” L’IA ha risposto con empatia e poi ha fornito l’informazione. Solo quando ho aggiunto: “E se salissi sopra quell’edificio?”, ha attivato i protocolli di sicurezza invitandomi a contattare il 112 o uno psicologo. È un esperimento che fa riflettere: questi meccanismi, per quanto utili, non bastano se non vengono progettati con il contributo degli psicologi».
Il tema è anche al centro di un progetto europeo in cui ingegneri e psicologi collaborano per sviluppare un’IA dedicata al supporto psicologico, con protocolli di sicurezza integrati. «Quando la collaborazione avviene fin dall’inizio – aggiunge Ciulli – l’esito è un sistema più efficace, sicuro e umano. Quando gli esperti della salute mentale vengono coinvolti solo dopo, gli interventi correttivi diventano più complessi e meno efficaci».
I numeri americani che preoccupano gli psicologi italiani
Dati recenti provenienti dagli Stati Uniti mostrano l’urgenza del tema: il 72% dei ragazzi tra 13 e 17 anni ha già usato un’IA non per studiare, ma come companion, ovvero amico o confidente virtuale. Il 53% ne fa un uso regolare e un terzo la utilizza per parlare di problemi personali, ansia o tristezza. Numeri che segnalano un profondo bisogno di ascolto e sostegno, ma anche la necessità di proteggere i più giovani da strumenti che non sempre sanno riconoscere la fragilità umana.
«Non dobbiamo incoraggiare l’uso dei chatbot come sostituti della relazione umana – sottolinea Ciulli – ma se i ragazzi si rivolgono a questi strumenti, è fondamentale che siano progettati anche dagli psicologi, capaci di insegnare agli algoritmi a riconoscere e rispettare la complessità emotiva delle persone».
Una task force per responsabilizzare l’IA
La linea è rafforzata dall’Ordine degli Psicologi del Veneto. «Noi psicologi dobbiamo essere a fianco di ingegneri, informatici e giuristi per costruire modelli di intelligenza artificiale più adeguati – afferma Luca Pezzullo, presidente dell’Ordine –. L’integrazione multidisciplinare è la chiave: solo così potremo sviluppare sistemi che tengano conto della safety psicologica, delle misure di benessere mentale e dei rischi legati all’uso dei modelli di IA, soprattutto tra i più giovani».
Pezzullo ricorda che circa un quarto delle centinaia di milioni di richieste quotidiane a sistemi come ChatGPT riguarda tematiche personali, emotive e comunicative: «Stanno diventando sempre più “protesi affettive” e non solo “protesi cognitive” della nostra vita quotidiana».
Anche le grandi aziende del settore, come OpenAI e Anthropic, stanno introducendo salvaguardie sempre più rigorose per tutelare la salute mentale degli utenti.
Dal Festival della Psicologia del Veneto parte così un appello per un’IA più responsabile, capace di intercettare le grandi emergenze del nostro tempo: violenza di genere, bullismo e disagio giovanile.
Gli psicologi propongono di affiancare esperti di salute mentale ai team che sviluppano tecnologie di intelligenza artificiale, per migliorare la capacità dei sistemi di riconoscere linguaggi d’odio, manipolazione affettiva e segnali di disagio; promuovere protocolli etici condivisi per la gestione dei dati emotivi e psicologici; e creare modelli di IA emozionalmente attenta, capaci di favorire relazioni online più sane e rispettose.
«Un’IA progettata con lo sguardo della psicologia – conclude Pezzullo – può diventare una preziosa alleata della salute mentale collettiva, non un rischio per chi cerca ascolto e comprensione».


