L’intelligenza artificiale sostituirà molte delle professioni esistenti? E soprattutto, come cambierà le nostre vite?
Questi sono solo alcuni dei quesiti che, ogni giorno, si pongono in maniera sempre più pressante.
Per questo il nostro giornale ha scelto di dedicare una serie di interviste a professionisti che operano in vari ambiti e settori, per cercare di capire come influenzerà il nostro rapporto con le professioni, ma anche quali rischi esistano e quali conseguenze derivino da un utilizzo prolungato all’IA.
Ne abbiamo parlato con la dottoressa Francesca Cavedoni, psicologa e psicoterapeuta a orientamento cognitivo comportamentale.
L’IA può influenzare la nostra capacità di prendere decisioni in modo autonomo?
"Il tema è davvero ampio, complesso e in continua evoluzione, quindi parlarne in modo semplice ma completo non è affatto scontato. L’edizione 2026 del Working psycology for Wellness, promossa dall’Ordine degli Psicologi del Piemonte, ha avuto come focus proprio l’intelligenza artificiale con opportunità e rischi legati alla pratica psicologica. Grazie anche ai riferimenti bibliografici messi a disposizione dal dottor Luca Bernardelli, psicologo divulgatore specializzato in intelligenza artificiale, ho avuto modo di approfondire questa tematica e integrare la ricerca attuale con le mie conoscenze ed esperienze pregresse.
Secondo studi recenti, nel 2025, l'intelligenza artificiale è stata utilizzata principalmente per supporto organizzativo, formazione, creazione di contenuti, domande su salute, benessere e come aiuto in processi decisionali.
Quest'ultimo punto, a mio avviso, è particolarmente interessante: nelle chatbot, infatti, le persone condividono le proprie idee e ricevono validazione e riformulazione dei loro pensieri senza giudizio umano.
Per questo motivo, diversi studi hanno rilevato che alcune persone preferiscono parlare con l'intelligenza artificiale invece che con i loro amici, perché si sentono più a loro agio e non si sentono giudicate.
Altri ricercatori hanno esaminato come l'intelligenza artificiale influisca sulla nostra capacità di pensare in modo critico, cioè sulla nostra capacità di analizzare, valutare e sintetizzare le informazioni per prendere decisioni da soli. In particolare, hanno studiato il fenomeno del “cognitive offloading", ovvero la tendenza a delegare parte del nostro lavoro mentale a strumenti esterni, come l'intelligenza artificiale, riducendo così lo sforzo mentale che dobbiamo fare noi stessi.
Di conseguenza, un uso eccessivo di questi strumenti può portare a un minor sviluppo del pensiero critico, soprattutto tra i giovani, poiché favorisce questo “scarico cognitivo” e riduce in parte la nostra capacità di riflettere in modo autonomo.
L'intelligenza artificiale può influenzare il nostro processo decisionale in modi diversi: può darci conferme delle nostre idee, ma questo può anche creare una sorta di dipendenza, soprattutto in chi non ha molta fiducia in se stesso o tende a cercare conferme esterne. Tuttavia, se usata come strumento di supporto al nostro ragionamento individuale, l'intelligenza artificiale può arricchirlo, tutto dipende da come la utilizziamo"
Molti, spesso giovani, utilizzano i chatbot per intrattenere conversazioni e costruire vere e proprie “relazioni”: esiste il rischio che le persone sviluppino una dipendenza da questi strumenti o che perdano, in qualche modo, la capacità di creare relazioni umane, per loro natura più complesse e, se vogliamo, anche più rischiose?
"Uno studio condotto negli Stati Uniti ha rilevato che il 72% degli adolescenti tra i 13 e i 17 anni ha utilizzato almeno una volta un chatbot per conversare. Circa la metà di questi ragazzi utilizza regolarmente i chatbot, mentre uno su cinque trascorre più tempo con i chatbot che con gli amici reali. I giovani utilizzano i chatbot per conversare, socializzare, cercare consigli e supporto emotivo, o per colmare momenti di noia o solitudine.
La relazione con l'intelligenza artificiale può sembrare più semplice e sicura rispetto a quella con i coetanei. I chatbot offrono validazione e rispondono ai nostri bisogni profondi, come il bisogno di essere ascoltati, compresi e riconosciuti.
Il rischio principale è che si sviluppi una dipendenza dalla validazione, ossia dal sentirsi ascoltati, accettati e confermati nel proprio vissuto.
Questo bisogno di essere riconosciuti è universale, ma spesso viene trascurato o minimizzato dagli altri, anche con buone intenzioni. Per fare un esempio pratico nel quotidiano, poer consolare qualcuno anziché dire “è normale sentirsi tristi”, si tende a dire “ma no, non essere triste”. Non sorprende quindi che i chatbot siano apprezzati proprio per la loro capacità di validazione. I risultati delle ricerche ci mostrano quanto questo bisogno di ascolto e accettazione sia rilevante, soprattutto tra i giovani".
Perché i chatbot hanno questa capacità?
"Molti sistemi di intelligenza artificiale sono progettati ispirandosi alla teoria dell’ascolto attivo di Carl Rogers, che costituisce la base di ogni relazione terapeutica su un ascolto empatico, mettendo al centro l'ascolto del paziente. L'IA è creata su dialoghi umani, inclusi quelli terapeutici, e riproduce frasi tipiche dell’ascolto attivo. Questo spiega perché molte persone percepiscono i chatbot come più empatici delle persone.
Tuttavia, se da un lato questo sistema può soddisfare il bisogno di comprensione e accettazione, dall’altro può generare dipendenza: chi si sente compreso solo attraverso un chatbot potrebbe cercare sempre più questo tipo di relazione, a scapito delle interazioni reali. Le relazioni umane sono più complesse e non garantiscono validazione costante, e questo potrebbe rendere più difficile tollerare giudizi diversi o sviluppare competenze nella gestione dei conflitti e nella negoziazione interpersonale.
In altri casi, invece, l’uso dei chatbot può aumentare il benessere e fungere da ponte relazionale, aprendo nuove opportunità di interazione. La criticità, quindi, risiede principalmente nel modo in cui l’intelligenza artificiale viene utilizzata".
I chatbot vengono ormai utilizzati per qualsiasi cosa: creare immagini, correggere testi, scriverli, tradurli, ma anche per rispondere a quesiti in ambiti specifici, fino a oggi riservati a professionisti di settore, come avvocati o psicologi, cosa ne pensa?
"L'intelligenza artificiale viene sempre più spesso utilizzata per rispondere a domande in ambiti molto specifici, tra cui la medicina, il diritto, la psicologia e molti altri.
Al momento possiamo osservare due tendenze differenti. Quando le persone cercano consigli o devono fare previsioni basate sui dati, tendono a fidarsi maggiormente dell’intelligenza artificiale; questo perché il sistema automatizzato viene spesso percepito come più affidabile e neutrale, nonostante sia noto che possano esserci errori.
In ambiti più delicati come la salute, invece, emerge una tendenza diversa: in questi casi le persone continuano a riporre maggiore fiducia nel professionista umano".
Quali sono i rischi per una persona che condivide i propri problemi psicologici con un’IA anziché affidarsi a un professionista?
"Rispetto ai rischi del condividere problemi psicologici, partirei da una metafora che utilizzo spesso anche in studio, sia con adulti che con bambini, per spiegare il concetto di personalità: invito a immaginare la personalità come una tela. All’inizio, quando nasciamo, questa tela è in gran parte bianca, ma presenta già una base di colore, circa un 30%, che deriva dalla genetica. Questi “colori” rappresentano alcune predisposizioni: ad esempio, la tendenza all’ottimismo o al pessimismo, una maggiore tranquillità oppure una maggiore sensibilità o ansia.
A partire dalla nascita, questa base incontra l’esperienza: tutte le esperienze di vita — in famiglia, a scuola, nelle relazioni — aggiungono nuovi colori alla tela. Questi si mescolano con quelli di partenza, dando forma alla nostra personalità, che possiamo quindi considerare come il risultato di un 30% di fattori genetici e di un 70% di ambiente ed esperienze.
Oggi, quindi, siamo il risultato della nostra storia: del nostro passato, delle esperienze vissute e, in parte, della nostra predisposizione biologica. Ogni pensiero, ogni emozione, ogni difficoltà o sintomo rientra in questa complessità. Di conseguenza anche il trattamento psicologico deve sempre tener conto della storia della persona e di come questa influenzi, ancora oggi, la lettura del presente e le scelte comportamentali, in modo più o meno funzionale.
All’interno di un percorso terapeutico, infatti, ogni intervento — che sia una riflessione, un esercizio, una parola o un’interpretazione — viene condiviso tenendo conto di molti elementi: lo stato emotivo della persona, la fase della sua vita, le risorse a disposizione, il momento del percorso terapeutico, i contenuti già affrontati e il livello di consapevolezza raggiunto. Per questo possiamo dire che il percorso terapeutico è un processo dinamico e complesso, che tiene insieme passato e presente nella loro interezza.
E proprio da qui arrivo alla risposta alla tua domanda: condividere problemi psicologici con l’intelligenza artificiale può essere rischioso se si dimentica — o non si considera — che questi strumenti non hanno accesso alla “tela” nella sua complessità.
L’intelligenza artificiale può sicuramente essere utile: può aiutare a chiarire i pensieri, dare parole alle emozioni e offrire nuove prospettive. In questo senso può rappresentare un valido supporto, sia per la persona sia, in alcuni casi, anche come strumento complementare al lavoro terapeutico.
Tuttavia, non può seguire l’evoluzione di una persona nel tempo, non conosce davvero il suo passato né il suo contesto, e può cogliere solo in parte il modo in cui quella persona pensa e i bisogni che la guidano. Inoltre, ragiona principalmente in termini di dati, e non di intenzioni, vissuti ed esperienza emotiva diretta.
Per questo motivo, credo che il punto fondamentale sia questo: l’intelligenza artificiale può essere utile, ma non sufficiente. Il rischio, infatti, è che venga considerata come tale".
Che impatto può avere l’esposizione massiccia a sistemi di intelligenza artificiale su adolescenti e bambini?
"Secondo il rapporto del Pew Research Center (2025), i 64% dei ragazzi intervistati tra i 13 e i 17 anni utilizza gli AI chatbot, di cui i più comuni ChatGPT (59%), Gemini (23%), e Meta AI (20%). Circa 3 su 10 li usa giornalmente, di cui il 16% anche più volte al giorno. Questi sistemi vengono usati in modo generale per informarsi, riflettere o chiedere consigli.
In questo senso, è importante tenere a mente quanto detto prima. L’intelligenza artificiale può offrire un supporto emotivo immediato e facilitare l’espressione di pensieri ed emozioni. L’assenza di giudizio, infatti, rende più semplice per molti ragazzi aprirsi, ma bisogna tenere conto dei rischi.
Tra questi la possibilità di sviluppare una forma di dipendenza emotiva, in particolare dalla validazione ricevuta. Questo può rendere i ragazzi più in difficoltà nelle relazioni reali, che sono spesso più complesse, meno prevedibili e meno “validanti”. Di conseguenza, possono aumentare la sensibilità alla frustrazione e le difficoltà nella gestione di conflitti, negoziazioni e momenti di scontro, che sono invece parte naturale delle relazioni, soprattutto in adolescenza.
Un altro aspetto riguarda la regolazione emotiva, che potrebbe risentire di un uso eccessivo di questi strumenti, così come — riprendendo gli studi sul pensiero critico — la possibile tendenza allo scarico cognitivo, cioè a delegare sempre più il processo di riflessione.
Infine, questo tema si collega più in generale a tutta la letteratura sull’impatto del digitale e degli smartphone sullo sviluppo di bambini e adolescenti: aspetti come il tempo di esposizione, la qualità del sonno, la sedentarietà e il benessere complessivo sono tutti elementi da considerare.
Ritengo che la chiave stia nel come e nel quanto questi strumenti vengono utilizzati, ma anche nel bilancio tra ciò che offrono e ciò che, eventualmente, rischiano di togliere".
Secondo lei, è possibile immaginare un futuro in cui gli psicologi lavorino in maniera integrata con l’IA o addirittura possano essere sostituiti da essa?
"Penso che se ben conosciuta e usata, l'IA possa essere un aiutante. Se prendiamo l’esempio della metafora della tela di colori, possiamo capire quanto il processo terapeutico e la personalità siano complessi. Ci sono elementi del percorso terapeutico che non possono essere sostituiti da una macchina.
Detto questo, l’intelligenza artificiale e i chatbot, per come sono costruiti, hanno certamente capacità di validazione e di ascolto. Possono quindi essere un ottimo supporto per la persona, per l’espressione dei pensieri, e anche un buon complemento alla terapia. Però dobbiamo sempre ricordarci che stiamo parlando con una macchina: ci sono tutta una serie di aspetti umani che essa non possiede e con cui non può ragionare.
Personalmente mi capita di utilizzare l’intelligenza artificiale come supporto alla terapia e l’ho fatto con diverse persone. Ci sono studi che mostrano come possa essere utile per allenare competenze comunicative. Per esempio, durante sessioni di training sull’assertività, a volte suggerisco alla persona di esercitarsi anche con un chatbot, per poi osservare insieme in studio come evolve il dialogo. In questo senso, l’intelligenza artificiale può offrire uno spazio sicuro per allenare abilità sociali, di conversazione e comunicazione.
La cosa importante è che resti un allenamento: l’obiettivo non è sostituire la relazione reale, ma facilitarla, aiutando a costruire relazioni più autentiche e competenti. Inoltre, molti chatbot funzionano come una vera e propria palestra comunicativa, perché riformulano i pensieri, nominano le emozioni e restituiscono in maniera assertiva ciò che la persona esprime. In questo senso possono anche fungere da modello.
Mi è capitato di usare i chatbot anche tra una seduta e l’altra, per aiutare la persona a mantenere un dialogo interno funzionale, soprattutto in presenza di sintomi ansiosi. In queste situazioni lavoriamo su pensieri e credenze che non sono funzionali al benessere, cercando di metterli in discussione e costruire un dialogo interno più efficace, riducendo l’ansia
Un esempio pratico nel mio lavoro con bambini e ragazzi nello spettro autistico riguarda le storie sociali, brevi narrazioni che spiegano situazioni quotidiane e comportamenti attesi. Questi strumenti servono a dare prevedibilità e a ridurre l’ansia. Qui l’IA si rivela molto utile: con la generazione di immagini personalizzate, ad esempio, si possono creare illustrazioni simili al bambino con cui stiamo lavorando. Abbiamo notato che questo cattura molto l’attenzione del bambino, aumenta l’interesse e lo aiuta a seguire meglio la spiegazione, affrontando la situazione reale con maggiore serenità".