«Non è mai il mezzo il problema, ma l’uso che se ne fa». È una frase che ritorna ogni volta che una nuova tecnologia entra nelle nostre vite. È stata usata per i social network, per gli smartphone, e ora per l’intelligenza artificiale. Strumenti come ChatGPT o Claude sono ormai compagni quotidiani: ci aiutano a studiare, a scrivere, a semplificare lavori complessi. Ma qualcosa sta cambiando.
Oggi, sempre più spesso, questi assistenti virtuali non vengono usati solo per cercare informazioni — ma per confidarsi.
Secondo quanto racconta Vanity Fair Italia, sono in aumento i casi di adolescenti che si rivolgono a ChatGPT per parlare dei propri disagi, per chiedere conforto, per esprimere emozioni difficili da condividere con qualcuno in carne e ossa. Non lo fanno per gioco, ma perché credono davvero di essere ascoltati.
Un amico che non giudica (ma non esiste)
ChatGPT, dopotutto, parla come una persona: risponde con tono empatico, usa parole gentili, non alza mai la voce e non contraddice apertamente. Sembra capirti. Ma quella sensazione di comprensione è solo un riflesso ben costruito — un algoritmo che riproduce schemi linguistici umani, senza provare nulla.
Eppure, per un adolescente in cerca di ascolto, questa differenza sfuma.
Come spiega Elisa Fazzi, neuropsichiatra infantile e presidente della SINPIA, in un’intervista a Vanity Fair, questa tendenza è figlia anche della pandemia: «La paura dell’incontro fisico che in quegli anni avrebbe potuto farci ammalare si è evoluta nel timore attuale di confrontarsi, anche emotivamente, con l’altro».
Molti ragazzi, cresciuti in un periodo in cui la socialità era sospesa, oggi fanno fatica a gestire la complessità dei rapporti umani. Parlare con una persona vera significa accettare il rischio di un dissenso, di uno sguardo critico, di una domanda che mette in discussione. Parlare con un’AI, invece, è facile: è sempre disponibile, non giudica, e si può silenziare in un click.
Il silenzio degli adulti
Ma dietro ogni adolescente che confida i propri pensieri a una macchina, c’è un’altra storia: quella di adulti che non hanno più tempo — o forse più coraggio — di ascoltare davvero.
«Un ragazzo che si rivolge a ChatGPT per dire che si sente giù», ricorda Fazzi, «ha bisogno di parlare e di essere ascoltato, ma è convinto che gli adulti della sua vita non siano interlocutori adatti o capaci di accogliere i suoi dubbi».
La verità è che spesso, per comodità o stanchezza, i genitori si limitano a chiedere com’è andata a scuola, e non come stai davvero. Così, i ragazzi imparano a tenersi tutto dentro — oppure a parlarne con chi li ascolta senza fare domande difficili. Anche se quel “chi” è una macchina.
L’illusione dell’empatia digitale
Il problema, però, non è solo emotivo. Quando un adolescente trova conforto in una voce artificiale, perde l’occasione di confrontarsi con la realtà, con le differenze, con la frustrazione di non essere sempre capito. È un’esperienza che nessuna tecnologia potrà sostituire, ma che è fondamentale per crescere.
L’intelligenza artificiale può sembrare un amico perfetto: non ti interrompe, non ti contraddice, non ti ferisce. Ma un’amicizia vera nasce proprio da ciò che è imperfetto — dal rischio del confronto, dalla vulnerabilità, dall’imprevisto.
Demonizzare la tecnologia sarebbe inutile e ingiusto. Come ricorda Vanity Fair, strumenti come ChatGPT possono essere preziosi se usati con consapevolezza, anche per stimolare curiosità o aiutare nello studio. Ma non possono diventare l’unico spazio dove i giovani si sentono visti e ascoltati.
Forse la vera sfida non è contenere l’intelligenza artificiale, ma ricostruire l’intelligenza emotiva delle relazioni. Tornare a parlare, a guardarsi, ad ascoltare senza fretta.
Perché se i nostri adolescenti preferiscono confidarsi con una macchina, la domanda più urgente non è “che cosa sta sbagliando l’AI”, ma che cosa abbiamo smesso di fare noi.