Cristina D’Avena, voce simbolo dell’infanzia di generazioni di italiani, è stata vittima di un episodio tanto inquietante quanto tristemente attuale. La cantante ha scoperto che sul web circolano immagini false che la ritraggono nuda, create con l’intelligenza artificiale a partire da suoi veri scatti. «Ero talmente scossa dalla scoperta di quel sito, che credevo non ci fosse niente da commentare», ha raccontato al Corriere della Sera.
Da sempre attenta a mantenere un’immagine pulita e lontana da scandali, D’Avena si è trovata improvvisamente coinvolta in un incubo digitale. Le sue foto, rubate dal web, sono state manipolate e trasformate in materiale pornografico. «Si parla di intelligenza artificiale, ma a me sembrano fotomontaggi: il mio viso montato sul corpo di altre persone. Mi ha fatto veramente schifo scoprire queste cose, la considero una violazione verso di me e pure verso le donne in generale», ha dichiarato con amarezza.
La cantante ha espresso il dolore profondo per quello che definisce un “furto di memorie”: immagini reali, scattate in momenti felici della sua vita, usate senza consenso e snaturate. «Non sono foto vere, certo, quella non sono io, quindi non provo vergogna. Ma sono andati a rubare scatti fatti in momenti belli, importanti, e li hanno sporcati. Mi fa schifo, oltre a spaventarmi».
Dietro le parole di Cristina D’Avena si cela un tema cruciale e ancora poco affrontato: le devastanti conseguenze psicologiche che queste violazioni digitali possono lasciare. Non si tratta solo di un danno d’immagine, ma di un trauma reale, che incide sull’identità e sulla fiducia personale. Vedere la propria immagine manipolata, deformata, associata a contesti sessuali non voluti, rappresenta una violenza a tutti gli effetti — una nuova forma di abuso resa possibile dalle tecnologie AI.
È urgente una riflessione collettiva. Servono leggi più severe, strumenti efficaci per segnalare e rimuovere questi contenuti, ma soprattutto una cultura del rispetto che si estenda anche al mondo digitale. L’intelligenza artificiale è uno strumento straordinario, ma senza etica e responsabilità può diventare un’arma capace di distruggere la dignità e la serenità delle persone.
Il dolore di Cristina D’Avena non deve restare un caso isolato o dimenticato: deve diventare un campanello d’allarme. Perché dietro ogni “deepfake” non c’è solo un volto manipolato, ma una persona vera, ferita nel profondo.
Cos’è un deepfake e come difendersi
Il deepfake è un contenuto digitale (foto, video o audio) manipolato tramite l’intelligenza artificiale, capace di sostituire il volto o la voce di una persona reale con quelli di un’altra, in modo estremamente realistico. Questa tecnologia, nata per scopi artistici o di ricerca, viene purtroppo spesso usata per creare falsi pornografici o diffondere disinformazione.
Perché è pericoloso:
Oltre a danneggiare la reputazione delle vittime, i deepfake possono provocare gravi traumi psicologici e compromettere la privacy. Spesso colpiscono soprattutto donne e personaggi pubblici, ma chiunque può esserne vittima.
Come difendersi: evitare di condividere foto personali pubblicamente. Segnalare immediatamente i contenuti falsi alle piattaforme e alle autorità (Polizia Postale in Italia). Usare servizi di image monitoring per tracciare l’uso non autorizzato delle proprie immagini. Sostenere campagne e leggi contro la pornografia non consensuale e l’abuso di AI.
di Redazione AltovicentinOnline