Immagini di bambine abbracciate a Epstein. Foto semi-ammiccanti, allusioni. Poi video delle stesse ragazze, ormai cresciute: in lacrime, distrutte dal dolore della loro esperienza. Ex vittime del pedofilo più famoso del mondo che raccontano la loro storia tra Instagram e TikTok. Un po’ perverso ma purtroppo un fenomeno figli dei tempi notti ( ah come si stava meglio quando si stava peggio). Peccato che non siano reali. Sono profili fake, volti generati con l’intelligenza artificiale, storie costruite a tavolino, forse con ChatGPT, chissà, non è dato saperlo. Ma esistono: prodotti creati ad hoc per generare engagement, commenti, discussioni. Una caccia spasmodica alla condivisione (ormai molto più importante dei vecchi like, anche se i talk televisivi non se ne sono ancora accorti ) al contenuto virale. E come sempre, alla fine del funnel, c’è il denaro. L’obiettivo è semplice: attirare attenzione, raccogliere follower e reindirizzare il traffico verso piattaforme a pagamento per adulti (fanvue ,Telegram, OnlyFans ufficialmente non vuole content creator che non esistono) dove il contenuto si monetizza. Lo scandalo diventa marketing, l’esperienza (orribile) diventa traffico e la violenza diventa un gancio narrativo stuzzicante per migliaia di persone.
Non scandalizzatevi: non è nemmeno la prima volta. Solo l’anno scorso abbiamo visto esplodere il fenomeno delle modelle generate con IA rese “affette” da Sindrome di Down per vendere contenuti pornografici. O corpi artificiali con mutilazioni, perfetti per intercettare feticismi sempre più estremi. Un mercato che si nutre di deviazioni e le rende un prodotto vendibilissimo (e assai economico). Ora però si è fatto un passo ulteriore. Non più solo il corpo “diverso”, ma la “vittima”. Le sopravvissute a uno dei sistemi di abuso più documentati della storia recente vengono replicate in versione sintetica: più sensuali, apparentemente più disponibili, più propense a chattare con chiunque voglia sentire la sua storia e quello che hanno “imparato” dalla loro storia. Donne digitali ( ma questo non è sempre evidente ) non spezzate dal trauma, ma rese funzionali al desiderio di chi guarda. E qui succede qualcosa di più pericoloso del semplice disgusto morale. Perché mentre queste immagini circolano, mentre si accumulano milioni di visualizzazioni, si produce un cortocircuito: realtà e finzione si sovrappongono.
Le storie vere, quelle delle donne che non ce l’hanno fatta, che hanno portato addosso per anni il peso della violenza, alcune fino a togliersi la vita, si mescolano a versioni finte, levigate, eroticizzate e il risultato è una memoria collettiva distorta, una fogna putrida in cui il dolore diventa estetica e il crimine un’ambientazione tanto tanto eccitante. E nel frattempo, dall’altra parte dello schermo, ci sono utenti che pagano. Sbigliettano per donne di pixel sperando che siano “quelle originali”. E via di mance per una fantasia in cui chi è sopravvissuta a una violenza non ne esce distrutta, ma più lasciva, più preparata, più disponibile. Le piattaforme, come sempre, agiscono in modo sommario: vietano formalmente, ma si nutrono dell’engagement che tutto questo genera, o quantomeno non lo limitano. La responsabilità si disperde, finisce in niente, mentre il mercato cresce. Il problema non è solo che queste ragazze non esistono. Il problema è che esistono gli uomini disposti a pagarle. E che esiste un sistema perfettamente funzionante che trasforma anche la violenza su minori in un modello di business accessibile a chiunque. E a me quel "chiunque" fa davvero paura.