Una nuova minaccia si è affacciata nel panorama della criminalità informatica: il fenomeno conosciuto come “UnlucidAI”. Questa piattaforma, recentemente identificata dall’associazione Meter, rappresenta un grave pericolo per la sicurezza dei minori online. Meter, attiva da oltre trent’anni nella lotta contro la pedocriminalità, ha reso noto che UnlucidAI è in grado di generare contenuti pedopornografici attraverso l’uso di intelligenza artificiale, “denudando” virtualmente immagini di bambini. Le indagini condotte dal sacerdote anti pedofilia Fortunato Di Noto rivelano che tale tecnologia non è limitata al dark web, ma circola anche nel web ordinario, in gruppi crittografati gestiti da pedocriminali.
L’associazione Meter ha già avvisato le autorità competenti e ha lanciato un appello alla società civile e ai media, sottolineando che “questa non è una tecnologia innocente, ma uno strumento di abuso che alimenta la produzione e la diffusione di contenuti inaccettabili”. L’allerta è particolarmente urgente, poiché UnlucidAI viene utilizzata per manipolare immagini di minori, inclusi neonati, segnando una preoccupante escalation del fenomeno.
La natura della tecnologia criminale
Meter ha definito UnlucidAI come “uno strumento per la creazione di contenuti privi di censura”, sfruttando l’intelligenza artificiale generativa per alterare fotografie di bambini, ricostruendo digitalmente i loro corpi in modo falso ma verosimile. Nonostante la piattaforma dichiari di vietare la creazione di immagini che rappresentano abusi su minori, i controlli tecnici sono insufficienti. Gli utenti riescono a produrre e condividere materiale pedopornografico sintetico, approfittando della mancanza di blocchi efficaci.
Le conseguenze di tale tecnologia sono devastanti, poiché essa consente la creazione di contenuti che non solo violano la dignità dei minori, ma eludono anche le normative vigenti. La facilità con cui questi contenuti possono essere generati e distribuiti rappresenta una sfida significativa per le autorità e le organizzazioni che si occupano di proteggere i diritti dei bambini.
Indagine Meter: la percezione dei giovani
Un’indagine condotta da Meter nel 2025, che ha coinvolto 989 ragazzi tra i 14 e i 18 anni, ha rivelato dati allarmanti. Il 92% dei partecipanti ha già utilizzato una chatbot, ma accanto a questa diffusione dell’intelligenza artificiale emergono preoccupazioni significative. Il 65,7% dei giovani è a conoscenza del fenomeno dei deepnude, e il 59,4% esprime timori concreti riguardo alla creazione e diffusione di tali contenuti.
Particolarmente inquietante è il fatto che il 52,3% degli adolescenti non riesce a distinguere un video deepfake da uno reale. Tuttavia, c’è un aspetto positivo: il 90,5% riconosce che la diffusione di contenuti falsificati rappresenta un pericolo serio, e il 65,1% afferma che denuncerebbe senza esitazione chi li condivide. Tra i principali timori espressi dai giovani ci sono la perdita della privacy, i danni alla reputazione e la crescente difficoltà nel discernere tra verità e manipolazione digitale.
Richiesta di intervento alle istituzioni
In risposta a questa emergenza, Meter ha chiesto un’azione immediata da parte delle istituzioni italiane ed europee, nonché un intervento diretto delle piattaforme di hosting, social network e motori di ricerca. L’obiettivo è quello di individuare e bloccare ogni tentativo di diffusione di questo strumento criminale.
“Non si tratta solo di contrastare un servizio digitale — è una battaglia culturale, etica e giuridica. Chi sviluppa o distribuisce queste tecnologie è complice di reati gravissimi”, ha dichiarato il fondatore di Meter. “Siamo di fronte a un crimine senza contatto”, ha concluso, evidenziando la necessità di una risposta coordinata e incisiva per proteggere i più vulnerabili.