fbpx

L’Intelligenza artificiale del deepfake è “complice” di una nuova truffa porno

21 Settembre 2021
154 Visualizzazioni

Dall’India si segnala una nuova truffa deepfake che si mostra come una completa estorsione a sfondo sessuale.

Come funziona? In parole povere, le persone vengono contattate su Instagram attraverso videochiamate in modo molto insistente finché non rispondono. Poi viene estorto loro denaro affinché il loro volto non finisca su filmati porno creati tramite procedure deepfake e poi inviati ad amici o parenti.

Non è la prima volta che nel sub-continente indiano accadono fatti così spiacevoli e truffe ben organizzate. In passato, la modalità di inviare mail di phishing o link a falsi siti internet con l’obiettivo di estorcere denaro ai malcapitati era piuttosto comune. Oppure si dichiarava di aver hackerato le webcam delle persone mentre queste guardavano i porno.

Per il momento la polizia ha arrestato degli individui che fanno parte di un’ampia rete che sfrutta i deepfake creando quindi falsi video porno nei quali il volto del soggetto coinvolto si sovrappone a un corpo altrui attraverso l’intelligenza artificiale e il machine learning.

Come funziona questa truffa di porno deepfake

Il tutto incomincia su Instagram. Si viene contattati da un profilo sconosciuto che chiede insistentemente il numero Whatsapp, e poi comincia ad avviare videochiamate con la vittima utente. L’utente ignora le chiamate, ma continuano a botte di 7/8 ogni 3 minuti. Diventa insostenibile, e le persone esasperate a volte rispondono.

Quello che accade dopo è ai limiti della decenza. Si viene inseriti in una videochat dove una donna nuda si esibisce in atti sessuali. Ovviamente, la videochiamata viene interrotta dopo pochi secondi, il tempo sufficiente perché il dispositivo riprenda il volto del malcapitato che risponde.

Poco dopo si incominciano a ricevere una sfilza di messaggi ricattatori, dove si viene minacciati della diffusione del video qualora non venga pagata la somma richiesta. Se a questo punto ci si rifiuta di pagare e si blocca l’utente su Instagram, si iniziano a ricevere messaggi da parte di amici e parenti che ammettono di aver ricevuto video pornografici che mostrano la vittima in volto.

I truffatori prendono il tuo volto e lo soprappongono al corpo di qualcun altro

I video sono molto realistici e ingannano moltissimi utenti. I parenti e gli amici delle vittime sono allibiti dal contenuto ricevuto e questo crea non pochi problemi e discussioni. Nel frattempo è nato un portale nazionale dedicato al cyber informatico, gestito appositamente dal Ministero degli Affari Interni indiano. L’istituzione ha già registrato più di 300mila segnalazioni fra agosto 2019 e marzo 2021.

Non è da escludere che una truffa porno deepfake non arrivi anche in Europa

Per il momento i sistemi informatici occidentali sono più rodati a riguardo, e hanno attuato delle misure preventive di maggiore efficacia. Certo, niente è sempre al 100 per cento sicuro e affidabile. L’arrivo di questo tipo di truffe attraverso le AI saranno sempre più ricorrenti e rischiano seriamente di rovinare vite, famiglie, relazioni.

Perciò vi chiediamo accortezza riguardo i contatti sconosciuti che vi approcciano, e di denunciare sempre e immediatamente ogni abuso. Nessuno ha diritto a minare la vostra libertà personale e alla vostra serena vita in rete.

Leggi anche: