Warning

: Trying to access array offset on false in /web/htdocs/www.agoranotizia.it/home/wp-content/themes/publisher/includes/libs/bs-theme-core/theme-helpers/template-content.php on line 1164

Warning: Trying to access array offset on false in /web/htdocs/www.agoranotizia.it/home/wp-content/themes/publisher/includes/libs/bs-theme-core/theme-helpers/template-content.php on line 1165

Warning: Trying to access array offset on false in /web/htdocs/www.agoranotizia.it/home/wp-content/themes/publisher/includes/libs/bs-theme-core/theme-helpers/template-content.php on line 1166

Warning: Trying to access array offset on false in /web/htdocs/www.agoranotizia.it/home/wp-content/themes/publisher/includes/libs/bs-theme-core/theme-helpers/template-content.php on line 1177

Nuove forme di truffe sui social. I criminali informatici usano i “deepfake” per creare video porno delle loro vittime o per influenzare le campagne elettorali

I criminali informatici usano i "deepfake" per creare video porno delle loro vittime o per influenzare le campagne elettorali aggiungendo cosi’ una nuova dimensione alle campagne di disinformazione che hanno lo scopo di attaccare le democrazie

Di Benito Mirra Chief Information Security Advisor

Il fenomeno della manipolazione e delle campagne di disinformazione tramite social media dei media non è nuovo. Ma i video deepfake possono essere dirompenti e rappresentare una vera minaccia per la democrazia. Le campagne di disinformazione sono distribuite a basso costo in tutto il mondo tramite piattaforme di social media. Queste piattaforme hanno standard diversi e operano senza regole, il che rende ancora più difficile la lotta alle fake news. Non c’è più tempo per prendere contromisure. La lotta ai deepfake deve essere condotta su diversi livelli con una combinazione di approcci legali, informatici e di politica educativa per contrastare questo potenziale distruttivo.

I deepfake – video modificati con l’intelligenza artificiale (AI) che vengono utilizzati in modo improprio per influenzare i processi politici – aggiungono una nuova dimensione alle campagne di disinformazione e hanno lo scopo di attaccare le democrazie e le società aperte.
La manipolazione del video, era quasi esclusivamente dominio di studi cinematografici high-tech e società specializzate in effetti speciali. Tuttavia, i progressi tecnologici hanno abbassato gli ostacoli tecnici e consentendo un ampio uso della tecnica, compresi gli attori governativi e non governativi malintenzionati. Questa tecnica consente a persone malintenzionate di lanciare campagne di influenza politica sempre più sofisticate che hanno il potenziale per raggiungere ampi segmenti della popolazione. Ciò è tanto più vero in quanto sempre più cittadini “consumano” notizie tramite i social media.

L’uso dannoso di deepfake da parte di attori sia statali che non statali rappresenta una minaccia. L’area principale di applicazione dei video deepfake è il loro uso per scopi criminali, in particolare nella creazione di pornografia non consensuale. Un recente articolo di giornale The Indian Express raccoglie il caso di una delle vittime di queste truffe, iniziato con una richiesta di amicizia su Instagram, apparentemente innocua. Il 2 luglio, Rohan Bhasin, vicepresidente di una società di social media marketing con sede a Delhi, ha aggiunto alla sua lista di amici sul social network una donna che, sebbene non lo conoscesse personalmente, gli ha fatto vedere che condividevano alcuni amici comuni . Subito dopo, quella persona gli ha inviato un messaggio privato chiedendogli il suo numero WhatsApp, al quale Bhasin ha rifiutato, ma dopo pochi minuti ha iniziato a ricevere videochiamate al suo profilo Instagram da quello stesso contatto. “All’inizio ho ignorato le chiamate, ma dopo sette o otto ho risposto al telefono. Dall’altra parte c’era una donna nuda che compiva atti osceni . Mi ci sono voluti circa 15 secondi per rendermi conto di cosa stava succedendo. E poi ho riattaccato», racconta Bhasin. Successivamente ha poi ricevuto messaggi dalla presunta donna, in cui chiedeva soldi in cambio della mancata diffusione di un video porno presumibilmente suo. Tuttavia, Bhasin non ha ceduto al ricatto e ha scelto di cancellare quel contatto dal suo profilo Instagram.
Secondo il suo resoconto, circa 15 minuti dopo, i suoi amici e la sua famiglia lo hanno riempito di messaggi e chiamate a proposito di un materiale pornografico che avevano visto e al quale apparentemente aveva partecipato. Nel frattempo, la sorella ha affermato di aver ricevuto sul suo Instagram un’immagine con il volto di Bhasin, che mostrava genitali maschili e femminili, inviata dalla stessa donna coinvolta nella truffa, che aveva deciso di accettare poco prima perché amica del fratello.
Bhasin ha presentato immediatamente denuncia alla polizia di Delhi, allegando screenshot dei suoi discorsi. Due giorni dopo, il 4 luglio, la divisione cybercrime della città di Agra (stato dell’Uttar Pradesh) ha arrestato tre individui che potrebbero far parte della stessa banda di truffatori che ha attaccato Bhasin. Le autorità presumono che i responsabili di questo tipo di crimini operino dall’Uttar Pradesh e dagli stati vicini di Haryana e Rajasthan. Tuttavia, è impossibile rintracciarli con precisione, a causa delle loro tecniche di comunicazione e del modo in cui operano online.
Questo è ancora un vero pericolo per tutte le donne e gli uomini, in particolare celebrità e giornalisti che sono regolarmente sui media. In risposta, diversi stati hanno recentemente approvato leggi per ridurre al minimo i danni causati da tali contenuti. Inoltre, la democratizzazione di tecniche sofisticate per la generazione di registrazioni audio, immagini e video falsificate altamente realistiche renderà probabilmente più difficile la lotta contro la disinformazione fraudolenta e le campagne di disinformazione.

Un vivido esempio di ciò si è verificato nel marzo 2019 quando i truffatori hanno utilizzato imitazioni vocali sintetiche per impersonare l’amministratore delegato di un’azienda in una conversazione telefonica e ottenere un trasferimento di 200.000 euro.

Nel gennaio 2019, un’analisi delle minacce globali dei servizi di intelligence statunitensi ha indicato i deepfake come una delle più grandi minacce globali, secondo questa analisi, avversari e rivali strategici cercheranno sempre più di utilizzare deepfake o processi di apprendimento automatico simili per generare immagini convincenti, file audio e video false contro ignari avversari politici.

Ad esempio, nelle elezioni generali del Regno Unito alla fine del 2019, la disinformazione, compresi i deepfake, sembra essere stata utilizzata strategicamente per ridurre le possibilità di successo per la leadership dei liberaldemocratici e un importante politico laburista nelle elezioni. Due video manipolati della presidente della Camera dei rappresentanti degli Stati Uniti, Nancy Pelosi, sono circolati sui social media. I video sono stati leggermente rallentati senza una tecnologia sofisticata per far sembrare la Pelosi ubriaca. Sebbene la manomissione fosse facilmente identificabile, il video è stato condiviso dagli avversari politici della Pelosi, anche dopo essere stato segnalato come manomesso.

Uno strano tentativo di influenza politica è stato un video deepfake del 2018 prodotto per il Partito Socialista Fiammingo in Belgio e che il partito avrebbe pubblicato sul suo sito web. In esso, il presidente degli Stati Uniti Donald Trump avrebbe chiesto al Belgio di ritirarsi dall’accordo sul clima di Parigi. Il personaggio che si atteggia a Donald Trump parla inglese. Sono stati aggiunti addirittura i sottotitoli in olandese. L’unica parte del video falso senza sottotitoli è l’ultima frase in cui l’attore dichiara di come il filmato fosse falso. Ma come hanno mostrato i commenti sulla pagina FB del partito, molti di coloro che avevano visto il video non si rendevano conto che si trattava di un falso, il partito apparentemente intendeva reindirizzare gli elettori a una petizione online che chiedeva al governo belga di intraprendere un’azione più forte contro il cambiamento climatico. Tuttavia, poiché alcuni credevano che il video fosse reale, il partito è stato costretto a sottolineare pubblicamente che si trattava di uno scherzo e di un falso.

Questo caso illustra l’influenza che i deepfake possono avere e che i loro effetti non possono sempre essere controllati dai produttori. I deepfake utilizzati per la manipolazione politica rappresentano un rischio aggiuntivo in quanto minano la fiducia del pubblico nelle istituzioni politiche.

Ad oggi non esiste ancora una situazione legale valida sui deepfake utilizzati con intenti impropri. In ogni caso, tuttavia, sono necessari chiarimenti legali su come affrontare le violazioni della protezione dei dati su questo argomento.

Proteggersi dai deepfake purtroppo non è facile, soprattutto se sei molto liberale con i tuoi dati personali e lasci “una impronta attiva” su Internet. Ciò significa che pubblichi frequentemente foto, video, ecc. di te stesso su Internet, ad esempio sulle piattaforme social. Oltre alla riduzione attiva di immagini, video e registrazioni audio che hai caricato tu stesso a cui gli estranei hanno facile accesso, puoi seguire semplici regole:

Modifica le tue impostazioni sulla privacy . Usa solo i social network o tutti gli account di social media con la massima impostazione di privacy in modo che gli estranei non possano accedere alle tue immagini, video e registrazioni audio o almeno con maggiore sforzo.
Evita le app dubbie .  APP in grado di modificare immagini o video in stile deepfake – come FaceApp, Fao o wombo.ai – sono molto popolari. Tuttavia, oltre alle tue immagini (e quindi ai dati biometrici), spesso concedi a queste APP anche diritti illimitati per utilizzare le tue immagini. Stai lontano da tali APP, soprattutto se i termini di utilizzo sono molto difficili da leggere.
Sviluppa le tue abilità mediatiche: non solo puoi diventare vittima di un attacco deepfake, ma puoi anche diventare portatore di informazioni false e notizie false che vengono messe in circolazione utilizzando video deepfake. Per evitare ciò, verifica che le notizie siano riportate da fonti di alta qualità e controlla le notizie da altre fonti.

Gli attacchi deepfake non sono solo un problema soltanto in privato, ma anche nell’ambiente aziendale, ecco perché è importante essere attivi anche nell’ambiente aziendale:

Formazione dei dipendenti: tutti i dipendenti devono essere formati per lo più in sicurezza informatica, occorre includere anche la pericolosità degli attacchi deepfake.
Protocolli: anche se deve essere effettuato un trasferimento (presumibilmente) urgente, predisporre protocolli di sicurezza che devono essere rigorosamente rispettati. Se più occhi guardano un’istruzione e i processi devono superare vari ostacoli alla sicurezza, il rischio di cadere vittima di una una frode si riducono.
Misure organizzative tecniche: effettuare backup, utilizzare password sicure, ecc., per proteggere i sistemi e gli accessi o per ricostruire i dati distrutti. In questo modo, spesso si possono evitare danni anche maggiori, anche se i truffatori sono riusciti a superare un ostacolo di sicurezza iniziale.
Programmi speciali: programmi speciali per scoprire i deepfake, ad esempio rilevando incongruenze negli artefatti dell’immagine, stanno arrivando sempre più sul mercato e possono rappresentare una soluzione per aree aziendali sensibili.

Il tema dei deepfake sembra essere ancora agli inizi. Resta da capire se creerà grossi problemi prima che sia troppo tardi. Alcuni paesi stanno già reagendo e hanno approvato leggi contro i deepfake , come la California (leggi AB-602 (che vieta la sintesi di volti umani per creare materiale pornografico) e AB-730 (che vieta la manipolazione di immagini di politici/candidati politici nel periodo 60 giorni prima delle elezioni)). Altri paesi stanno seguendo questo esempio.

Fino ad allora: non fidarti di tutto ciò che vedi. Questo vale ancora una volta per Internet.