Deepfake
Si sono ormai affermati come un potente strumento per la diffusione della disinformazione, perché in grado di confondere il confine tra realtà e finzione. La creazione di contenuti falsi ma convincenti pone serie sfide alla società, perché la creazione di narrazioni avvincenti può plasmare l’opinione pubblica. Dai cosiddetti shallowfake ai casi più sofisticati di phishing che usano l’intelligenza artificiale, ecco quali sono le principali tipologie e i maggiori rischi connessi
15/09/2025
Un deepfake è un contenuto multimediale, costituito da un’immagine, un video o un audio, creato o manipolato con l’ausilio di tecniche di intelligenza artificiale.
Lo scopo è quello di far sembrare autentica una cosa falsa: il termine deriva infatti dalla combinazione di deep learning (la tecnica utilizzata per creare questi contenuti) e fake (falso).
Questi contenuti possono essere usati per diffondere disinformazione, danneggiare la reputazione di qualcuno o commettere frodi, ma anche per puro intrattenimento. Sono utilizzati sostituendo il volto o la voce di una persona con quella di un’altra, facendo dire a qualcuno cose che non ha mai detto, creando video a sfondo pornografico oppure allo scopo di diffamare personaggi pubblici. La loro crescente sofisticazione rende sempre più difficile distinguerli dai contenuti autentici.
Esistono varie categorie di questi falsi, dai cosiddetti shallowfake, fino ai veri e propri deepfake, che usano l’intelligenza artificiale: qui di seguito ne forniremo alcuni esempi.
SHALLOWFAKE, IL FALSO CON MEZZI RUDIMENTALI
Partiamo dal shallowfake. Shallow vuol dire poco profondo e quindi si contrappone al termine deep (profondo). La tecnologia degli shallowfake è ormai piuttosto datata: prevede l’editing di contenuti multimediali tramite software piuttosto vecchi, come Photoshop. In realtà, non si tratta di veri e propri deepfake, perché non è previsto l’uso dell’intelligenza artificiale, ovvero di sistemi di deeplearning. Non sono per questo meno pericolosi, perché possono essere creati e distribuiti assai più facilmente e velocemente dei deepfake. È accaduto, ad esempio, che un passaporto canadese manipolato con questo sistema sia stato utilizzato ben 2.500 volte nel giro di un solo mese, prima che le autorità se ne accorgessero.
IL DEEPLEARNING PER CREARE VIDEO E AUDIO REALISTICI
I deepfake video sono supporti sintetici in cui l’immagine di una persona è alterata digitalmente o sostituita con quella di un altro soggetto, utilizzando tecniche di apprendimento automatico (deeplearning). Questa tecnologia può creare video estremamente realistici, che fanno sembrare che qualcuno dica o faccia qualcosa che in realtà non ha mai detto o fatto.
Meno ovvi e talvolta considerati meno efficaci dei deepfake visivi sono i deepfake audio o vocali, anche noti come file di clonazione vocale.
Questi deepfake sono creati addestrando modelli di intelligenza artificiale, attraverso l’uso di registrazioni esistenti della voce di una persona. Se addestrata, l’AI può generare nuovi audio che imitano perfettamente la voce originale e, una volta replicato un modello della voce di quella determinata persona, è possibile farle dire qualsiasi cosa.
IL PHISHING PORTATO A UN LIVELLO SUPERIORE
Il phishing tramite e-mail o messaggi di testo è una pratica ben nota, ma il deepfake phishing porta questo sistema a un livello superiore, includendo clonazione vocale e videochiamate. Un eventuale aggressore può quindi utilizzare un deepfake video su una piattaforma di teleconferenza, per indurre la vittima a condividere informazioni riservate (come le credenziali) o manipolarla, per convincerla a effettuare transazioni finanziarie non autorizzate. È sufficiente utilizzare filmati disponibili al pubblico.
Il deepfake phishing segue quindi gli stessi principi fondamentali degli attacchi di ingegneria sociale: confondere e manipolare le vittime, sfruttare la loro fiducia e aggirarne le misure di sicurezza. Sono sistemi molto efficaci, grazie alla credibilità che ispirano: si tratta di audio, video o immagini estremamente realistici, che riescono a facilitare l’accesso da parte degli aggressori, aumentando la probabilità che le vittime credano al messaggio falso a loro propinato.
Combinando la tecnologia deepfake con tecniche di ingegneria sociale, inoltre, gli aggressori possono creare messaggi altamente personalizzati, il che rende i tentativi di phishing più convincenti e più difficili da rilevare, anche perché il deepfake phishing sfrutta la fiducia intrinseca che le persone ripongono nelle informazioni visive e vocali che ricevono: quando vedi e senti una persona familiare, è più probabile che tu acconsenta alle sue richieste, condividendo informazioni anche molto sensibili.
Le misure di sicurezza tradizionali, infine, come i filtri email e i sistemi di riconoscimento vocale, possono avere difficoltà a rilevare i deepfake a causa del loro elevato livello di sofisticazione, anche perché il deepfake phishing sfrutta spesso tattiche psicologiche, per creare un senso di urgenza o di paura, inducendo le vittime ad agire rapidamente senza verificare a fondo l’autenticità della richiesta.
UNA CRISI A LIVELLO GLOBALE
Nell’agosto del 2024 la Commissione Europea ha pubblicato una lettera di informazione intitolata: Deepfake: a global crisis, nella quale affrontava il problema generato dalla diffusione di questi falsi. Secondo la comunicazione della Commissione, i deepfake si sono ormai affermati come un potente strumento per la diffusione di fenomeni di disinformazione, ponendo serie sfide alla società. Per il loro tramite è spesso confuso il confine tra realtà e finzione, creando contenuti falsi ma estremamente convincenti: i deepfake consentono la creazione di narrazioni avvincenti che plasmano l’opinione pubblica.
Questi contenuti si stanno anche diffondendo assai rapidamente, perché sono creati per catturare l’attenzione del pubblico. La loro rapida diffusione sui social media sta rendendo assai difficile controllare la divulgazione di informazioni non vere, giacché questi falsi sono specificamente progettati per sfruttare le vulnerabilità di individui e organizzazioni.
La crescente sofisticazione della tecnologia dei deepfake sta ponendo enormi sfide per la loro individuazione e confutazione. Nel campo della medicina e della finanza, ad esempio, vi sono serie preoccupazioni circa la creazione di documenti, quali cartelle cliniche false o alterate e furti di identità.
I deepfake rappresentano dunque un problema globale. Regolamentarne efficacemente l’uso e prevenire le violazioni della privacy richiederà pertanto una cooperazione a livello internazionale: questa tecnologia sta evolvendo molto rapidamente e sarà necessario uno sforzo comune per contrastarla.
IL VADEMECUM DEL GARANTE ITALIANO DELLA PRIVACY
Già nel dicembre del 2020, il Garante italiano della Privacy ha pubblicato un vademecum intitolato Deepfake: Il falso che ti “ruba” la faccia (e la privacy), nel quale si metteva in guardia il pubblico sulla diffusione di app e software che rendevano possibile realizzare deepfake, anche molto ben elaborati e sofisticati, utilizzando un comune smartphone.
La diffusione di questi falsi è di conseguenza notevolmente aumentata, e con essa i rischi connessi, tra cui il furto d’identità e il cosiddetto deepnude, in cui persone ignare vengono rappresentate nude, in pose discinte e situazioni compromettenti, o addirittura in contesti pornografici.
Video deepnude sono utilizzati, a totale insaputa dei soggetti rappresentati, anche per alimentare la pratica del sexting (cioè lo scambio e diffusione di immagini di nudo, che può coinvolgere soggetti minori), la pornografia illegale e anche reati gravi come la pedopornografia o il revenge porn, cioè la condivisione online, a scopo di ricatto, denigrazione o vendetta (da parte di ex partner, amanti o spasimanti respinti) di foto e video a contenuto sessuale, spesso completamente falsi.
I deepfake possono anche riguardare politici o opinion leader allo scopo di influenzare l’opinione pubblica. Video deepfake possono ad esempio essere inviati agli elettori che simpatizzano per un determinato personaggio politico, rappresentandolo mentre compie azioni poco lecite o mentre si trova in situazioni sconvenienti, per screditarlo e influenzare le opinioni o il voto.
I deepfake possono così contribuire alla diffusione di fake news e alla disinformazione generale, privando le persone della cosiddetta autodeterminazione informativa (far sapere di sé ciò che si decide) e incidendo sulla loro libertà decisionale.
L’IMPIEGO NELLE FRODI ASSICURATIVE
Le stesse compagnie assicurative possono essere vittime di frodi intentate con l’aiuto dell’intelligenza artificiale. Ciò può avvenire da parte degli assicurati, che potrebbero presentare richieste di risarcimento false o esagerate, oppure da parte dei terzi danneggiati.
Nel Regno Unito, ad esempio, si è scoperto che delle telecamere a circuito chiuso, presentate a supporto di un presunto incidente, erano state manipolate per modificare data, ora e targa del veicolo che si presumeva avesse causato l’incidente.
Nel settore assicurativo sono sempre più comunemente adottati sistemi di automazione per la gestione di sinistri e l’utilizzo di supporti come le foto digitali è letteralmente raddoppiato dall’inizio della pandemia. È dunque possibile che vi siano foto alterate che gonfiano l’ammontare dei sinistri, o fuorvianti, perché nascondono informazioni. È poi possibile che vecchie foto siano utilizzate in nuovi sinistri o che immagini trovate su internet siano utilizzate in una richiesta di risarcimento.
In pratica, sembra che la velocità di adozione dei nuovi sistemi automatizzati non sia al passo con l’esigenza di rilevamento delle frodi. Sebbene esistano vari strumenti di rilevamento di shallowfake e deepfake, le compagnie assicurative non sembrano ancora disporre di personale con competenze tali da saper valutare i rischi corsi nella gestione di tali strumenti.
© RIPRODUZIONE RISERVATA
deepfake,
👥
