di ELEONORA BRACAGLIA –
Molti contenuti che circolano in rete rendono sempre più difficile distinguere la realtà dalla finzione. Con l’avvento del Deepfake, definito dal popolare sito Mashable “l’ultima crisi morale di internet”, il fenomeno delle fake news ha raggiunto il suo apice. Questo termine, coniato nel 2017 dall’Università di Washington, fa riferimento a video in cui volti e voci di persone sono stati manipolati e sovrapposti in modo dinamico ad altri, attraverso tecniche di intelligenza artificiale definite “deep learning”. Le immagini vengono quindi rielaborate e adattate ad un contesto diverso da quello originario ed inevitabilmente il loro significato muta. I Deepfake sono spesso usati nel cinema di Hollywood, molto amata dal pubblico è infatti la possibilità di vedere il proprio attore preferito in una pellicola in cui non ha mai recitato. Alcuni fan del film “Il Signore degli Anelli” hanno creato clip in cui il volto di tutti gli attori è stato sostituito con quello di Nicholas Cage. In questo caso la tecnica del “face-swap”, ovvero del cambio volti, è stata applicata per fini di intrattenimento, ma purtroppo nella maggior parte dei casi il suo utilizzo non ha intenti innocui.
Il Deepfake viene infatti utilizzato in molti ambiti per creare bufale, truffe, compiere crimini informatici, denigrare persone, o diffamare competitor nel settore politico e pubblicitario. Di recente, in Italia, sono stati scoperti alcuni gruppi Telegram in cui questa tecnica informatica è stata utilizzata per diffondere falsi video pornografici e immagini di revenge porn di ragazze famose e non. Spesso chi crea questi “falsi” fa vessazioni psicologiche sulle vittime che pur di non far pubblicare questi contenuti sono disposte a pagare cifre esorbitanti, pur di non vedere la loro vita rovinata. Quando il Deepfake viene utilizzato per fini illeciti è opportuno un intervento legislativo, ma ancora oggi non risulta così facile e chiaro applicare la legge a piattaforme digitali e utenti social che agiscono da ogni parte del mondo.
Nel 2018 un gruppo di ricercatori dell’Università di Albany a New York ha sviluppato metodi per identificare i video fasulli, monitorando il battito di ciglia dei protagonisti. Nonostante ciò, non basta dichiarare che un video sia falso quando ha già fatto il giro del mondo ed ha ottenuto milioni di visualizzazioni e impressions. Il Deepfake è un’arma a doppio taglio: da una parte potrebbe far progredire ambiti come quello pubblicitario e cinematografico, in cui forse tra qualche anno non sarà più necessaria la presenza fisica degli attori davanti alle telecamere, ma basterà una licenza firmata per mostrare il loro volto. Dall’altra parte, però, ci sono tutti gli utilizzi di questa nuova tecnica per finalità ai limiti della legalità.
Basti pensare agli enormi danni che potrebbe fare in ambito politico, soprattutto in un periodo come quello che stiamo vivendo, in cui la comunicazione diventa di fondamentale importanza. Tutto ciò porterebbe ad una sfiducia della società nei confronti dei contenuti in rete. Ma se le piattaforme digitali si assumessero la responsabilità di verificare ciò che diffondono, come d’altronde fanno i media tradizionali, il fenomeno potrebbe essere controllato. Secondo Alex Champandard, esperto di intelligenza artificiale “bisogna lavorare sulla costruzione della fiducia nei rapporti tra consumatori e creatori di contenuti.” La soluzione risiede in un lavoro di educazione all’uso della tecnologia e al consumo di informazione: è necessario aiutare il pubblico a diventare in grado di comprendere quando credere o meno a ciò che si vede o si ascolta.
*Eleonora Bracaglia (28/06/1999), studentessa presso la facoltà di comunicazione, media e pubblicità alla Iulm di Milano
Copyright©2020 Il Graffio, riproduzione riservata