L'invasione dei «fake» e la sfida che ci aspetta
venerdì 3 luglio 2020
Nessuno di noi sa con esattezza quali tecnologie useremo nei prossimi decenni per comunicare né tantomeno se i social esisteranno ancora e quali, nel caso, sopravviveranno. Ma su un punto ci sono pochi dubbi: il problema più grande che tutti abbiamo e avremo davanti è e sarà quello di riconoscere ciò che è falso da ciò che è vero.
Sono anni ormai che si parla di fake news, spesso unendo sotto questa etichetta cose molto diverse, alcune delle quali (come ad esempio le tesi di un politico che non ci piace) non c'entrano nulla. Così come sono anni che circolano ricette diverse per provare a contrastarle. Nel frattempo abbiamo imparato che le fake news (cioè, le notizie inventate ad arte per screditare un avversario politico) sono sempre esistite e che il digitale ha solo reso molto più semplice e più efficace la loro circolazione.
Ma non è finita qui. Mentre noi, giustamente, discutiamo di fake news il mondo digitale corre a grandi passi. Quando, due anni fa, denunciammo la pratica criminale di confezionare video porno falsi, sostituendo le facce di persone famose o di ex fidanzate a quelle dei protagonisti, la tecnologia non era ancora perfetta. E con occhi attenti era ancora possibile capire che fossero fake. Da allora per produrre falsi sono arrivati anche i software in grado di assemblare frammenti audio dei discorsi di una persona per farle dire ciò che si vuole. Sono nati siti che offrono foto di persone che non esistono ( tinyurl.com/y534bxqo ) create dall'intelligenza artificile e che spesso vengono usate per dare vita a profili social falsi. Ed è stato testato un modello di intelligenza artificiale chiamano Gpt-2 «che, partendo da milioni di pagine immagazzinate, è in grado di produrre fake news senza l'intervento umano e di creare tesi argomentate a sostegno di qualunque affermazione, vera o falsa che sia».
Per non parlare della pratica dei «deepfake» – cioè, dei video falsi, manipolati ad arte – che ha raggiunto livelli preoccupanti. Come informa il sito TechCrunch, «grazie a un algoritmo sviluppato da Disney Research e dall'Ethdi Zurigo è ora possibile produrre foto e video ad alta risoluzione in cui si scambiano i volti dei personaggi presenti con un risultato indistinguibile dall'originale». Chi è abituato a pensare sempre positivo, sottolinea che potrà essere usato per far recitare attori morti e riportare in scena cantanti scomparsi. Pratiche che, come quella del «de-aging» (che attraverso sensori sui corpi degli attori e potenti computer ringiovanisce i protagonisti dei film e dei video) possono far discutere ma che non appaiono pericolose. Invece le potenzialità di questo nuovo algoritmo devono farci paura. Il sistema presentato all'Eurographics Symposium on Rendering, rappresenta un passo ulteriore rispetto ai sistemi attuali usati per produrre i cosiddetti video «deepfake», che finora avevano una bassa risoluzione e quindi dettagli che li rendevano riconoscibili a occhi esperti. Qui «l'effetto è molto più realistico, con un risultato indistinguibile dall'originale».
Per ora queste tecnologie sono ancora costose, ma non è difficile ipotizzare che, tra pochi anni, chiunque potrà produrre tesi, libri, discussioni, notizie, audio e video falsi, usando strumenti e applicazioni che saranno alla portata di tutti.
Così, non solo a chi ha poca dimestichezza col digitale ma anche a chi crede di sapere tutto, apparirà vera qualunque notizia, qualunque dichiarazione audio e qualunque video fake. E scoprire i falsi sarà appannaggio solo di chi avrà a disposizione strumenti molto sofisticati. Se nel frattempo la politica e chi di dovere lavorassero per mettere in tempo delle regole a queste pratiche, potremmo evitare di strapparci le vesti quando sarà troppo tardi. L'alternativa sarà ritrovarci in un mondo dove ognuno crederà a ciò che più gli fa comodo (come in parte accade anche adesso) e le persone saranno sempre più facilmente manipolabili. E la confusione regnerà sovrana.
© Riproduzione riservata
COMMENTA E CONDIVIDI

ARGOMENTI: