False pubblicità con i cardinali? Un problema serio, da affrontare
In rete, tra tanti video, si possono vedere il cardinale Ravasi e il cardinale Pizzaballa che promuovono miracolose cure per vista e udito. Sono falsi, "deepfake", e servirebbe una regolazione pubblica per impedire che questo accada
Caro Avvenire,
non sono un appassionato dei social media, ma ho un profilo su Facebook grazie a mia figlia che mi ha aiutato a inserirvi le foto dei miei quadri. Così, nei giorni passati, ho guardato i “reels” proposti su Meta e ho scoperto che studiosi come Silvio Garattini e Franco Berrino reclamizzano prodotti indicati come panacea a tutti i mali. Non solo, mi sono comparsi il cardinale Ravasi e il cardinale Pizzaballa, che promuovono miracolose cure per vista e udito. Ho subito collegato queste truffe agli artifici prodotti con l’aiuto dell’IA, allo scopo di accalappiare ignari creduloni per trarne lucro.
Mariano Trestin
non sono un appassionato dei social media, ma ho un profilo su Facebook grazie a mia figlia che mi ha aiutato a inserirvi le foto dei miei quadri. Così, nei giorni passati, ho guardato i “reels” proposti su Meta e ho scoperto che studiosi come Silvio Garattini e Franco Berrino reclamizzano prodotti indicati come panacea a tutti i mali. Non solo, mi sono comparsi il cardinale Ravasi e il cardinale Pizzaballa, che promuovono miracolose cure per vista e udito. Ho subito collegato queste truffe agli artifici prodotti con l’aiuto dell’IA, allo scopo di accalappiare ignari creduloni per trarne lucro.
Mariano Trestin
Caro Trestin,
ribadiamo subito che quei brevi video sono dei falsi creati per truffare più persone possibile prima che vengano rimossi o sia ampiamente acclarato che nascono da una manipolazione. Il punto preoccupante è che spesso risultano tecnicamente quasi perfetti e, in alcuni casi, anche dotati di qualche credibilità. Che i cardinali – e quei due cardinali che lei cita – facciano pubblicità commerciale appare davvero improbabile. Ma un medico che parla di integratori non suona così strano. Sono i frutti avvelenati dell’intelligenza artificiale usata per la frode. Gli imbroglioni ci sono sempre stati (addirittura, gli psicologi evoluzionisti sostengono che la nostra mente ha sviluppato nel corso dei millenni un modulo specifico per individuare i tentativi di inganno nelle interazioni sociali). Non c’era però uno strumento così efficace per metterli in atto. Il famoso filosofo e scienziato cognitivo Daniel Dennett sosteneva già alcuni anni fa (poco prima di morire) che le immagini create con le nuove tecniche digitali avrebbero reso impossibile distinguere il vero dal falso e che questo avrebbe costituito il maggiore problema dell’IA generativa. Si era allora quasi all’inizio, e la preoccupazione poteva sembrare eccessiva; oggi dobbiamo riconoscere che si tratta in effetti di una delle questioni più pressanti. In Italia, il fenomeno dei deepfake con personaggi famosi che pubblicizzano prodotti finanziari o “miracolosi” è recentemente diventato molto diffuso sui social network e su molti siti pubblicitari. La tecnica è abbastanza comune. Si prende un filmato reale di una personalità pubblica (intervista tv, conferenza, omelia), con un software di IA si contraffanno voce e corrispondente movimento delle labbra, inserendo un messaggio promozionale. Il fenomeno ha colpito molte categorie, dagli scienziati ai giornalisti, dagli attori ai religiosi. Di fronte a tante denunce, le autorità non sono certo inerti. La polizia postale procede per truffa online, sostituzione di persona e frode informatica. Di conseguenza, la magistratura ha aperto vari procedimenti penali. Molte inchieste riguardano reti transnazionali di marketing fraudolento. Ma spesso i server sono all’estero, il che rende le indagini più difficili. L’Autorità Garante della Concorrenza entra in campo quando la pubblicità è ingannevole o tocca aspetti sanitari che non sono autorizzati, potendo ordinare la rimozione delle pagine o sanzionare gli intermediari pubblicitari. Nonostante segnalazioni e interventi, i video incriminati continuano a ricomparire. Il motivo sta nella loro origine in infrastrutture pubblicitarie internazionali, con siti web che cambiano dominio rapidamente o che diffondono i contenuti tramite piattaforme di advertising automatizzato. Il nodo sta però nella possibilità di realizzare deepfake con strumenti di IA sempre più diffusi e facili da utilizzare. Risulta quindi più efficace agire alla fonte che inseguire ogni singolo falso sul Web, una fatica di Sisifo che non dà risultati. Sono perciò allo studio sistemi per marcare in modo chiaro e riconoscibile (quasi indelebile) i video realizzati con gli algoritmi di intelligenza artificiale generativa. In realtà, pare di capire che ciò sia già fattibile, ma che manchi la volontà dei grandi gruppi di adottare quei meccanismi, forse per il timore di vedere ridotta la quota di mercato rispetto a coloro che continueranno a non introdurre nessun accorgimento difensivo. Qui serve dunque la regolazione pubblica. Dovrebbe essere varata una normativa che imponga a tutti i fornitori di algoritmi di introdurre la riconoscibilità dei deepfake a favore dei consumatori finali. Alcuni organismi consultivi italiani l’hanno suggerito. Tuttavia, sappiamo che le BigTech americane o cinesi non si piegheranno facilmente alla legislazione di un singolo Paese. Per cui, caro Trestin, vedremo ancora volti noti usati contro la loro volontà per ingannare utenti che, speriamo, siano sempre più avvertiti e meno proni a cadere nella truffa.
ribadiamo subito che quei brevi video sono dei falsi creati per truffare più persone possibile prima che vengano rimossi o sia ampiamente acclarato che nascono da una manipolazione. Il punto preoccupante è che spesso risultano tecnicamente quasi perfetti e, in alcuni casi, anche dotati di qualche credibilità. Che i cardinali – e quei due cardinali che lei cita – facciano pubblicità commerciale appare davvero improbabile. Ma un medico che parla di integratori non suona così strano. Sono i frutti avvelenati dell’intelligenza artificiale usata per la frode. Gli imbroglioni ci sono sempre stati (addirittura, gli psicologi evoluzionisti sostengono che la nostra mente ha sviluppato nel corso dei millenni un modulo specifico per individuare i tentativi di inganno nelle interazioni sociali). Non c’era però uno strumento così efficace per metterli in atto. Il famoso filosofo e scienziato cognitivo Daniel Dennett sosteneva già alcuni anni fa (poco prima di morire) che le immagini create con le nuove tecniche digitali avrebbero reso impossibile distinguere il vero dal falso e che questo avrebbe costituito il maggiore problema dell’IA generativa. Si era allora quasi all’inizio, e la preoccupazione poteva sembrare eccessiva; oggi dobbiamo riconoscere che si tratta in effetti di una delle questioni più pressanti. In Italia, il fenomeno dei deepfake con personaggi famosi che pubblicizzano prodotti finanziari o “miracolosi” è recentemente diventato molto diffuso sui social network e su molti siti pubblicitari. La tecnica è abbastanza comune. Si prende un filmato reale di una personalità pubblica (intervista tv, conferenza, omelia), con un software di IA si contraffanno voce e corrispondente movimento delle labbra, inserendo un messaggio promozionale. Il fenomeno ha colpito molte categorie, dagli scienziati ai giornalisti, dagli attori ai religiosi. Di fronte a tante denunce, le autorità non sono certo inerti. La polizia postale procede per truffa online, sostituzione di persona e frode informatica. Di conseguenza, la magistratura ha aperto vari procedimenti penali. Molte inchieste riguardano reti transnazionali di marketing fraudolento. Ma spesso i server sono all’estero, il che rende le indagini più difficili. L’Autorità Garante della Concorrenza entra in campo quando la pubblicità è ingannevole o tocca aspetti sanitari che non sono autorizzati, potendo ordinare la rimozione delle pagine o sanzionare gli intermediari pubblicitari. Nonostante segnalazioni e interventi, i video incriminati continuano a ricomparire. Il motivo sta nella loro origine in infrastrutture pubblicitarie internazionali, con siti web che cambiano dominio rapidamente o che diffondono i contenuti tramite piattaforme di advertising automatizzato. Il nodo sta però nella possibilità di realizzare deepfake con strumenti di IA sempre più diffusi e facili da utilizzare. Risulta quindi più efficace agire alla fonte che inseguire ogni singolo falso sul Web, una fatica di Sisifo che non dà risultati. Sono perciò allo studio sistemi per marcare in modo chiaro e riconoscibile (quasi indelebile) i video realizzati con gli algoritmi di intelligenza artificiale generativa. In realtà, pare di capire che ciò sia già fattibile, ma che manchi la volontà dei grandi gruppi di adottare quei meccanismi, forse per il timore di vedere ridotta la quota di mercato rispetto a coloro che continueranno a non introdurre nessun accorgimento difensivo. Qui serve dunque la regolazione pubblica. Dovrebbe essere varata una normativa che imponga a tutti i fornitori di algoritmi di introdurre la riconoscibilità dei deepfake a favore dei consumatori finali. Alcuni organismi consultivi italiani l’hanno suggerito. Tuttavia, sappiamo che le BigTech americane o cinesi non si piegheranno facilmente alla legislazione di un singolo Paese. Per cui, caro Trestin, vedremo ancora volti noti usati contro la loro volontà per ingannare utenti che, speriamo, siano sempre più avvertiti e meno proni a cadere nella truffa.
© RIPRODUZIONE RISERVATA


