Rubriche

Smascherare i video falsi copiando la medicina

Gigio Rancilio venerdì 18 novembre 2022
Distinguere il vero dal falso è una delle sfide più importanti del presente e del (prossimo) futuro. Se già oggi esistono app da pochi euro che permettono di creare video nei quali far apparire in situazioni anche imbarazzanti personaggi famosi, amici o ex fidanzate/i, figuratevi cosa potrà accadere nel giro di pochi anni a questi video falsi, chiamati deepfake. Saremo invasi da false interviste, audio e video, composte da frasi mai pronunciate davvero dai protagonisti, ma create usando parole da loro dette in contesti diversissimi e lontani anche nel tempo fra loro ma rese “vere” da sistemi gestiti da intelligenza artificiale. Un problema enorme. Che riguarda tutti. Per fortuna, combatterlo potrebbe rivelarsi anche un ottimo business e così alcuni giganti del digitale hanno deciso di impegnarsi per arginarlo. Proprio pochi giorni fa Intel ha presentato FakeCatcher, il suo “cacciatore di falsi”. Ha la particolarità di essere «il primo rilevatore in tempo reale di deepfake, con un tasso di precisione del 96%». Possibile? «Funziona - ha spiegato Intel - analizzando il “flusso sanguigno” del visod ei soggetti nei pixel video». L’idea è nata da un metodo utilizzato in alcuni esami medici nei quali si misura la quantità di luce assorbita o riflessa dai vasi sanguigni «al variare del volume del sangue nel letto microvascolare del tessuto». Detta molto banalmente (ci perdonino gli esperti):
quando il cuore pompa sangue nei vasi sanguigni, questi cambiano colore, magari in maniera impercettibile all’occhio umano ma misurabile da una macchina molto potente. In pratica: analizzando i micro cambiamenti prodotti dai flussi di sangue su 32 punti del viso dei protagonisti, FakeCatcher smaschera le alterazioni prodotte dai falsari. Già oggi, secondo Forrester Research, i costi associati alle truffe deepfake hanno superato i 250 milioni di dollari. Poco rispetto ad altri tipi di truffe. Ma siamo solo all'inizio. Perché come sostiene Eric Horvitz, responsabile della divisione ricerca di Microsoft, «scoprire i falsi sarà sempre più importante, visto che in
circolazione ci sono già anche video falsi interattivi, che danno l'illusione di parlare con una persona reale. Ed è solo l'inizio». FakeCatcher non è l'unico progetto di Intel per smascherare i falsi. C'è un intero ramo dell'azienda, denominato Trusted Media (Media attendibili), che sta lavorando su altri sistemi di rilevamento di contenuti manipolati, «uno dei quali sarà basato sull'analisi degli sguardi dei protagonisti».
Tutto bene, quindi. Ma se i cacciatori di falsi affilano le loro armi, cosa ci fa dire che i falsari non stiano facendo lo stesso? Demir di Intel non ha dubbi: «Al momento nessuno può ingannare il nostro sistema». Eppure Rowan Curran, analista di Forrester Research, ha dichiarato a VentureBeat che la guerra tra falsari e cacciatori di falsi è più complessa. «Il rilevatore di falsi di Intel potrebbe essere un significativo passo avanti se davvero funziona così bene come affermano. Ma l’importante è che la sua accuratezza non dipenda anche dall’etnia del protagonista del video». Il riferimento è a uno studio del 2020 dei ricercatori di Google e dell'Università di Berkeley che ha dimostrato «che anche i migliori sistemi di intelligenza artificiale addestrati a distinguere tra contenuti reali e manipolati sono suscettibili di analisi contraddittorie, a volte perché ingannati dall’etnia dei soggetti». Perché anche le macchine, visto che sono progettate da esseri umani, possono fare errori e avere dei pregiudizi razziali. © riproduzione riservata