I cosiddetti video deepfake rappresentano un rischio potenziale molto grave per la credibilità dei media, delle istituzioni e addirittura per la stabilità dei regimi democratici.
Negli ultimi anni le campagne di disinformazione sono riuscite a instillare dubbi e minare la stabilità sociale anche soltanto riportando dichiarazioni false o inventando notizie ai limiti della verosimiglianza.
Queste tecniche, per quanto si siano dimostrate efficaci, sono uno scherzo se confrontate con la possibilità di far dire o fare qualsiasi cosa a un personaggio pubblico, sfruttando e combinando il materiale video disponibile e le funzioni di modellazione della voce.
Proprio per combattere questo fenomeno, Intel sta sviluppando ormai da alcuni anni una soluzione basata sull’intelligenza artificiale che analizza il video alla ricerca di indicatori e segnali per aiutare a identificare un volto e una persona come “autenticamente umana”.
Risultati promettenti
I sistemi di classificazione di tipo tradizionale basati sul machine learning non hanno saputo garantire un’accuratezza soddisfacente nell’individuazione dei deepfake, perché le tecniche generative che contribuiscono a rendere sempre più verosimili questo genere di contenuti riescono a ingannare anche un sistema automatico.
FakeCatcher utilizza i segnali biologici nascosti nei video, utilizzando tecniche come la fotopletismografia per rilevare le variazioni nel flusso sanguigno nel volto e nelle altre aree visibili del corpo, oppure l’analisi dei movimenti degli occhi.
Secondo i risultati resi pubblici da Intel, l’accuratezza del riconoscimento è ottima: un video artefatto viene infatti categorizzato come tale nel 96% dei casi. Con alcuni dei dataset utilizzati, l’accuratezza cresce addirittura fino al 99,7%.
Il sistema di analisi è stato costruito sulla base di un server Intel Xeon Scalable ed è in grado di analizzare in tempo reale fino a 72 flussi video contemporaneamente.