Facebook sta sviluppando un nuovo metodo per reingegnerizzare i deepfake e rintracciare la loro origine. Questo lavoro può aiutare la futura ricerca sui deepfake.
Deepfake non è attualmente un dilemma di Facebook, ma l’azienda finanzia uno studio sulla tecnologia per prevenire le prossime minacce.
Il suo lavoro più recente è stato in alleanza con gli scienziati della Michigan State University (MSU), dove il comitato ha collaborato per il reverse-engineer di deepfake: Analizzando le immagini generate dall’IA per scoprire le caratteristiche riconosciute del modello di apprendimento automatico viene creato. Molto utile perché può aiutare Facebook a rintracciare gli attaccanti di Deepfake su diversi social network.
Senza il consenso dell’utente, questo soggetto può contenere disinformazione e pornografia – un uso reciproco di frustranti tecniche di falsificazione profonda. Non è ancora pronto per la diffusione. Questo metodo può supportare la falsificazione profonda attraverso la rete e dedurre quali modelli AI ben noti hanno prodotto falsificazioni profonde. Eppure, questo lavoro guidato da Vishal Asnani dell’Università Statale di Mosca è determinato dal far andare avanti caratteristiche architettoniche meno note.
Facebook can now reverse-engineer #deepfakes and track their source.https://t.co/jkhqWcOf4u #socialmedia
— Tweepsmap (@tweepsmap) June 16, 2021
Queste proprietà, chiamate iperparametri, devono essere regolate ad ogni apprendimento automatico. Il modello è usato come parte del motore. Insieme lasciano un’impronta distintiva sull’immagine completa, che può essere utilizzata per determinarne l’origine.
Nuovi metodi forensi
Hassner ha confrontato questo lavoro con i metodi forensi per determinare quale modello di fotocamera è stato utilizzato per scattare le foto notando i modelli nelle immagini che si verificano. Tuttavia, non tutti possono creare la loro macchina fotografica, ha detto. Anche se chiunque con sufficiente esperienza e computer standard può creare i propri modelli per generare falsi profondi.
L’algoritmo di stemming può marcare le caratteristiche del modello generato e determinare quale modello noto ha costruito l’immagine e l’immagine è questa. Il primo è un falso profondo. Abbiamo ottenuto i migliori risultati attraverso test standard, ha detto Hassner. Sfida Ma è importante sapere che anche questi risultati all’avanguardia sono tutt’altro che credibili.
Problema irrisolto
Quando Facebook ha tenuto un torneo di rilevamento di Deepfake l’anno scorso, l’algoritmo vincitore ha potuto riconoscere i video AI solo il 65,18% delle volte. Gli scienziati dicono che l’uso di algoritmi per rilevare la falsificazione profonda è ancora un problema irrisolto. Uno dei motivi è che l’area dell’intelligenza artificiale produttiva è molto attiva. Nuovi metodi vengono rilasciati ogni giorno, il che è quasi per qualsiasi filtro. È impossibile.
Gli esperti sono consapevoli di questa dinamica, e quando si è chiesto se il rilascio di questo nuovo algoritmo di impronte digitali porterà a indagini in cui queste tecnologie possono essere trascurate, Hasner ha concordato – è ancora un gioco del gatto col topo.
Lascia una risposta
Commenti