1. Donna con capelli lunghi e scuri, sorridente con un'espressione sicura.

Microsoft mostra un'intelligenza artificiale che genera deepfake iperrealistici da 1 foto

Avatar di Alexandre Marques
VASA-1, la nuova IA di Microsoft, ha la capacità di creare video realistici da una singola foto, con risultati impressionanti. Capire.

O VASA-1 è l'ultima intelligenza artificiale di Microsoft, progettato per creare deepfake iperrealistici da una singola foto o disegno di una persona. Lo strumento colpisce per la sua capacità di riprodurre fedelmente le espressioni facciali e i movimenti della testa, dando l'illusione che la persona nella foto stia effettivamente esprimendo qualcosa. Nelle dimostrazioni presentate da Microsofto VASA-1 impressionato replicando il movimento delle labbra sincronizzato con l'audio e creando espressioni non presenti nelle foto originali, ottenendo video estremamente convincenti.

Il nuovo strumento solleva preoccupazioni sull’uso etico delle tecnologie deepfake, poiché la sua capacità di creare video realistici con poche informazioni di input potrebbe essere potenzialmente utilizzata per creare notizie false, video diffamatori e persino bufale. quindi, il Microsoft sta lavorando per garantire che il VASA-1 essere utilizzati in modo responsabile ed etico.

Cos'è VASA-1 e come funziona?

Sembra vero, ma il video qui sopra è solo a deepfake. la VASA-1 rappresenta un progresso significativo nella generazione di volti parlanti realistici attraverso l'intelligenza artificiale. O VASA-1 è in grado di produrre video di volti parlanti da una singola immagine fissa, sia essa una foto o un disegno, di un individuo e un clip audio di un discorso. I video risultanti presentano non solo movimenti delle labbra sincronizzati con l'audio, ma anche un'ampia gamma di dinamiche facciali naturali e movimenti della testa, raggiungendo un elevato livello di realismo e vividezza.

A differenza dei metodi precedenti, il VASA-1 si avvicina alla generazione di volti parlanti in modo olistico, considerando tutti i possibili movimenti facciali, come espressioni, movimenti oculari e ammiccamenti, come variabili latenti uniche. Inoltre, il VASA-1 incorpora segnali di condizionamento opzionali, come la direzione primaria dello sguardo, la distanza della testa e lo spostamento emotivo, nel processo di apprendimento. Ciò rende la modellazione generativa di distribuzioni complesse più gestibile e aumenta la contabilità della generazione. Nel video qui sotto, ad esempio, il VASA-1 ha dimostrato diverse opzioni di direzione dello sguardo nel deepfake.

Uno degli aspetti più impressionanti di VASA-1 è la sua capacità di generare volti parlanti in tempo reale, che lo rende ideale per applicazioni di comunicazione interattiva. Bilanciando la qualità della generazione video con l'efficienza computazionale, il VASA-1 Supera significativamente i metodi esistenti, avvicinandoci a un futuro in cui gli avatar digitali basati sull’intelligenza artificiale possono interagire con noi in modo naturale e intuitivo come le interazioni con veri esseri umani.

La rappresentazione di VASA-1 può modificare l'aspetto, la posizione tridimensionale della testa e le dinamiche facciali, consentendo il controllo separato degli attributi e la modifica del contenuto generato. Ciò significa che, anche con una singola foto di input, è possibile generare video di volti parlanti con diverse sequenze di movimento o applicare foto diverse alla stessa sequenza di movimento, ottenendo un'ampia varietà di possibilità di personalizzazione e controllo sul contenuto generato.

Pericoli dei deepfake

Deepfake iperrealistici
I deepfake vengono utilizzati come armi politiche e sono capaci di far emergere sul volto di una persona o dire qualcosa di non realmente espresso. Foto: riproduzione / Internet.

O VASA-1, nonostante le sue possibili applicazioni positive, presenta anche notevoli rischi legati alla creazione di deepfake. Questa tecnologia può essere utilizzata in modo improprio per creare video falsi estremamente convincenti in cui una persona viene raffigurata mentre fa o dice qualcosa che non è mai accaduto. Questi deepfake possono potenzialmente causare gravi danni, come diffondere disinformazione, manipolare l’opinione pubblica, diffamare individui e persino incitare conflitti sociali o politici.

Soprattutto durante i periodi elettorali, la tecnologia potrebbe generare problemi derivanti da un uso dannoso con la creazione di deepfake politici. Con questa tecnologia è possibile creare video di politici o personaggi pubblici che pronunciano discorsi falsi o compiono azioni compromettenti. Questi video possono essere utilizzati per influenzare le elezioni, minare la fiducia del pubblico nei leader e nelle istituzioni e generare instabilità politica.

L’utilizzo dei Deepfake ha suscitato l’attenzione e la preoccupazione di diversi governi in tutto il mondo. In Brasile, il TSE vietato l’uso dei deepfake nelle elezioni, con la misura approvata nel febbraio di quest'anno. Questo divieto mira a prevenire la manipolazione delle informazioni e a proteggere l’integrità del processo elettorale, impedendo che video e audio falsi vengano utilizzati per danneggiare o favorire i candidati. L'utilizzo improprio dei deepfake può comportare la revoca del mandato o l'iscrizione della candidatura.

La Cina, in particolare, ha aperto la strada a una regolamentazione completa dell’uso di queste tecnologie. La sua legislazione, più ampia di quella adottata da alcuni governi occidentali, è vista come uno strumento per mantenere la stabilità sociale. Vieta esplicitamente la creazione di deepfake senza consenso e richiede una chiara identificazione dei contenuti generati dall’intelligenza artificiale.

Un esempio allarmante si è verificato dopo l’invasione russa dell’Ucraina, quando un video deepfake è stato ampiamente diffuso sui social media. In esso, il presidente ucraino Volodymyr Zelenskyj sembrava ordinare alle sue truppe di arrendersi, cosa che in realtà non è mai avvenuta. Inoltre, i deepfake possono essere utilizzati in modo più ampio nelle situazioni quotidiane, come la creazione di video falsi di celebrità, amici o familiari, creando confusione e danneggiando la reputazione delle persone coinvolte.

previsione di rilascio

Deepfake iperrealistici
Microsoft esprime preoccupazione anche per l'uso improprio di VASA-1. Foto: riproduzione / Internet.

A Microsoft riconosce i rischi associati VASA-1 e si impegna a garantire che lo strumento sia sviluppato e utilizzato in modo responsabile. A causa dei potenziali problemi etici, di privacy e di sicurezza che VASA-1 può generare il Microsoft Non esiste ancora una data di uscita per il grande pubblico.

L’azienda sta lavorando attivamente per implementare misure di sicurezza e controllo che aiutino a mitigare i rischi di uso improprio della tecnologia. Gli sviluppatori stanno lavorando per migliorare l'autenticità dei video generati e sviluppare metodi di rilevamento dei deepfake che possano aiutare a combattere l'uso improprio della tecnologia, prima di considerarne il rilascio al grande pubblico.

Vedi questa ed altre novità su Showmetech TRIO:

Vedi anche:

https://www.showmetech.com.br/como-criminosos-clonam-pessoas-com-inteligencia-artificial

Fonti: PCMag, Microsoft e pantaloncini

Recensito da Glaucone Vitale il 22/4/24.


Scopri di più su Showmetech

Iscriviti per ricevere le nostre ultime novità via e-mail.

Related posts