Facebooks Deepfake-teknik kommer inte att rädda oss, säger experter

Innehållsförteckning:

Facebooks Deepfake-teknik kommer inte att rädda oss, säger experter
Facebooks Deepfake-teknik kommer inte att rädda oss, säger experter
Anonim

Key takeaways

  • När deepfakes blir lättare att göra, har nya och förbättrade sätt att upptäcka dem blivit en prioritet.
  • Facebooks teknik för deepfake-spotting använder omvänd maskininlärning för att avslöja om en video är en deepfake eller inte.
  • Experter säger att användning av blockchain-teknik skulle vara det bästa sättet att se om en video är verklig eller inte eftersom metoden bygger på kontextuella data.
Image
Image

Facebook är övertygad om sin maskininlärningsmodell för att bekämpa deepfakes, men experter säger att maskininlärning i sig inte kommer att rädda oss från att bli lurade av deepfakes.

Företag som Facebook, Microsoft och Google arbetar alla för att bekämpa deepfakes från att spridas över webben och sociala nätverk. Även om metoderna skiljer sig åt, finns det en potentiell idiotsäker metod för att upptäcka dessa falska videor: blockkedjor.

“[Blockkedjor] ger dig bara massor av potential att validera deepfake på ett sätt som är den bästa formen av validering som jag kan se”, Stephen Wolfram, grundare och VD för Wolfram Research och författare till A New Kind of Science, sa till Lifewire över telefon.

Facebooks Deepfake-spotting-teknik

Deepfake-tekniken har vuxit snabbt under de senaste åren. De vilseledande videorna använder maskininlärningsmetoder för att göra saker som att lägga någons ansikte på en annan persons kropp, ändra bakgrundsförhållanden, falsk läppsynkronisering och mer. De sträcker sig från ofarliga parodier till att få kändisar eller offentliga personer att säga eller göra något de inte gjorde.

Experter säger att tekniken går snabbt framåt och att deepfakes bara kommer att bli mer övertygande (och lättare att skapa) när tekniken blir mer allmänt tillgänglig och mer innovativ.

Image
Image

Facebook gav nyligen mer insikt i dess deepfake-detekteringsteknik i samarbete med Michigan State University. Det sociala nätverket säger att det förlitar sig på omvänd konstruktion från en enda bild som genereras av artificiell intelligens till den generativa modellen som används för att producera den.

Forskare som arbetade med Facebook sa att metoden bygger på att avslöja de unika mönstren bakom AI-modellen som används för att generera en deepfake.

“Genom att generalisera bildtillskrivning till öppen uppsättning igenkänning kan vi dra slutsatsen mer information om den generativa modellen som används för att skapa en djupförfalskning som går utöver att inse att den inte har setts tidigare. Och genom att spåra likheter mellan mönstren i en samling djupförfalskningar, kunde vi också se om en serie bilder härstammar från en enda källa”, skrev forskarna Xi Yin och Tan Hassner i Facebooks blogginlägg om dess metod för deepfake-spotting.

Image
Image

Wolfram säger att det är vettigt att du använder maskininlärning för att upptäcka en avancerad AI-modell (en deepfake). Men det finns alltid utrymme att lura tekniken.

"Jag är inte alls förvånad över att det finns ett anständigt sätt för maskininlärning att [upptäcka deepfakes]", sa Wolfram. "Den enda frågan är om du anstränger dig tillräckligt, kan du lura det? Jag är säker på att du kan.”

Bekämpa Deepfakes på ett annat sätt

Istället sa Wolfram att han tror att användning av blockchain skulle vara det bästa alternativet för att exakt hitta vissa typer av deepfakes. Hans åsikt om att använda blockchain framför maskininlärning går tillbaka till 2019, och han sa att blockchain-metoden i slutändan kan ge en mer exakt lösning på vårt deepfake-problem.

"Jag skulle förvänta mig att bild- och videotittare rutinmässigt kunde kontrollera mot blockkedjor (och 'datatrianguleringsberäkningar') lite som hur webbläsare nu kontrollerar säkerhetscertifikat", skrev Wolfram i en artikel publicerad i Scientific American.

Eftersom blockkedjor lagrar data i block som sedan kedjas samman i kronologisk ordning, och eftersom decentraliserade blockkedjor är oföränderliga, är den inmatade informationen oåterkallelig.

Den enda frågan är om du anstränger dig tillräckligt, kan du lura den? Jag är säker på att du kan.

Wolfram förklarade att genom att lägga in en video i en blockchain, skulle du kunna se tiden den togs, platsen och annan kontextuell information som gör att du kan se om den har ändrats på något sätt.

"I allmänhet, om ju mer metadata det finns som kontextualiserar bilden eller videon, desto mer sannolikt är det att du kan berätta", sa han. "Du kan inte fejka tid på en blockchain."

Men Wolfram sa att metoden som används – oavsett om det är maskininlärning eller att använda blockchain – beror på vilken typ av deepfake du försöker skydda dig mot (dvs en video där Kim Kardashian säger något dumt eller en video av en politiker som gör ett uttalande eller förslag).

"Blockkedjemetoden skyddar mot vissa typer av djupa förfalskningar, precis som bildbehandlingen med maskininlärning skyddar mot vissa typer av djupa förfalskningar", sa han.

Slutet, verkar det som, är vaksamhet för oss alla när det gäller att bekämpa den kommande deepfake syndafloden.

Rekommenderad: