Lita inte på något du ser på webben, säger experter

Innehållsförteckning:

Lita inte på något du ser på webben, säger experter
Lita inte på något du ser på webben, säger experter
Anonim

Key takeaways

  • Ny forskning visar att människor inte kan separera AI-genererade bilder från riktiga.
  • Deltagare bedömde AI-genererade bilder som mer pålitliga.
  • Experter anser att folk borde sluta lita på allt de ser på internet.
Image
Image

Ordspråket "att se är att tro" är inte längre relevant när det gäller internet, och experter säger att det inte kommer att bli bättre när som helst snart.

En nyligen genomförd studie fann att bilder av ansikten som genererats av artificiell intelligens (AI) inte bara var mycket fotorealistiska, utan de verkade också mer dygdiga än riktiga ansikten.

"Vår utvärdering av fotorealismen hos AI-syntetiserade ansikten indikerar att syntesmotorer har passerat genom den kusliga dalen och kan skapa ansikten som är omöjliga att urskilja och mer pålitliga än verkliga ansikten", observerade forskarna.

Den personen finns inte

Forskarna, Dr. Sophie Nightingale från Lancaster University och professor Hany Farid från University of California, Berkeley, genomförde experimenten efter att ha erkänt de väl omtalade hoten om djupa förfalskningar, allt från alla typer av onlinebedrägerier till uppiggande desinformationskampanjer.

"Kanske den mest skadliga är konsekvensen att i en digital värld där vilken bild eller video som helst kan förfalskas, kan äktheten av en obekväm eller ovälkommen inspelning ifrågasättas", hävdade forskarna.

De hävdade att även om det har gjorts framsteg med att utveckla automatiska tekniker för att upptäcka djupt falskt innehåll, är nuvarande tekniker inte tillräckligt effektiva och exakta för att hålla jämna steg med den ständiga strömmen av nytt innehåll som laddas upp online. Det betyder att det är upp till konsumenterna av onlineinnehåll att sortera ut det verkliga från det falska, föreslår duon.

Jelle Wieringa, en förespråkare för säkerhetsmedvetenhet på KnowBe4, höll med. Han sa till Lifewire via e-post att det är extremt svårt att bekämpa faktiska djupa förfalskningar utan specialiserad teknik. "[Limiterande teknik] kan vara dyrt och svårt att implementera i re altidsprocesser, ofta upptäcker en deepfake först i efterhand."

Med detta antagande utförde forskarna en serie experiment för att avgöra om mänskliga deltagare kan särskilja toppmoderna syntetiserade ansikten från verkliga ansikten. I sina tester fann de att trots utbildning för att hjälpa till att känna igen förfalskningar, förbättrades noggrannheten bara till 59 %, upp från 48 % utan träning.

Detta fick forskarna att testa om uppfattningar om pålitlighet kunde hjälpa människor att identifiera konstgjorda bilder. I en tredje studie bad de deltagarna att betygsätta ansiktenas trovärdighet, bara för att upptäcka att det genomsnittliga betyget för syntetiska ansikten var 7.7 % mer pålitlig än det genomsnittliga betyget för riktiga ansikten. Siffran kanske inte låter så mycket, men forskarna hävdar att det är statistiskt signifikant.

Deeper Fakes

Djupa förfalskningar var redan ett stort problem, och nu har vattnet grumlats ytterligare av denna studie, vilket tyder på att sådana högkvalitativa falska bilder skulle kunna ge en helt ny dimension till onlinebedrägerier, till exempel genom att hjälpa till att skapa fler övertygande falska profiler online.

"Det enda som driver cybersäkerhet är det förtroende som människor har för teknikerna, processerna och människorna som försöker hålla dem säkra", delade Wieringa. "Djupa förfalskningar, särskilt när de blir fotorealistiska, undergräver detta förtroende och därför antagandet och acceptansen av cybersäkerhet. Det kan leda till att människor blir misstroende mot allt de uppfattar."

Image
Image

Chris Hauk, förkämpe för konsumentskydd på Pixel Privacy, höll med. I ett kort e-postutbyte sa han till Lifewire att fotorealistisk djup förfalskning kan orsaka "kaos" på nätet, särskilt nuförtiden när alla typer av konton kan nås med hjälp av foto-ID-teknik.

Korrigerande åtgärd

Tack och lov säger Greg Kuhn, chef för IoT, Prosegur Security, att det finns processer som kan undvika sådan bedräglig autentisering. Han berättade för Lifewire via e-post att AI-baserade autentiseringssystem matchar en verifierad individ mot en lista, men många har inbyggda skyddsåtgärder för att kontrollera om de är "livade".

"Dessa typer av system kan kräva och vägleda en användare att utföra vissa uppgifter som att le eller vrida huvudet åt vänster och sedan höger. Det här är saker som statiskt genererade ansikten inte kunde utföra", delade Kuhn.

Forskarna har föreslagit riktlinjer för att reglera deras skapande och distribution för att skydda allmänheten från syntetiska bilder. Till att börja med föreslår de att man införlivar djupt rotade vattenstämplar i själva bild- och videosyntesnätverken för att säkerställa att alla syntetiska medier kan identifieras på ett tillförlitligt sätt.

Tills dess säger Paul Bischoff, integritetsförespråkare och redaktör för infosec research på Comparitech, att folk är ensamma."Människor måste lära sig att inte lita på ansikten online, precis som vi alla (förhoppningsvis) har lärt oss att inte lita på visningsnamn i våra e-postmeddelanden", sa Bischoff till Lifewire via e-post.

Rekommenderad: