Key takeaways
- Amazons Alexa-röstassistent kan kopiera en röst med så lite som en minuts ljud.
- Du kan be Alexa att läsa en berättelse med en död förälders röst.
- Det är samma idé som djupa förfalskningar, endast används för det goda.
Amazon Alexas senaste gimmick är att lära sig att härma rösten från en död älskad, så att de kan tala till dig från andra sidan graven.
Alexa behöver bara en minuts talat ljud för att på ett övertygande sätt härma en röst. Amazon fakturerar det som en tröstande funktion som kan sätta dig i kontakt med nära och kära, men det kan också vara en ganska läskig upplevelse. Och det visar hur lätt det är att göra djupt falskt ljud som är tillräckligt bra för att lura oss, även när rösten är en vi känner mycket väl.
"Amazon har definitivt gått in i ett ganska unikt och bisarrt territorium med sitt tillkännagivande att Alexa snart skulle kunna lära sig och sedan använda rösten från döda släktingar snart", sa Bill Mann, integritetsexpert på Restore Privacy, till Lifewire via e-post. "För vissa människor är det inte alls läskigt. Det kan faktiskt vara ganska rörande."
Ghost in the Machine
Som en del av sin årliga re:MARS-konferens visar Amazon upp funktionen i en kort video. I den frågar ett barn Alexa om mormor kan fortsätta läsa honom "Trollkarlen från Oz", varje barns favoritverk för keynote-vänliga public domain. Och det är ett ganska rörande ögonblick. Det är svårt att inte känna mänskliga känslor när mormor börjar läsa.
"Människor kämpar med dödligheten, särskilt i den västerländska kulturen. I århundraden har vi försökt hitta sätt att minnes de döda, från dödsmasker, till hårlock, till gamla foton, till att titta på gamla filmer," Andrew Selepak, en social mediaprofessor vid University of Florida, berättade för Lifewire via e-post. "Deepfakes använder den senaste tekniken för att skapa en ny dödsmask för en avliden älskad. Men, beroende på ens perspektiv, är det läskigt eller ett sätt att minnas och hålla fast vid någon du älskar efter att de har dött?"
Men en memento mori kan vara både tröstande och läskig. En familjemedlems vän är död, men du kan fortfarande höra dem tala. Det hjälper inte att Alexa har en historia av udda, och ibland skrämmande, beteenden. 2018, när NYT:s opinionskolumnist Farhad Manjoo höll på att lägga sig, började hans Amazon Echo "jara, som ett barn som skriker i en skräckfilmsdröm."
Snart efter erkände Amazon att Alexa ibland skrattade högt, vilket tillsammans med tonåringar och källare är skräckfilm 101.
Man kan bara undra hur du skulle känna om Alexa gjorde samma tricks i mormors röst.
Deep Fake
Den uppenbara lättheten med vilken Alexa lär sig att härma en röst leder oss till mer skändliga användningar av röstkloning: djupa förfalskningar.
"Deepfake-ljud är inte nytt, även om det är lite förstås och lite känt. Tekniken har funnits tillgänglig i flera år för att återskapa en individs röst med artificiell intelligens och djupinlärning med relativt lite faktisk ljud från personen, " säger Selepak. "Sådan teknik kan också vara farlig och destruktiv. En störd individ kan återskapa rösten från en död ex-pojkvän eller flickvän och använda det nya ljudet för att säga hatiska och sårande saker."
Det är bara i samband med Alexa. Djupt falskt ljud kan gå långt utöver det och övertyga folk om att framstående politiker tror på saker som de inte gör, till exempel. Men å andra sidan, ju mer vi vänjer oss vid dessa djupa förfalskningar - kanske i form av dessa Alexa-röster - desto mer kommer vi att vara skeptiska till de mer smutsiga förfalskningarna. Men med tanke på hur lätt det är att sprida lögner på Facebook, kanske inte.
Amazon har inte sagt om den här funktionen kommer till Alexa eller om det bara är en teknikdemo. Jag hoppas att det gör det. Tekniken är som bäst när den används på ett humanistiskt sätt som detta, och även om den lätta reaktionen är att kalla det läskigt, som Selepak säger, så skiljer det sig verkligen inte så mycket från att titta på gamla videor eller lyssna på sparade röstmeddelanden, som en karaktär i ett lättmanuserat tv-program.
Och om tekniken för djupa förfalskningar är lättillgänglig, varför inte använda den för att trösta oss själva?