AI kunde sluta snoka genom att förutsäga vad du kommer att säga

Innehållsförteckning:

AI kunde sluta snoka genom att förutsäga vad du kommer att säga
AI kunde sluta snoka genom att förutsäga vad du kommer att säga
Anonim

Key takeaways

  • Forskare har utarbetat en metod för att förvränga konversationer för att besegra oseriösa mikrofoner från att fånga våra konversationer.
  • Metoden är betydelsefull eftersom den fungerar i re altid på strömmande ljud och med minimal träning.
  • Experter applåderar forskningen men tror att den inte är till stor nytta för den genomsnittlige smartphoneanvändaren.
Image
Image

Vi är omgivna av smarta enheter med mikrofoner, men tänk om de har blivit utsatta för att avlyssna oss?

I ett försök att skydda våra konversationer från snokare har forskare från Columbia University utvecklat en metod för Neural Voice Camouflage som stör automatiska taligenkänningssystem i re altid utan att störa människor.

"Med invasionen av [smarta röstaktiverade enheter] i våra liv, börjar idén om integritet försvinna eftersom dessa lyssningsenheter alltid är på och övervakar vad som sägs," Charles Everette, chef för Cyber Advocacy, Deep Instinct, berättade för Lifewire via e-post. "Denna forskning är ett direkt svar på behovet av att dölja eller kamouflera en individs röst och konversationer från dessa elektroniska avlyssnare, kända eller okända i ett område."

Talking Over

Forskarna har utvecklat ett system som genererar viskande tysta ljud som du kan spela upp i vilket rum som helst för att blockera oseriösa mikrofoner från att spionera på dina konversationer.

Sättet som den här typen av teknik motverkar avlyssning påminner Everette om brusreducerande hörlurar. Istället för att generera tysta viskande ljud för att dämpa bakgrundsljudet, sänder forskarna bakgrundsljud som stör algoritmerna för artificiell intelligens (AI) som tolkar ljudvågor till begripligt ljud.

Sådana mekanismer för att kamouflera en persons röst är inte unika, men det som skiljer Neural Voice Camouflage från de andra metoderna är att det fungerar i re altid på strömmande ljud.

"För att arbeta med direktsändning måste vårt tillvägagångssätt förutsäga [det korrekta förvrängningsljudet] in i framtiden så att de kan spelas upp i re altid", noterar forskarna i sin uppsats. För närvarande fungerar metoden för majoriteten av det engelska språket.

Hans Hansen, VD för Brand3D, sa till Lifewire att forskningen är mycket betydelsefull eftersom den attackerar en stor svaghet i dagens AI-system.

I en e-postkonversation förklarade Hansen att nuvarande AI-system för djupinlärning i allmänhet och naturligt taligenkänning i synnerhet fungerar efter att ha bearbetat miljontals taldataposter som samlats in från tusentals talare. Däremot fungerar Neural Voice Camouflage efter att ha konditionerat sig på bara två sekunders inmatat tal.

Personligen, om jag är orolig för att enheter lyssnar in, skulle min lösning inte vara att lägga till ytterligare en lyssningsenhet som försöker generera bakgrundsljud.

Fel träd?

Brian Chappell, chefssäkerhetsstrateg på BeyondTrust, tror att forskningen är mer fördelaktig för företagsanvändare som fruktar att de kan vara mitt i komprometterade enheter som lyssnar efter nyckelord som indikerar att värdefull information läses upp.

"Där den här tekniken potentiellt skulle vara mer intressant är i ett mer auktoritärt övervakningstillstånd där AI-video och röstutskriftsanalys används mot medborgare", sa James Maude, BeyondTrusts ledande cybersäkerhetsforskare, till Lifewire via e-post.

Maude föreslog att ett bättre alternativ skulle vara att implementera sekretesskontroller för hur data fångas, lagras och används av dessa enheter. Chappell anser dessutom att användbarheten av forskarens metod är begränsad eftersom den inte är utformad för att stoppa mänsklig avlyssning.

"För hemmet, kom ihåg att, åtminstone i teorin, att använda ett sådant verktyg kommer att få Siri, Alexa, Google Home och alla andra system som aktiveras med ett talat triggerord att ignorera dig", sa Chappell.

Image
Image

Men experter tror att med den ökande inkluderingen av AI/ML-specifik teknik i våra smarta enheter är det fullt möjligt att denna teknik kan hamna i våra telefoner inom en snar framtid.

Maude är orolig eftersom AI-tekniker snabbt kan lära sig att skilja mellan brus och verkligt ljud. Han tror att även om systemet kan vara framgångsrikt till en början, kan det snabbt förvandlas till ett katt- och råttaspel när en lyssningsenhet lär sig att filtrera bort störande ljud.

Mer oroande, Maude påpekade att alla som använder det faktiskt kan dra uppmärksamhet till sig själva eftersom att störa röstigenkänningen skulle verka ovanligt och kan tyda på att du försöker dölja något.

"Personligen, om jag är orolig för enheter som lyssnar in, skulle min lösning inte vara att lägga till ytterligare en lyssningsenhet som försöker generera bakgrundsljud", delade Maude. "Särskilt som det bara ökar risken för att en enhet eller app hackas och kan lyssna på mig."

Rekommenderad: