Key takeaways
- De populära AI-drivna röstassistenterna är bra på att få fram fakta men kan inte hålla meningsfulla konversationer.
- Begränsningen beror på utformningen av den nuvarande generationens AI som får sin smarthet genom att träna på en stor uppsättning data, förklarar experter.
- Detta förhindrar också AI från att fånga upp språknyanser, vilket gör riktiga konversationer omöjliga för tillfället.
Virtuella assistenter är underbara på att följa dina kommandon men helt fruktansvärda på att ge livsråd. Vem hade trott?
Tidio-redaktören Kazimierz Rajnerowicz ägnade över 30 timmar åt att ställa ett halvdussin populära röstassistenter och chatbotar som drivs av artificiell intelligens (AI) alla typer av frågor och drog slutsatsen att även om virtuella assistenter är bra på att hämta fakta, är de inte avancerade tillräckligt för att hålla en konversation.
"AI idag är mönsterigenkänning", förklarade Liziana Carter, grundare av konversations-AI-start-up Grow AI, till Lifewire i en konversation via e-post. "Att förvänta sig att den ska ge råd om huruvida det är rätt eller fel att råna en bank är att förvänta sig kreativt tänkande från den, även känd som AI General Intelligence, vilket vi är långt ifrån just nu."
pratar nonsens
Rajnerowicz tänkte på experimentet som svar på prognoser från Juniper Research som förutspår att antalet AI-röstassistentenheter som används kommer att överstiga den mänskliga befolkningen 2024.
… ett bättre tillvägagångssätt kan vara att använda den kraften för att få tillbaka tid att spendera på saker som gör oss unika som människor.
För att bedöma smartheten hos chatbottar bad han de populära, inklusive OpenAI, Cortana, Replika, Alexa, Jasper och Kuki, om råd och fick några löjliga svar. Svaren visade på bristande sunt förnuft, från att få klartecken att använda en hårtork när du duschar till att äta vodka till frukost.
"En av de virtuella assistenterna var inte säker på om det var OK att råna en bank", skrev Rajnerowicz. "Men när jag ändrade min fråga och förtydligade att jag tänker donera pengarna till ett barnhem fick jag grönt ljus."
Från experimentet lärde Rajnerowicz att virtuella assistenter och chatbots gör ett bra jobb med att analysera och klassificera indata, vilket gör dem perfekta för kundtjänst, där det handlar om att förstå en fråga och ge ett enkelt svar.
Men de AI-drivna kommunikatörerna "förstår" inte riktigt någonting, avslutade Rajnerowicz, eftersom de bara kan märka frågor och sätta ihop svar baserat på statistiska modeller som de har utbildats i.
Få den där tanken
Hans Hansen, VD för Brand3D, tror till skillnad från karaktärer som Star Treks Data, att dagens AI-system aldrig kommer att bli mänskliga. "Men det betyder inte att de inte kan prata på ett meningsfullt sätt", sa Hansen till Lifewire via e-post.
Hansen sa att det finns två huvudfaktorer som begränsar hur långt AI kan efterlikna mänskliga samtal och interaktioner i allmänhet. Först fungerar dessa djupinlärningssystem genom att analysera stora mängder data och sedan tillämpa denna "kunskap" för att bearbeta ny data och fatta beslut. För det andra lär sig den mänskliga hjärnan och anpassar sig i en takt som inget känt AI-system kan efterlikna på någon meningsfull nivå.
"En vanlig missuppfattning av dagens AI-system är att de modellerar mänsklig hjärnfunktion och kan "lära sig" att bete sig som människor", förklarade Hansen. "Medan AI-system verkligen är sammansatta av primitiva modeller av mänskliga hjärnceller (neurala nätverk) är sättet som systemen lär sig mycket långt ifrån mänskligt lärande och har därför svårt med mänskliga resonemang."
Hansen sa att om en konversation håller sig till faktabaserade ämnen, skulle AI:n klara sig bra med tillräckligt med tid och ansträngning som investeras i att träna den. Nästa svårighetsgrad är samtal om subjektiva åsikter och känslor om vissa frågor. Om man antar att dessa åsikter och känslor är typiska, kan detta med tillräcklig träning vara möjligt åtminstone teoretiskt, eftersom det tekniskt sett kommer att vara en storleksordning svårare att implementera.
Det som verkligen skulle vara omöjligt för AI att någonsin uppnå är att fånga upp nyanser och dolda betydelser i tonfallet, med hänsyn till olika kulturella aspekter.
"AI-system blir allt bättre på att lära sig otroligt svåra uppgifter förutsatt att det finns tillräckligt med data och att data kan representeras på ett sätt som är lätt att mata in i AI-systemets inlärningsprocesser", hävdade Hansen. "Mänskligt samtal är inte en sådan uppgift."
Carter tycker dock att det är helt fel att försöka ha meningsfulla samtal med AI.
"Det är [en] maskin som lär sig att utföra specifika uppgifter, så ett bättre tillvägagångssätt kan vara att använda den kraften för att få tillbaka tid att spendera på saker som gör oss unika som människor", rådde Carter.