Varför vi behöver AI som förklarar sig själv

Innehållsförteckning:

Varför vi behöver AI som förklarar sig själv
Varför vi behöver AI som förklarar sig själv
Anonim

Key takeaways

  • Företag använder alltmer AI som förklarar hur det ger resultat.
  • LinkedIn ökade nyligen sina prenumerationsintäkter efter att ha använt AI som förutspådde att kunder riskerade att avbryta och beskrev hur de kom fram till sina slutsatser.
  • Federal Trade Commission har sagt att AI som inte går att förklara skulle kunna undersökas.
Image
Image

En av de hetaste nya trenderna inom mjukvara kan vara artificiell intelligens (AI) som förklarar hur den når sina resultat.

Förklarlig AI lönar sig när programvaruföretag försöker göra AI mer förståeligt. LinkedIn ökade nyligen sina prenumerationsintäkter efter att ha använt AI som förutspådde att kunder riskerade att avbryta och beskrev hur de kom fram till sina slutsatser.

"Explainable AI handlar om att kunna lita på resultatet och förstå hur maskinen kom dit", sa Travis Nixon, VD för SynerAI och Chief Data Science, Financial Services på Microsoft, till Lifewire i en e-postintervju.

""Hur?" är en fråga som ställs till många AI-system, speciellt när beslut fattas eller utdata produceras som inte är idealiska, tillade Nixon. "Från att behandla olika raser orättvist till att missförstå att ett k alt huvud är en fotboll, måste vi veta varför AI-system ger sina resultat. När vi väl förstår 'hur' positionerar det företag och individer att svara 'vad härnäst?'."

Lär känna AI

AI har visat sig vara korrekt och gör många typer av förutsägelser. Men AI kan ofta förklara hur den kom till sina slutsatser.

Och tillsynsmyndigheter lägger märke till problemet med AI-förklaring. Federal Trade Commission har sagt att AI som inte går att förklara skulle kunna undersökas. EU överväger att anta lagen om artificiell intelligens, som innehåller krav på att användare ska kunna tolka AI-förutsägelser.

Linkedin är bland de företag som tror att förklarlig AI kan hjälpa till att öka vinsten. Förut förlitade sig LinkedIn-säljare på sin kunskap och tillbringade enorma mängder tid med att sålla igenom offlinedata för att identifiera vilka konton som sannolikt kommer att fortsätta göra affärer och vilka produkter de kan vara intresserade av under nästa kontraktsförnyelse. För att lösa problemet startade LinkedIn ett program som heter CrystalCandle som upptäcker trender och hjälper säljare.

I ett annat exempel sa Nixon att under skapandet av en kvotbestämningsmodell för ett företags säljkår kunde hans företag införliva förklarlig AI för att identifiera vilka egenskaper som pekade på en framgångsrik nyförsäljare.

"Med detta resultat kunde företagets ledning känna igen vilka säljare som skulle sätta på "snabbspåret" och vilka som behövde coachning, allt innan några större problem uppstod", tillade han.

Många användningsområden för förklarlig AI

Explainable AI används för närvarande som en magkontroll för de flesta dataforskare, sa Nixon. Forskarna kör sin modell med enkla metoder, se till att inget är helt ur funktion och skicka sedan modellen.

"Detta beror delvis på att många datavetenskapsorganisationer har optimerat sina system kring 'tid över värde' som en KPI, vilket leder till förhastade processer och ofullständiga modeller", tillade Nixon.

Jag är orolig att tillbakaslaget från oansvariga modeller kan få AI-industrin tillbaka på ett allvarligt sätt.

Människor blir ofta inte övertygade av resultat som AI inte kan förklara. Raj Gupta, Chief Engineering Officer på Cogito, sa i ett e-postmeddelande att hans företag har undersökt kunder och funnit att nästan hälften av konsumenterna (43%) skulle ha en mer positiv uppfattning om ett företag och AI om företagen var mer tydliga om deras användning av tekniken.

Och det är inte bara finansiell information som får en hjälpande hand från förklarlig AI. Ett område som drar nytta av det nya tillvägagångssättet är bilddata, där det är lätt att indikera vilka delar av en bild som algoritmen tycker är väsentliga och där det är lätt för en människa att veta om den informationen är vettig, Samantha Kleinberg, docent vid Stevens Institute of Technology och en expert på förklarlig AI, berättade för Lifewire via e-post.

"Det är mycket svårare att göra det med ett EKG eller kontinuerlig glukosmätningsdata", tillade Kleinberg.

Nixon förutspådde att förklarlig AI skulle vara grunden för varje AI-system i framtiden. Och utan förklarlig AI kan resultaten bli fruktansvärda, sa han.

"Jag hoppas att vi går tillräckligt långt på den här fronten för att ta förklarlig AI för givet under kommande år och att vi ser tillbaka på den tiden idag förvånade över att någon skulle vara galen nog att distribuera modeller som de inte förstod, " han lade till."Om vi inte möter framtiden på det här sättet är jag orolig att tillbakaslaget från oansvariga modeller kan sätta AI-branschen tillbaka på ett allvarligt sätt."

Rekommenderad: