Hur AI kunde övervaka sin farliga avkomma

Innehållsförteckning:

Hur AI kunde övervaka sin farliga avkomma
Hur AI kunde övervaka sin farliga avkomma
Anonim

Key takeaways

  • En ny artikel hävdar att artificiell intelligens kan avgöra vilka forskningsprojekt som kan behöva mer reglering än andra.
  • Det är en del av en växande ansträngning att upptäcka vilken typ av AI som kan vara farlig.
  • En expert säger att den verkliga faran med AI är att den kan göra människor dumma.

Image
Image

Artificiell intelligens (AI) erbjuder många fördelar, men också några potentiella faror. Och nu har forskare föreslagit en metod för att hålla ett öga på deras datoriserade skapelser.

Ett internationellt team säger i en ny artikel att AI kan avgöra vilka typer av forskningsprojekt som kan behöva mer reglering än andra. Forskarna använde en modell som blandar begrepp från biologi och matematik och är en del av ett växande arbete för att upptäcka vilken typ av AI som kan vara farlig.

"Självklart, även om den "sci-fi" farliga användningen av AI kan uppstå om vi bestämmer det […], det som gör AI farligt är inte AI själv, utan [hur vi använder det], " Thierry Rayna, ordförande för Technology for Change, vid École Polytechnique i Frankrike, berättade för Lifewire i en e-postintervju. "Att implementera AI kan antingen vara kompetenshöjande (till exempel förstärker det relevansen av människans/arbetarens färdigheter och kunskaper) eller kompetensförstörande, dvs. AI gör befintliga färdigheter och kunskaper mindre användbara eller föråldrade."

Keeping Tabs

Författarna till den senaste tidningen skrev i ett inlägg att de byggde en modell för att simulera hypotetiska AI-tävlingar. De körde simuleringen hundratals gånger för att försöka förutsäga hur verkliga AI-lopp kan fungera.

"Variabeln som vi fann vara särskilt viktig var "längden" på loppet - tiden det tog för våra simulerade lopp att nå sitt mål (en funktionell AI-produkt), skrev forskarna. "När AI-lopp nådde sitt mål snabbt fann vi att konkurrenter som vi hade kodat för att alltid förbise säkerhetsåtgärder alltid vann."

Däremot fann forskarna att långsiktiga AI-projekt inte var lika farliga eftersom vinnarna inte alltid var de som förbisåg säkerheten. "Med tanke på dessa fynd kommer det att vara viktigt för tillsynsmyndigheter att fastställa hur länge olika AI-lopp sannolikt kommer att pågå, genom att tillämpa olika regler baserat på deras förväntade tidsskalor", skrev de. "Våra resultat tyder på att en regel för alla AI-lopp - från sprint till maraton - kommer att leda till vissa resultat som är långt ifrån idealiska."

David Zhao, VD för Coda Strategy, ett företag som konsulterar om AI, sa i en e-postintervju med Lifewire att det kan vara svårt att identifiera farlig AI. Utmaningarna ligger i det faktum att moderna förhållningssätt till AI har ett djupt lärande.

"Vi vet att djupinlärning ger bättre resultat i många användningsfall, som bilddetektering eller taligenkänning", sa Zhao. "Men det är omöjligt för människor att förstå hur en algoritm för djupinlärning fungerar och hur den producerar sin produktion. Därför är det svårt att avgöra om en AI som producerar bra resultat är farlig eftersom det är omöjligt för människor att förstå vad som pågår."

Programvara kan vara "farlig" när den används i kritiska system, som har sårbarheter som kan utnyttjas av dåliga aktörer eller ge felaktiga resultat, sa Matt Shea, strategichef på AI-företaget MixMode, via e-post. Han tillade att osäker AI också kan leda till felaktig klassificering av resultat, dataförlust, ekonomisk påverkan eller fysisk skada.

"Med traditionell programvara kodar utvecklare upp algoritmer som kan undersökas av en person för att ta reda på hur man pluggar en sårbarhet eller fixar en bugg genom att titta på källkoden", sa Shea."Med AI skapas dock en stor del av logiken från själva data, kodad i datastrukturer som neurala nätverk och liknande. Detta resulterar i system som är "svarta lådor" som inte kan undersökas för att hitta och åtgärda sårbarheter som vanlig programvara."

Dangers Ahead?

Medan AI har avbildats i filmer som The Terminator som en ond kraft som har för avsikt att förstöra mänskligheten, men de verkliga farorna kan vara mer prosaiska, säger experter. Rayna, till exempel, föreslår att AI kan göra oss dummare.

"Det kan beröva människor från att träna sina hjärnor och utveckla expertis", sa han. "Hur kan du bli expert på riskkapital om du inte spenderar större delen av din tid med att läsa startups-applikationer? Ännu värre, AI är notoriskt "black box" och lite förklarlig. Att inte veta varför ett särskilt AI-beslut togs betyder att det kommer att finnas väldigt lite att lära av det, precis som att du inte kan bli en expertlöpare genom att köra runt på stadion på en Segway.”

Det är svårt att avgöra om en AI som ger bra resultat är farlig, eftersom det är omöjligt för människor att förstå vad som pågår.

Det kanske mest omedelbara hotet från AI är möjligheten att det kan ge partiska resultat, sa Lyle Solomon, en advokat som skriver om de juridiska konsekvenserna av AI, i en e-postintervju.

"AI kan hjälpa till att fördjupa samhälleliga klyftor. AI är huvudsakligen byggt från data som samlats in från människor", tillade Solomon. "[Men] trots den enorma informationen innehåller den minimala delmängder och skulle inte inkludera vad alla tycker. Således kommer data som samlats in från kommentarer, offentliga meddelanden, recensioner etc. med inneboende fördomar få AI att förstärka diskriminering och hat."

Rekommenderad: