AI Crime Prediction kan anklaga fel personer

Innehållsförteckning:

AI Crime Prediction kan anklaga fel personer
AI Crime Prediction kan anklaga fel personer
Anonim

Key takeaways

  • Ett mjukvaruföretag samlar enligt uppgift in information om sociala medier för att skapa profiler som kan användas för att identifiera personer som utgör säkerhetsrisker.
  • Voyager Labs har slutit ett betydande avtal med en japansk statlig myndighet.
  • Men experter varnar för att programvara för AI-förutsägelse kan luras.
Image
Image

Din onlineinformation kan användas för att förutsäga om du kan begå ett brott.

Voyager Labs samlar enligt uppgift in information om sociala medier för att skapa profiler som kan användas för att identifiera personer som utgör säkerhetsrisker. Det är en del av en växande ansträngning att använda artificiell intelligens (AI) för att utreda potentiella brottslingar. Men vissa experter säger att rörelsen är full av potentiella problem.

"Det är väldigt svårt att förutse mänskligt beteende", sa Matthew Carr, säkerhetsforskare på Atumcell Group, till Lifewire i en e-postintervju. "Vi kan inte ens förutsäga vårt eget beteende, än mindre någon annans. Jag tror att det är möjligt att AI skulle kunna användas i framtiden för detta ändamål, men vi är långt ifrån att kunna göra det i dagsläget."

Skapa profiler

Som The Guardian nyligen rapporterade, undersökte Los Angeles polisavdelning hur man använder Voyager Labs programvara för förutsägelse av brott. Företaget meddelade också att det hade slutit ett betydande avtal med en japansk statlig myndighet.

Det japanska avtalet ger den statliga myndigheten en AI-baserad utredningsplattform som analyserar enorma mängder information från vilken källa som helst, inklusive öppen och djup data.

"Jag är glad att vi samarbetar i kampen mot terror och brottslighet", säger Divya Khangarot, VD för APAC på Voyager Labs, i pressmeddelandet. "Genom att använda Voyager Labs banbrytande intelligenslösningar får våra kunder unika möjligheter att proaktivt identifiera och störa potentiella hot. Vi tillför ytterligare lager av djupa undersökande insikter med en kombination av AI, Machine Learning och OSINT för att avslöja dolda spår, intrång i information, och dåliga skådespelare."

Inte så smart?

Men i en e-postintervju tvivlade Matt Heisie, en av grundarna av Ferret.ai, som också använder AI för att förutsäga brottslingar, några av påståendena från Voyager Labs.

"Finns det en lika tydlig koppling mellan till exempel ett arresteringsprotokoll och framtida kriminellt beteende, som det finns en svart fläck på ett test och utvecklingen av en tumör?" han sa. "Tänk på alla potentiella förvirringar som ingick i den arresteringen - vilket område personen bodde i, kvantiteten och kvaliteten, till och med fördomar, hos polisen i det området. Personens ålder, deras kön, deras fysiska utseende, alla dessa har korsande inverkan på sannolikheten för att den personen ska ha ett arresteringsprotokoll, helt skild från deras faktiska benägenhet att begå brottet vi försöker förutse."

Svarade med bättre advokater är mer benägna att kunna förhindra att register blir allmänt tillgängliga, sa Heisie. Vissa jurisdiktioner begränsar frigivningen av mugshots eller arresteringsprotokoll för att skydda de anklagade.

"Datorn kommer att lära sig baserat på data du ger den och införlivar alla fördomar som ingick i den datainsamlingen…"

"Allt detta lägger till ytterligare bias till algoritmerna", tillade han. "Datorn kommer att lära sig baserat på den data du ger den och införliva alla fördomar som ingick i den datainsamlingen i inlärningen och tolkningen."

Det har gjorts flera försök att skapa brott som förutsäger AI, och med ofta skandalösa resultat, sa Heisie.

COMPAS, en algoritm som brottsbekämpande myndigheter använder för att förutsäga återfall, används ofta för att fastställa straff och borgen. Den har stått inför skandal som går tillbaka till 2016 på grund av rasfördom, och förutspådde att svarta åtalade utgjorde en högre risk för återfall i brott än de faktiskt gjorde, och tvärtom för vita åtalade.

Över 1 000 teknologer och forskare, inklusive akademiker och AI-experter från Harvard, MIT, Google och Microsoft, uttalade sig 2020 mot ett dokument som hävdade att forskare hade utvecklat en algoritm som kunde förutsäga brottslighet baserad enbart på en persons ansikte och säger att publicering av sådana studier förstärker redan existerande rasfördomar i det straffrättsliga systemet, noterade Heisie.

Image
Image

Kina är den största och snabbast växande marknaden för den här typen av teknik, främst på grund av utbredd tillgång till privata data, med mer än 200 miljoner övervakningskameror och avancerad AI-forskning fokuserad på denna fråga under många år, sa Heisie. System som CloudWalks Police Cloud används nu för att förutsäga och spåra brottslingar och lokalisera brottsbekämpning.

"Men betydande fördomar rapporteras även där", sa Heisie.

Heisie tillade att hans företag noggrant kurerar data som går in och inte använder mugshots eller arresteringsprotokoll, "i stället fokuserar de på mer objektiva kriterier."

"Vår AI lärde sig av de kurerade uppgifterna, men ännu viktigare, den lär sig också av människor, som själva analyserar, kurerar och utvärderar register och berättar om sina interaktioner med andra", tillade han. "Vi upprätthåller också full transparens och fri och offentlig åtkomst till vår applikation (så snabbt som vi kan släppa in dem i betaversion), och välkomnar inblick i våra processer och procedurer."

Rekommenderad: