Twitter Algorithm's Racial Bias Points to Larger Tech Problem

Innehållsförteckning:

Twitter Algorithm's Racial Bias Points to Larger Tech Problem
Twitter Algorithm's Racial Bias Points to Larger Tech Problem
Anonim

Key takeaways

  • Twitter hoppas kunna råda bot på vad användare kallar rasfördom i sin programvara för förhandsgranskning av bilder.
  • Teknikjättens uppmaning kan vara den kulturella bedömningen som branschen behöver för att ta itu med frågor om mångfald.
  • Techs brist på mångfald skadar effektiviteten av dess tekniska framsteg.
Image
Image

Twitter kommer att inleda en undersökning av sin bildbeskärningsalgoritm efter att det blev ett trendämne som föranledde en större konversation om mångfaldsfrågor i teknikbranschen.

Den sociala medierna skapade rubriker efter att användare upptäckt uppenbar rasfördom i sin algoritm för förhandsvisning av bilder. Upptäckten hände efter att Twitter-användaren Colin Madland använde plattformen för att ropa ut Zooms misslyckande med att känna igen sina svarta kollegor som använde grönskärmstekniken, men i en storslagen ironi, fann han att Twitters bildbeskärningsalgoritm uppförde sig på liknande sätt och deprioriterade svarta ansikten.

Visst är det ett stort problem för alla minoriteter, men jag tror att det också finns en mycket bredare fråga.

Andra användare fick med sig trenden som utlöste en serie virala tweets som visar att algoritmen konsekvent prioriterade vita och ljusare ansikten, allt från människor till seriefigurer och till och med hundar. Detta misslyckande är ett tecken på en större kulturell rörelse inom teknikindustrin som konsekvent har misslyckats med att ta hänsyn till minoritetsgrupper, vilket har spridit sig över till den tekniska sidan.

"Det får minoriteter att känna sig hemska, som att de inte är viktiga, och det kan användas för andra saker som kan orsaka allvarligare skada längre fram", Erik Learned-Miller, professor i datavetenskap vid universitetet från Massachusetts, sade i en telefonintervju."När du har bestämt dig för vad en mjukvara kan användas till och alla skador som kan uppstå, börjar vi prata om sätten att minimera risken för att det ska hända."

Canary på tidslinjen

Twitter använder neurala nätverk för att automatiskt beskära bilder som är inbäddade i tweets. Algoritmen är tänkt att upptäcka ansikten för att förhandsgranska, men den verkar ha en märkbar vit bias. Företagets taleskvinna Liz Kelley twittrade ett svar på alla farhågor.

Kelley twittrade, "tack till alla som tog upp detta. vi testade för partiskhet innan vi skickade modellen och hittade inga bevis på ras- eller könsfördomar i våra tester, men det är uppenbart att vi har mer analys för att gör det. vi öppnar vårt arbete med öppen källkod så att andra kan granska och replikera."

Medförfattare till vitboken "Facial Recognition Technologies in The Wild: A Call for a Federal Office", Learned-Miller är en ledande forskare om överdrifter av ansiktsbaserad AI-inlärningsprogramvara. Han har diskuterat den potentiella negativa effekten av bildinlärningsprogramvara i flera år och har talat om vikten av att skapa en verklighet där dessa fördomar mildras efter bästa förmåga.

Många algoritmer för ansiktsigenkänningsteknik använder referensuppsättningar för data, ofta kända som träningsuppsättningar, som är en samling bilder som används för att finjustera beteendet hos programvara för bildinlärning. Det tillåter slutligen AI att lätt känna igen ett brett spektrum av ansikten. Dessa referensuppsättningar kan dock sakna en mångsidig pool, vilket leder till problem som de som upplevs av Twitter-teamet.

"Visst är det ett stort problem för alla minoriteter, men jag tror att det finns en mycket bredare fråga också", sa Learned-Miller. "Det hänför sig till bristen på mångfald inom tekniksektorn och behovet av en centraliserad, reglerande kraft för att visa den korrekta användningen av denna typ av kraftfull programvara som är benägen att missbrukas och missbrukas."

Teknik saknar mångfald

Twitter kan vara det senaste teknikföretaget på hugget, men det här är långt ifrån ett nytt problem. Det tekniska området förblir ett övervägande vitt, ständigt mansdominerat område och forskare har funnit att bristen på mångfald orsakar en replikering av systemiska, historiska obalanser i den utvecklade mjukvaran.

I en rapport från 2019 från New York Universitys AI Now Institute fann forskare att svarta människor utgör mindre än 6 procent av arbetsstyrkan hos de främsta teknikföretagen i landet. På samma sätt står kvinnor bara för 26 procent av arbetarna inom fältet - en statistik lägre än deras andel 1960.

Det får minoriteter att må fruktansvärt, som att de inte är viktiga, och det kan användas för andra saker som kan orsaka allvarligare skada längre fram.

På ytan kan dessa representationsfrågor verka vardagliga, men i praktiken kan skadan vara djupgående. Forskare i AI Now Institute-rapporten antyder att detta kaus alt relaterar till problem med programvara som ofta inte tar hänsyn till icke-vita och icke-manliga populationer. Oavsett om det är infraröda tvålautomater som inte kan upptäcka mörkare hud eller Amazons AI-programvara som misslyckas med att särskilja kvinnliga ansikten från sina manliga motsvarigheter, leder ett misslyckande med att ta itu med mångfalden i den tekniska industrin till att tekniken misslyckas med att hantera en mångfaldig värld.

"Det finns många människor som inte har tänkt igenom problemen och inte riktigt inser hur dessa saker kan orsaka skada och hur betydande dessa skador är", föreslog Learned-Miller om AI-bildinlärning. "Förhoppningsvis minskar antalet människor!"

Rekommenderad: