YouTubes New Age Restriction AI oroar hbtq+-gemenskapen

Innehållsförteckning:

YouTubes New Age Restriction AI oroar hbtq+-gemenskapen
YouTubes New Age Restriction AI oroar hbtq+-gemenskapen
Anonim

Key takeaways

  • YouTubes automatiska åldersbegränsande programvara ger anledning till oro för HBTQ+-innehåll på plattformen.
  • Företaget har kantats av kontroverser angående hbtq-innehållsskapare som befäster tvivel.
  • Fördomar i maskininlärning ger trovärdighet åt idén att dess ofullkomliga implementering av filter sannolikt kommer att orättvist begränsa åtkomsten.
Image
Image

Med en historia av orättvist inriktning på HBTQ+-innehållsskapare i sin modereringsprocess, ses YouTubes nya AI-baserade teknik som ett oroande nästa steg för teknikjätten.

På den officiella YouTube-bloggen förra veckan presenterade videodelningsplattformen planer på att släppa en ny automatisk programvara för att "mer konsekvent tillämpa åldersbegränsningar" på videor som anses olämpliga för yngre tittare.

Motiverat av den senaste tidens oro för barn i appen, är det nya systemet baserat på maskininlärning av artificiell intelligens med förmågan att avstå från mänskliga moderatorer för en mer automatisk process. Problemet? YouTubes automatiserade system har anklagats för att peka ut HBTQ+-innehåll och innehållsskapare helt enkelt för existerande.

Även om det inte är skadligt, vilket jag inte tror att det är, är det en brist på input från olika röster - eller åtminstone en brist på respekt.

"Maskininlärning är informerad av och skapad av människor, och det är möjligt att ha dessa fördomar som är inneboende i det eller inlärda av maskinen själv", sa YouTuber Rowan Ellis i en telefonintervju med Lifewire. "Dess partiskhet när det gäller [HBTQ+]-innehåll har varit uppenbar i de tidigare erfarenheterna av [HBTQ+] YouTubers, och jag har inte sett bevis för att något har gjorts för att stoppa det."

Baby, Now We got Bad Blood

Ellis är en YouTuber som skapar pedagogiskt innehåll med en feministisk och queeristisk inställning, och 2017 publicerade hon en video om företagets begränsade läge. Som ett första försök till automatisk innehållsmoderering tillät detta läge användare att valfritt förhandsgranska "potentiellt vuxet innehåll" från sökförslag och rekommendationer.

Med över 100 000 visningar tror hon att det gjordes en medveten ansträngning för att hindra hennes kanal från restriktioner på grund av hennes högljudda motstånd mot överdrifterna i YouTubes nya steg mot moderering. Andra användare på plattformen hade inte så tur, och de fick YouTube att veta det.

En grupptalan mot YouTube lämnades in i augusti 2019 av en grupp på åtta HBTQ+-skapare som anklagade företaget Silicon Valley för att begränsa queer- och transvideoskapare och innehåll. Rättegången hävdar att sajten använder "olaglig innehållsreglering, distribution och intäktsgenerering som stigmatiserar, begränsar, blockerar, demonetiserar och ekonomiskt skadar HBT-kärandena och den större HBT-gemenskapen."Det är fortfarande på väg genom domstolarna i Kalifornien.

Maskininlärning är informerad av och skapad av människor, och det är möjligt att ha dessa fördomar som är inneboende i det eller inlärda av maskinen själv.

I juni samma år fick plattformen en flod av mediauppmärksamhet efter att ha vägrat att snabbt tillrättavisa den populära konservative kommentatorn Steven Crowder för en månader lång, homofobisk trakasseringskampanj mot Vox-journalisten och programledaren Carlos Maza. Detta cementerade vad Ellis sa är ett mönster med onlineplattformen att ignorera de unika utmaningar som queer-skapare står inför. HBTQ+-skapares bristande tilltro till YouTubes förmåga att visa upp för dem är inte utan meriter.

"Jag tror inte att de har förstått behovet av att det ska finnas transparens när det gäller sociala frågor och att säkerställa jämlikhet", sa hon. "Det finns fortfarande barn runt om i världen som har vuxit upp med tanken att det är fel att vara homosexuell, och när de börjar ifrågasätta den tron, men finner den stängd av en säker sökning eller begränsning, kommer det att förstärka denna idé att det är fel, olämpligt, vuxet, perverst och smutsigt."

Failing to auto-Learning

Med sin elaka historia angående HBTQ+-innehållsskapare på sin plattform finns det fortfarande oron för implementeringen av maskininlärningsmjukvarans förmåga att urskilja större normer. Don Heider, verkställande direktör vid Markkula Center for Applied Ethics, menar att potentialen för dårskap är en för stor risk för att spela.

"Det är svårt att tro att AI effektivt kan styra innehåll från flera länder med olika kulturella normer och standarder", skrev han i en e-postintervju. "AI ses alltför ofta som svaret på komplexa frågor. Vid det här laget kämpar AI och sättet det skapas på för att hantera även enkla uppgifter, än mindre all innehållsmoderering med vilken komplexitetsnivå som helst."

YouTube bestämde sig för att använda AI-teknik på grund av bristen på konsekvent moderering av mänskliga moderatorer, enligt sin blogg. Att öka användningen av datoriserade filter för att ta ner videor som bedömdes som olämpliga blev normen, och att implementera samma rutiner för dess åldersbegränsningspolicyer ses som ett logiskt nästa steg.

Som ett företag som försöker gradvis förbättra sina processer efter långvarig kritik angående sitt förhållande till barnkonsumenter, kommer detta beslut inte som någon överraskning.

Jag tror inte att de har förstått behovet av transparens i sociala frågor och säkerställande av jämlikhet.

Barn har blivit en viktig demografi för webbplatsen för videodelning. I augusti upptäckte digitalvideoanalysföretaget Tubular att innehåll som riktar sig till barn, förutom musikvideor, toppade månadsslutlistan för de mest sedda videoklippen på YouTube.

Företagets intresse av att skydda detta lukrativa, framväxande kraftpaket på plattformen är vettigt. Verktygen som används för att upprätthålla detta skydd är dock fortfarande obehagliga för dem som redan har befunnit sig nedströms företagets modereringsförfaranden.

"Min oro är att det kommer att göra mycket skada och inte skydda [HBTQ+] ungdomar som behöver informativt, uppriktigt och ärligt innehåll som många [HBTQ+] YouTubers kan tillhandahålla, men som flaggas i dess system som olämpligt", sa Ellis."Även om det inte är skadligt, vilket jag inte tror att det är, är det en brist på input från olika röster - eller åtminstone en brist på respekt.

"Vi ser det hela tiden inom tekniken. När du tittar på att ansiktsigenkänning misslyckas med att särskilja olika svarta ansikten, eller när vi tittar på medicin och ser att medicin bara har testats på ett visst kön. Dessa är större konversationer, och YouTube är inte undantaget från det."