Why This Matters
Att minska antalet konspirationsvideor som marknadsförs och genereras automatiskt för YouTubes vanliga besökare kan bara hjälpa i kampen mot falsk information och extremistiska ideologier.
En ny studie visar att YouTubes plan att sluta rekommendera konspirationsvideor i sitt vanliga videoflöde fungerar.
Någon bakgrund: På grund av kritik över marknadsföringen av konspirationsvideor (mirakelkurer, jorden är platt, etc.), meddelade YouTube att man skulle slå ner på sådana " borderline content" i januari 2019.
Där vi är nu: Forskarna, från University of California, Berkeley och Mozilla Foundation, utvecklade ett system för att klassificera om en video är "konspiratorisk", och sedan emulerade YouTubes Watch-Next-algoritm för att filtrera igenom ett års värde av vad algoritmen aktivt skulle främja. Marc Faddoula, Guillaume Chaslotb och Hany Farida fann att det faktiskt finns en minskning av antalet konspirationsmärkta videor som aktivt rekommenderas.
Den totala minskningen av konspiratoriska rekommendationer är en uppmuntrande trend.
Detta är inte löst: Även om forskarna är försiktigt optimistiska inser de att problemet med radikalisering genom sådana videor är ett större problem. "De med en historia av att titta på konspiratoriskt innehåll kan säkert fortfarande uppleva YouTube som en filterbubbla", skrev de, "förstärkt av personliga rekommendationer och kanalprenumerationer."
The bottom line: Forskarna noterar också att utformningen av YouTubes algoritm har ännu större inverkan på informationsflödet än, säg, en redaktion på ett mer traditionellt media utlopp. Ett så kraftfullt verktyg, hävdar författarna till denna studie, borde bli föremål för mer öppenhet och offentliga tester nu och i framtiden.