Schaker van YouTube gegooid vanwege ‘racisme’

Dat algoritmen steeds meer invloed hebben op wat nieuwsconsumenten wel en niet op het internet kunnen vinden is al langer bekend. In de strijd tegen allerlei negatieve fenomenen zoals hatespeech en racisme maken techbedrijven als Facebook en Google gebruik van geautomatiseerde algoritmen, die het taalgebruik van internetters analyseren en op die manier de content filteren. Het gebruik van algoritme is echter niet onomstreden en leidde ertoe dat schaker Antonio Radic van het YouTube werd verbannen. 

Het algoritme van YouTube zag in het veelvuldig gebruik van de woorden ‘wit’, ‘zwart’ en ‘aanval’ zogenaamd haatdragende taal en blokkeerde vervolgens het kanaal waarop deze commentaren werden geplaatst. Het algoritme was niet in staat om de context waarbinnen die woorden werden gebruikt, het schaken, volledig te doorgronden, dat meldt de Telegraaf.

Afgelopen jaar werd het kanaal van schaker Radic korte tijd geblokkeerd, waarover hijzelf ook al uitleg gaf. Hij liet weten niet te begrijpen waarom zijn kanaal werd geblokkeerd, waarna een onderzoek werd ingesteld om te achterhalen waarom zijn kanaal als haatdragend was aangemerkt.

Ondertussen hebben onderzoekers de zaak doorgespit en kwamen tot de conclusie dat het algoritme een fout heeft gemaakt. Van de 680.000 reacties die werden geanalyseerd, werden onevenredig veel opmerkingen als haatdragend aangemerkt door het algoritme. Waarschijnlijk vanwege het gebruik van enkele specifieke woorden, die ook in de context van het racismedebat worden uitgesproken zoals ‘wit’ en ‘zwart’. Toch was er eigenlijk geen sprake van structurele haattaal op het kanaal van Radic en was zijn blokkade dus onterecht.

In de samenleving heersen al langer zorgen over de effectiviteit en juistheid van het gebruik van dergelijke algoritmen, zoals die door Youtube. Zo werden kijkers op YouTube in het verleden veelvuldig in aanraking gebracht met complottheorieën en werkte het algoritme op zo’n manier dat het bijdroeg aan het ontstaan van zogeheten ‘opinie bubbels’, waarin kritische geluiden niet langer werden getoond aan de gebruikers, die vervolgens voornamelijk content te zien kregen die hun bestaande predisposities versterkten. Ook lijken techbedrijven het debat over sommige onderwerpen soms te willen snoeren. Zo werd criticaster en opiniepeiler Maurice de Hond van LinkedIn verbannen voor enkele dagen en kreeg ook antropoloog Danielle Braun een onterechte berisping.

In sommige gevallen is het natuurlijk overduidelijk waarom YouTube accounts worden geblokkeerd, maar er worden dus ook gebruikers geweerd op basis van ‘technische fouten’, veroorzaakt door het ontwerp van de algoritmen.

Ashiqur R. KhudaBukhsh van de Carnegie Melon’s Language Technologies Institute laat aan de Telegraaf weten dat het nog steeds niet precies duidelijk is welke techniek YouTube gebruikt bij het categoriseren van haar content, maar het is waarschijnlijk dat het AI programma gewoonweg niet in staat was om de context waarbinnen woorden werden gebruikt naar waarheid in te schatten. Hierdoor worden taalkundige structuren die wellicht ‘agressief’ lijken gewaardeerd alsof deze op de realiteit betrekking hebben, terwijl de gebruikte woorden eigenlijk verwijzen naar concepten binnen het schaakspel en dus geen haatdragende taal richting personen of groepen bevatten.