Kom op 5 mei naar de Godwinlezing van Nani Jansen Reventlow over mensenrechten in het digitale tijdperk

Wat de statistieken van YouTube en Facebook ons niet vertellen

De week van Banksy, stalkerware en paranoïde door reclame
DOSSIER: Platformen

Na de gruwelijk aanslag in Nieuw Zeeland kwamen de grote sociale mediaplatforms met cijfers over hun inspanning om de verspreiding van het filmpje van de aanslag tegen te gaan. Wat vertellen die cijfers ons?

Aanslag op de reputatie

Terrorisme, zoals de aanslag in Nieuw Zeeland, houdt ons allemaal bezig. Zo ook dominante platformen in onze digitale communicatie. Zij moesten keihard aan de bak om de verspreiding van de live stream van de dader van hun platform te weren. Alleen al om reputatieschade te voorkomen.

Platforms moeten toegespitst zijn op het soort gesprek, de deelnemers en de regio waar die conversatie plaatsvindt.

En dat is natuurlijk ook precies waarom de bedrijven als FacebookFacebook: "In the first 24 hours we removed 1.5 million videos of the attack globally" en YouTubeThe Washington Post over YouTubes moderatie later statistieken publiceerden. Zo konden ze laten zien dat het allemaal heel complex was, maar dat ze tóch hun uiterste best hadden gedaan. YouTube meldde dat in de uren na de aanslag elke seconde een versie van het filmpje werd geüpload, Facebook zei dat het in de eerste 24 uur anderhalf miljoen uploads blokkeerde.

Cijfers die drie keer niets zeggen

Die cijfers doen het misschien goed in de media, maar zeggen zonder heel veel meer details echt drie keer niets. De cijfers zeggen niets over de effectiviteit van de inspanning, en nog minder over de onbedoelde gevolgen. Zo meldden de twee platformen weinig over de filmpjes die ze over het hoofd zagen en die dus niet verwijderd werden. Dat zijn filmpjes die wel degelijk een groot publiek hebben kunnen bereiken. Dat hebben we zelf ook ondervonden: vorige week wezen we Facebook nog op een filmpje van de aanslag dat al een paar dagen op het platform stond.

Alles hangt af van de intentie van de uploader en de context waarin het is geplaatst.

Strijdig met de eigen regels

Nog iets wat de cijfers niet laten zien: hoeveel filmpjes zijn ten onrechte verwijderd? Facebook zegt bijvoorbeeld: "Out of respectFacebook via Twitter over het verwijderen van videos van de aanslag for the people affected by this tragedy and the concerns of local authorities, we're also removing all edited versions of the video that do not show graphic content." Het gaat dus om informatie die blijkbaar niet strijdig is met de regels van het platform, maar om informatie die uit piëteit met de nabestaanden ontoegankelijk wordt gemaakt.

Hoe empathisch dat misschien ook is, het illustreert ook hoe we voor ons publieke debat afhankelijk zijn van de grillen van een enkel commercieel bedrijf. En wat gebeurt er bijvoorbeeld met video’s van media waarin verslag wordt gedaan van de gebeurtenissen? Of met de video van een nabestaande die de beelden die een opmaat vormden tot de schietpartij in een ode aan een slachtoffer verwerkt? Kortom, het is zeer problematisch als een dominant platform dit soort beslissingen neemt.

De Amerikanen hanteren een andere definitie van terrorisme dan wij. En iemand als Erdogan denkt daar vast ook weer anders over.

Blind voor de context

Waar we minstens zo lang bij moeten stilstaan, is dit voorbeeld. YouTube haalde tussen 2012 en 2018 meer dan tien procent van de filmpjes van het account Syrian Archive offline. De beelden documenteerden de aanslagen in Syrië en de vreselijke gevolgen ervan. YouTube zag enkel ‘violent extremismVital Human Rights Evidence in Syria is Disappearing from YouTube’, en haalde de videos offline. YouTubes filters bleken de context niet goed te herkennen. De publicatie van zo’n filmpje kan bedoeld zijn om anderen op te roepen zich aan te sluiten bij een gewapende strijd, maar kan net zo goed een documentatie van die gewapende strijd zijn. Alles hangt af van de intentie van de uploader en de context waarin het is geplaatst. De geautomatiseerde filters hebben geen oog voor het oogmerk en zijn blind voor de context.

Alles behalve transparant

Die geautomatiseerde filters werken veelal op basis van een wiskundige samenvatting van een video. Als die samenvatting van een geüpload filmpje op een lijst van samenvattingen van terroristische filmpjes staat, wordt de upload geweigerd. De dominante platformen werken samen in het samenstellen van die lijst, maar zijn er tegelijkertijd geheimzinnig over. Buitenstaanders weten niet welke filmpjes er op staan. Dat begint natuurlijk al met de definitieAlle Nederlandse instanties hanteren een en dezelfde definitie van wat terrorisme precies is. Het is lang niet altijd glashelder of iets onder die definitie valt.

En dan is die definitie natuurlijk ook niet in alle landen waarin deze platforms actief zijn gelijk. De Amerikanen denken anders over wat wel- of niet onder terrorisme valt dan wij, en vast en zeker denkt iemand als Erdogan daar ook weer anders over. Dat maakt toepassing van die lijst extra lastig; platformen houden weinig rekening met de landsgrenzen. Stel (stel!) dat zo’n geautomatiseerd filter wél goed zou werken, dan nog betekent dat heel snel dat in het ene land teveel en in het andere land te weinig wordt geblokkeerd.

Het is gewoon niet mogelijk om met één interface en één moderatiebeleid de hele wereld te bedienen.

Bezwaar kan ook een te grote drempel zijn

Zoals gezegd, de gepubliceerde cijfers zeggen ook nog eens niets over het aantal filmpjes dat ten onrechte geblokkeerd is. Dat is natuurlijk ook veel moeilijker te meten. Je zou van platforms kunnen vragen om ook iets te zeggen over het aantal keer dat bezwaar is aangetekend tegen een blokkering of verwijdering. Maar, die cijfers zeggen ook weinig als je weet dat de procedure voor zo’n proces vaak erg omslachtig en langdurig is. Vaak genoeg zullen uploaders het erbij laten zitten, ook als ze misschien wel hun filmpje weer online hadden kunnen krijgen.

Eén maatstaf is geen oplossing

Nee, wij geloven niet dat dit valt op te lossen met betere computers of meer menselijke moderatoren. Het is gewoon niet mogelijk om met één interface en één moderatiebeleid de hele wereld te bedienen. Het is problematisch dat we moeten communiceren in een online omgeving die gedomineerd wordt door zo’n klein aantal zo dominante platforms, waarvoor het onmogelijk is om al die communicatie te scannen op mogelijk ongewenste uitingen.

De gebruiker moet weer iets te kiezen hebben. We moeten naar een situatie waarin platforms toegespitst zijn op het soort gesprek dat wordt gehouden, op de groepen mensen die er aan deelnemen en op de regio waar die conversatie plaatsvindt. Door onszelf afhankelijk te maken van een paar grote molochs doen we onszelf te kort. Heel veel te kort.

Help mee en steun ons

Door mijn bijdrage ondersteun ik Bits of Freedom, dat kan maandelijks of eenmalig.