Plaats winst niet boven het welzijn van TikTok- en Instagram-gebruikers
- 30 maart 2026
TikTok en Meta prioriteren bewust extreme content op hun platformen om gebruikers vast te houden. Dit kwam deze week via de BBC-documentaire Inside the Rage Machine naar buiten aan de hand van gelekte interne documenten en verhalen van klokkenluiders. Wij roepen al jaren dat de sensatiebeluste algoritmen van Big Tech via regulering aan banden moeten worden gelegd. Deze onthullingen vormen belangrijk bewijs voor die wens.
Onthullingen klokkenluiders
Het is voor een stichting als Bits of Freedom moeilijk om aan te tonen hoe algoritmen op grote platformen precies te werk gaan. Big Tech bedrijven als TikTok en Meta zijn hier extreem ondoorzichtig over. Burgers en organisaties zijn daardoor afhankelijk van (oud)werknemers van Big Tech die documenten lekken.
Een van de klokkenluiders moest bijvoorbeeld bij Meta borderline content - video's die niet illegaal, maar wel schadelijk zijn - voorrang geven, waaronder misogyne video's en video's over complottheorieën. Meta verzamelde hier harde data over: Reels (video's) die Meta zelf classificeerde als 'pesten en intimidatie' leverden 75% meer interactie op ten opzichte van reguliere Reels. Intern onderzoek laat zien dat borderline content ervoor zorgt dat gebruikers 'gegrepen worden, zeker als de inhoud hen woedend maakt'.
Bij TikTok speelt een soortgelijke situatie. In de competitiestrijd met Instagram Reels begon dit platform ook borderline content te stuwen, zo blijkt uit de BBC-documentaire. Tegelijkertijd werden op beide platformen moderatieteams, die juist moeten toezien op de veiligheid van de content, ontslagen en vervangen door AI.
Langer scrollen, meer winst!
Het beeld dat de klokkenluiders hiermee schetsen, klinkt niet vreemd in de oren. Het is al langer bekend dat Big Tech bedrijven er alles aan doen om gebruikers langer op hun platforms te houden, en met succes. Hoe langer ze blijven hangen, hoe meer advertenties voorgeschoteld kunnen worden. En dus: hoe hoger de winst. Extreme content houdt gebruikers vast, dus toont een platform méér extreme content. Zelfs als dit ten koste gaat van de gezondheid en veiligheid van miljarden gebruikers.
Juist die miljarden gebruikers en de maatschappij betalen de (immateriële) boete. Voor veel mensen geldt sociale media als hun belangrijkste nieuwsbron. Wat deze platformen tonen, heeft daarom veel invloed op ons wereldbeeld. Nu de klokkenluiders aangeven dat de informatie die mensen tot zich nemen op sociale media vaak extreme informatie is, is het gevolg snel duidelijk: het wereldbeeld van de gebruikers van die platformen wordt steeds extremer. Mensen komen terecht in extreme fuiken, bijvoorbeeld op het gebied van manosphere of eetstoornissen, maar ook op het gebied van politiek: bij de vorige verkiezingen bleek uit onderzoek van Eenvandaag dat het extreemrechtse PVV meer profiteert van het algoritme van TikTok. Op de platformen ontbreekt de nuance, die juist essentiëel is voor een gezond publiek debat. Mensen verharden, en zitten vast in de extreme realiteit die platformen voor ze creëren, waardoor de maatschappij en het publieke debat verharden en polariseren. De techbazen zitten lachend en gewetenloos op hun stapels met geld, en de maatschappij betaalt de boete.
De Europese Unie heeft nú de kans om in te grijpen op giftige algoritmen en andere verslavende ontwerptechnieken.
Rechtszaak
Is er nog licht aan het einde van de tunnel? Gelukkig wel. Sinds de komst van Europese platformregulering twee jaar geleden zijn de grootste platformen verplicht om ten minste één aanbevelingsalgoritme aan te bieden dat niet gebaseerd is op profilering. Een feed waar extremere content die mensen langer laat scrollen dus géén prioriteit krijgt. Door onze gewonnen rechtszaak, ook in hoger beroep, tegen Meta kunnen mensen op Instagram en Facebook nu kiezen voor de alternatieve feed op chronologische volgorde. Dat is een grote stap weg van de extreme algoritmen van Big Tech, maar er is meer nodig.
Digital Fairness: de oplossing
Een nieuwe kans ligt in nieuwe Europese wetgeving die nu wordt geschreven: de Digital Fairness Act, waarin verslavend ontwerp en algoritmen moeten worden gereguleerd. De lobby van Big Tech doet er in Brussel, net als in onze Tweede Kamer, alles aan om ingrijpende maatregelen tegen te houden, maar hier ligt een kans om af te stappen van deze prioritering van extreme content.
In die wet kan bijvoorbeeld geregeld worden dat gebruikers van platformen kunnen kiezen tussen nog veel meer verschillende feeds, waarvan de onderliggende aanbevelingsalgoritmen door derden kunnen worden gemaakt. Denk aan: een algoritme dat alleen maar zwart-wit content toont, een algoritme dat juist nuance toont, een algoritme op alfabetische volgorde, of een algoritme dat zich aanpast aan jouw eigen voorkeuren. Dat zou allemaal mogelijk kunnen zijn. Verdere mogelijkheden van deze nieuwe wet: een verbod op de eindeloze scroll, een verbod op het automatisch afspelen van video's en notificaties die standaard uit staan. Door dit soort maatregelen verschuift de macht van Big Tech weer naar de gebruiker. Hoog tijd!
De BBC-documentaire over de klokkenluider-onthullingen eindigt met de noot dat de oplossing voor dit probleem bij de overheid ligt. De Europese Unie, en Nederland als lidstaat, heeft met de komst van deze wet nú de kans om in te grijpen op deze giftige algoritmen en andere verslavende ontwerptechnieken. De overheid heeft nú de kans om Europese burgers te beschermen tegen de schade van Big Tech en de regie over de platformen te nemen. Met als doel: autonomie en keuzevrijheid voor gebruikers, waarbij welzijn gaat boven winst.