Home / Blog / YouTube’s aanbevelingsalgoritme is een radicaliseringsmachine

YouTube’s aanbevelingsalgoritme is een radicaliseringsmachine

LATER LEZEN

YouTube herbergt gigantisch veel informatie, en als je klaar bent met de video van keuze, krijg je allerlei gerelateerde video’s aanbevolen. Volgens techsocioloog Zeynep Tufekci werkt het algoritme dat die aanbevelingen voorschotelt als een “giant radicalizing engine“. Ze waarschuwt ervoor in The New York Times.

Van hardlopen naar ultramarathons
Tussen de aanbevolen video’s zit desinformatie, leugens en hoaxes. Als je autoplay aan hebt staan, krijg je de automatisch onder ogen. Het gaat vooral om extreemrechtse video’s, met veel racisme en veel seksisme. Een voorbeeld dat iemand op Twitter gaf:

“I just typed slavery into the youtube search and clicked on a video by an academic discussing the origins of plantation slavery in the New World.

The next video queued up to autoplay was a discussion of “white slavery” by two Holocaust deniers (Ernst Zündel & Michael Hoffman II).”

Het gaat echter niet alleen om politieke kwesties. Tufekci probeerde ook andere onderwerpen uit. Als je video’s kijkt over vegetarisme, krijg je daarna veganisme voorgeschoteld. Bekijk je iets over hardlopen, dan stelt YouTube daarna ultramarathons voor. Het probleem zit volgens haar in het verdienmodel:

“For all its lofty rhetoric, Google is an advertising broker, selling our attention to companies that will pay for it. The longer people stay on YouTube, the more money Google makes. What keeps people glued to YouTube? Its algorithm seems to have concluded that people are drawn to content that is more extreme than what they started with — or to incendiary content in general.”

Sensationalisme verkoopt
Het zelflerende systeem heeft dus ontdekt dat we langer blijven hangen als we steeds extremere dingen zien. Dit blijkt ook uit onderzoek van The Wall Street Journal, dat samen met een voormalig YouTube-medewerker aantoonde dat je na mainstream nieuws op YouTube vaak extreem-rechtse of extreem-linkse video’s aangeboden krijgt. Ook op dit platform geldt dus dat ophef regeert: het algoritme heeft een voorkeur voor opruiende content.

We zien dat de machine een eigenschap van mensen aanleert. Uitbuit, is het woord dat Tufekci kiest:

“What we are witnessing is the computational exploitation of a natural human desire: to look “behind the curtain,” to dig deeper into something that engages us. As we click and click, we are carried along by the exciting sensation of uncovering more secrets and deeper truths. YouTube leads viewers down a rabbit hole of extremism, while Google racks up the ad sales.”

Ze vergelijkt onze nieuwsgierigheid met onze zucht naar vet, zout en suiker. Beiden waren goed in tijden van schaarste, maar in tijden van overvloed zijn ze schadelijk. Als een restaurant ons steeds maar suiker en zout voorzet, wennen onze smaakpapillen eraan. We komen terug voor meer. Als we er dan achter komen dat het slecht voor ons was en we klagen bij de manager, zegt hij eenvoudig dat ons voorzette wat we wilden.

Oplossingen
Tufekci maakt zich grote zorgen. Ze haalt aan dat Google Chromebooks, waar uiteraard YouTube al op is geïnstalleerd, nu meer dan de helft van de “pre-college laptop education market” uitmaken. Ook in Nederland is YouTube vooral onder jongeren populair: 86 procent van de 15-19-jarigen gebruikt de site. Ze stelt dat het onacceptabel is wat het algoritme doet: Google verdient zo geld aan radicalisering waar de samenleving de prijs voor zal moeten betalen.

Concrete oplossingen draagt ze niet aan in dit opiniestuk. Op Twitter benadrukt ze nogmaals dat het probleem ligt bij het verdienmodel: Google gaat het algoritme echt niet zomaar aanpassen, omdat het zorgt voor geld in het laadje.