TMI Blog

Filterbubbel 101

Zou je een kind alles geven wat het lekker vindt? De meeste kinderen zouden er overgewicht aan over houden. Ook met (online) content kunnen we niet alleen datgene consumeren wat onze hersenen lekker vinden. Toch is dat wat bedrijven ons online steeds vaker voorschotelen. We belanden steeds sneller in online filterbubbels. Maar, wat betekent dat nu en wat kunnen we er tegen doen?

Op internet worden onze behoeftes constant geregistreerd. Althans, datgene waar we graag naar kijken. Bijna overal waar we ons online bevinden, wordt ons gedrag gemonitord. Bedrijven houden bij waar we op klikken, waar we naar kijken, hoe lang we ernaar kijken, en ga zo maar door. Al deze informatie wordt verzameld, zodat bedrijven ons beter leren kennen en weten wat we leuk vinden. Zo kunnen ze ons steeds meer content geven die aansluit bij onze interesses. Dat zorgt ervoor dat ze onze aandacht langer kunnen vasthouden. Onze aandacht is namelijk geld waard.

Er zitten geen slimme koppen achter computers om ons online gedrag te monitoren (zo interessant ben je dan ook weer niet). Dit wordt allemaal gedaan door algoritmes. Een algoritme is een formule die helpt om een probleem op te lossen. Het simpelste voorbeeld van een algoritme is een recept. Je hebt eerst een set ingrediënten nodig. Hoe je deze vervolgens verwerkt tot gerecht is dan het algoritme. De stappen om tot het juiste eindresultaat te komen. 

Hoe een platform als Instagram bepaalt welke content jij te zien krijgt, werkt volgens zo’n zelfde soort algoritme. Het gooit jouw zoekgeschiedenis, gelikete foto’s en video’s, de kanalen die je volgt, alles dat jij op het platform doet in een formule. Die formule bepaalt welke content overeenkomt met jouw behoeftes. Zo bepaalt het algoritme jouw nieuwe feed.

Filterbubbel

In 2009 experimenteerde het eerste sociale medium, Facebook in dit geval, met het personaliseren van de tijdlijn van gebruikers. Een van de eerste personen die hierachter kwam, was Eli Pariser. De schrijver en ondernemer gebruikte destijds al een tijdje Facebook, maar merkte al snel iets op. Waar Eli eerst nog allerlei verschillende berichten zag van zijn vriendenkring, begonnen de berichten steeds meer op elkaar te lijken. De berichten van zijn conservatieve vrienden leken weggefilterd, terwijl die van zijn progressieve vrienden toenamen. Dit was het eerste moment dat hij kennismaakte met de personalisatie van sociale media.

Eli deed hier en daar experimenten met het algoritme. Ook bijvoorbeeld toen in 2010 een boorplatform van BP explodeerde aan de Mexicaanse kust. Deze olieramp was wereldwijd groot nieuws. Eli besloot zijn nieuwe onderzoek naar online algoritmes te doen. Hij ging naar Google en typte ‘BP’ in.  Direct werd hij geconfronteerd door de vele nieuwsberichten over de olieramp. Het algoritme van Google vond dit blijkbaar een relevant onderwerp voor hem die dag. Toen hij zijn vriend vroeg om ook ‘BP’ te googelen, werden ze beide verrast door de resultaten. Deze persoon kreeg namelijk geen berichten te zien over de olieramp, maar slechts mogelijkheden om te investeren in BP. Zij leefden online in een compleet andere realiteit.

De gevaren

Na bijna twee jaar onderzoek publiceerde Eli zijn nieuwe boek: ‘The Filter Bubble: What the Internet Is Hiding from You’. Hierin beschrijft hij hoe we steeds meer vast komen te zitten in algoritmes die bepalen wat wij het beste te zien kunnen krijgen. De aangeboden content is nu dus afhankelijk van waar jij op klikt, naar kijkt, en hoe lang je er naar kijkt. Hoe meer een bedrijf over ons weet, hoe beter ze ons kunnen targeten met geschikte content. Dit lijkt in eerste oogopslag vooral erg handig. Waarom zou ik iets anders willen zien dan waar mijn interesses liggen? Bij een tweede keer nadenken, besef je al snel welk effect dit kan hebben op je wereldbeeld.

Zoals Eli Pariser al opmerkte, zag hij steeds minder verschillende meningen. Uiteraard, want je krijgt slechts te zien wat ‘bij jou past’. Steeds bevestigd worden in een bepaalde mening, heeft alleen een vervelend gevolg: mensen vallen al snel in tunnelvisie. Hoe vaker je bevestiging krijgt voor een mening, hoe moeilijker je er nog vanaf stapt. Je gaat jouw mening steeds meer voor waar aannemen en staat steeds minder open voor de mening van anderen. Als dit op grote schaal gebeurt, zorgt dit er op den duur dus voor dat we in verschillende realiteiten gaan leven. We belanden, jawel, in onze eigen filterbubbels.

Maar, sociale media - geloof het of niet - staat niet alleen vol met meningen. Ook andere willekeurige filmpjes, foto’s en nieuwsartikelen worden afgestemd op jouw ‘interesses’. Ja, die zetten we even tussen haakjes. Een mens kent namelijk twee soorten interesses. Degenen waarvan we ons bewust zijn en degenen waarvan we ons niet bewust zijn. We blijven zoogdieren met overlevingsinstinct. De digitale wereld maakt dat goed duidelijk. We zijn geprogrammeerd om te letten op dingen die op gevaar kunnen duiden of juist op de mogelijkheid tot een beloning. Kortom, content die iets met onze emoties doet.

Ook in ‘mister filterbubbles’ boek lezen we over dit fenomeen. Het constant voeden van onszelf met nieuwe, mentaal stimulerende content kan op den duur leiden tot iets dat Eli ‘mentale obesitas’ noemt. Oftewel: we krijgen te veel informatie binnen die ons mentaal niet bevordert. We zien in plaats van rijke informatiebronnen, verschillende meningen en kwalitatieve teksten, juist het tegenovergestelde. We blijven voornamelijk over met content die ons triggert. Beelden die in eerste instantie ons overlevingsinstinct aanwakkert: ‘content die vies, agressief of seksueel is en roddels die vernederend, beschamend of beledigend zijn’.

Het tegengif

Het gebruik van algoritmes brengt op deze manier dus zijn risico’s met zich mee. Betekent dit dat we steeds verder komen vast te zitten in onze eigen filterbubbels en we steeds verder verwijderd raken van elkaars realiteiten? Nee, dat hoeft helemaal niet. Wij zijn geen hulpeloze pixelconsumenten, maar hebben zelf de macht in handen. Wij bepalen namelijk waar we online naar kijken. Dit vraagt wel van ons dat we die verantwoordelijkheid ook moeten nemen. Door je eigen online gedrag te veranderen, verandert je ‘filterbubbel’ ook. Daarom: klik eens op iets immens oninteressants. Zoek eens naar meningen waar je van walgt. Het lijkt absurd, maar zorgt er uiteindelijk voor dat we weer meer verschillende kanten zien die deze wereld heeft te bieden en houden we onze grip op de werkelijkheid. Een volledigere werkelijkheid.

TMI Academy biedt jongeren en hun omgeving tools en kennis om met onderwerpen omtrent mediawijsheid, zoals de filterbubbel, aan de slag te gaan. Neem eens een kijkje op onze website voor meer informatie!

Wil je meer kennis van Mediawijsheid?

Bekijk TMI's aanbod