Fortsæt til indhold
Digitalt

Facebook-undersøgelse viser, at Facebook-algoritmen ikke fodrer os med egne holdninger

Facebook er for mange danskere er blevet en ”algoritmisk avis”. Dels fordi mange bruger tjenesten til at finde nyheder. Og dels fordi de politiske nyheder, der dukker op i vores newsfeeds, sorteres af en for offentligheden ukendt algoritme.

I årevis har der været hede debatter blandt sociologer og politologer om, hvorvidt Facebooks algoritmer forfladiger den politiske debat, fordi brugerne på tjenesten kun præsenteres for det politiske indhold, de er enige i, hvorved nuancer går tabt. Den mest synlige Facebook-kritiker har været den amerikanske forfatter Eli Pariser, der har beskrevet den såkaldte ”filter-boble-effekt” i sin bog ”The Filter Bubble”. Effekten går på, at firmaer som Facebook og Google kender os så godt, at vi kan ende med at leve i vores egne små bobler på internettet, hvor vi kun læser nyheder, der understøtter vores på forhånd kendte politiske holdninger.

Denne ide søger Facebook for første gang i tjenstens historie at komme til livs ved præsentationen af en ny, stor rapport, der er blevet trykt i det videnskabelige tidsskrift ”Science”. I gennemsnit er der 6 pct. mindre sandsynlighed for, at du læser en nyhed, som ikke stemmer overens med din politiske overbevisning, lyder det.

Eli Pariser selv erkender, at filter-boble-effekten er mindre voldsom, end han havde gættet på. Men i en kronik, for mediet Medium.com, påpeger han det signifikante i, at det politiske indhold vores venner deler, kommenterer og liker har omtrent lige så stor indflydelse på, hvad vi ser i vores newsfeeds, som det politiske indhold Facebook-algoritmen prioriterer baseret på vores politiske ståsted. Desuden påpeger han, at ”filter-boble-effekten omhandler to bekymringer: At algoritmer kan resultere i, at folk omgiver sig med indhold, der understøtter deres holdninger, og at algoritmer har tendens til at nedprioritere de medier, der er mest nødvendige i et demokrati.

»Selvom studiet fokuserer på det første problem, giver det også indblik i det andet. Kun 7 pct. af det indhold, som folk på Facebook klikker på er ”hårde nyheder”. Det er en alarmerende lille andel af det samlede puslespil,« skriver han.

Tvivlsomme undersøgelsesresultater

Danske eksperter er positive overfor Facebooks konklusion lydende på, at 29 pct. af de politiske nyheder, vi ser, repræsenterer holdninger i kontrast til vores egne. Men Mikael Lemberg, ekspert i sociale medier og tidl. ansat hos Facebook, synes, at Eli Parisers indvendinger er fornuftige og i virkeligheden »en underminering af Facebooks præsentation af undersøgelsen.« Han er dog ikke sikker på, at han ville foretrække, at Facebook ikke sorterede i de politiske nyheder.

»Alternativet er, at det 100 pct. er venners delinger og likes, der bestemmer, hvad du ser. Og så lever du ikke i en filter-boble, men i et ekko-kammer, hvor folk bare bekræfter hinandens holdninger, fordi vi har tendens til at have venner med samme holdninger som os selv.«

For Rasmus Pagh, professor i datalogi ved IT-Universitet, er det umiddelbart positivt, at Facebook ikke sorterer så kraftigt i nyheder, men påpeger dog, at undersøgelsens metode er fyldt med »røde flag«, som gør den »problematisk« at stole på: »alene det, at Facebook kun har brugt brugere i undersøgelsen, som har tilkendegivet deres politiske ståsted på platformen, gør, at du ikke har et repræsentativt udsnit af brugerne.«

Artiklens emner