Ville ikke endre «giftig» innhold

En intern rapport slo fast at en endring i Facebooks algoritmer hadde skapt mer «feilinformasjon og giftighet», men toppsjefen var skeptisk til å justere kursen.

VILLE IKKE ENDRE: Facebook-sjef Mark Zuckerberg var skeptisk til å endre en algoritme som ga negativt innhold mer oppmerksomhet. Foto: REX / Shutterstock / NTB
VILLE IKKE ENDRE: Facebook-sjef Mark Zuckerberg var skeptisk til å endre en algoritme som ga negativt innhold mer oppmerksomhet. Foto: REX / Shutterstock / NTB Vis mer
Publisert

«Ved å gjøre disse endringene forventer jeg at tiden folk bruker på Facebook, og hvor stort engasjement det er, vil gå ned. Men jeg forventer også at tiden du bruker på Facebook vil være mer verdifull».

Mark Zuckerberg framstilte det som et offer for Facebook da de i 2018 rullet ut en ny algoritmeendring.

«Uheldige bivirkninger»

Målet med endringene var, ifølge Facebook selv, å hjelpe folk med å finne relevant innhold og hjelpe dem med slik at de kan interagere mer med venner og familie.

Zuckerberg selv viste blant annet til forskning, som viser at passiv mediekonsumering på Facebook, som for eksempel å se videoer, ikke er bra for folk.

Det kan tenkes at også Facebook hadde folks beste i tankene, men det var også flere, og mer «egoistiske» grunner til endringen.

Facebook var nemlig bekymret for at brukerengasjementet på plattformen deres var nedadgående.

Wall Street Journal publiserer i disse dager en lengre serie om Facebooks gjøren og laden, og deres motvilje mot å gjøre endringer når de faktisk ser at ting bærer galt av sted.

For nettgiganten handlet algoritmeendringen i 2018 om at de ikke så ut til å klare å snu en dårlig trend, der brukerdelt innhold fikk stadig lavere engasjement.

På tross av tilsynelatende edle motiv skulle det snart vise seg at endringen ikke hadde de ønskede resultatene.

I stedet for at Facebook ble et hyggeligere sted, der folk i økende grad kommenterte på venner og families hyggelig bilder, slo Facebooks analytikere fast at «vår tilnærming har hatt noen uheldige bivirkninger», ifølge interne dokumenter Wall Street Journal har fått tilgang til.

Favoriserte sinte stemmer

Utgivere og politiske partier som brukte Facebook vred sin tilnærming til plattformen til å dele innhold som ville føre til sinne.

I interne notater konkluderte Facebook med at deres algoritmeendring, blant annet ved at de vektet innhold som ble delt videre høyt, hadde gjort de sinte stemmene høyere.

- Feilinformasjon, giftighet og voldelig innhold er usedvanlig utbredt blant innhold som blir delt videre, ble det slått fast i interne notater.

«Politiske aktører og utgivere forteller oss at de er mer avhengig av negativitet og sensasjonalisme for spredning på grunn av algoritmeendringene som favoriserer videredeling», skrev en forsker.

Det ville Facebooks såkalte integritetsteam, hvis jobb er å forbedre kvaliteten og troverdigheten på innholdet på plattformen, gjøre noe med. De jobbet med en rekke mulige endringer som skulle dempe tendensen til algoritmen belønnet sinne og løgner.

Foreslo endringer

Lederen for teamet, Anna Stepanov, presenterte en rekke forslag til Zuckerberg, ifølge et notat fra 2020. Et av forslagene ville ha fjernet den delen av Facebooks algoritme som ga et løft til innhold det var sannsynlig ville bli delt om igjen og om igjen av en lang rekke brukere.

Men etter å ha presentert det hele for Zuckerberg, skrev Stepanov til sine kolleger at «Mark synes ikke vi skal gå ut bredt» med endringene.

- Vi kommer ikke til å lansere dette hvis det bidrar til store endringer i MSI-påvirkningen, skrev Stepanov.

MSI står for «meaningful social impact», på norsk «meningsfull sosial virkning», som altså var det Facebook opprinnelige ville gi litt ekstra hjelp på plattformen sin med algoritmeendringen.

Etter hvert har likevel også Facebooks øverste sjef sett at det må endringer til.

Zuckerberg snudde

6. januar i år stormet som kjent opprørere Capitol Hill i USA. De mente at valgresultatet var juks og bedrag, og Facebook fikk til dels krass kritikk for at deres plattform hadde blitt brukt til å organisere protestene.

31. august i år gikk Facebook ut med at de nå ville rulle ut endringer som skal komme problemet til livs. Halvannet år etter at Stepanov følte hun fikk tommel ned fra Zuckerberg.

«Vi utvider gradvis tester for å legge mindre vekt på hvor sannsynlig det er at noen kommenterer eller deler politisk innhold», skrev Facebook.

I tillegg til USA rulles endringene ut og testes i Costa Rica, Sverige, Spania og Irland.

På tross av den kritikken Facebook har fått og den stormen de har stått i, og da spesielt etter opptøyene 6. januar, ser det så langt ikke ut til å påvirke bunnlinja.

I juli la Facebook fram tall for andre kvartal. Tallene viste et overskudd på 10,4 millioner dollar, tilsvarende 89 milliarder norske kroner, ifølge NTB.

Omsetningen ble på 259 milliarder norske kroner, og er i all hovedsak skapt av reklameinntekter, som er så godt som eneste inntektskilde.

I regnskapet skriver Facebook at det har vært en økning i antallet reklamer med 6 prosent.

Antall mennesker i verden som bruker det sosiale nettverket minst én gang i måneden steg til 2,9 milliarder. Daglige, aktive brukere lå på 1,9 milliarder i kvartalet, en økning på 7 prosent.

Vi bryr oss om ditt personvern

borsen er en del av Aller Media, som er ansvarlig for dine data. Vi bruker dataene til å forbedre og tilpasse tjenestene, tilbudene og annonsene våre.

Les mer