facebookArchív TASR
StoryEditor

Nenávisť na sociálnych sieťach: Facebook mal experimentovať s politickou polarizáciou

jhriDnes26.10.2021., 17:00h
Facebook uskutočnil experimenty, ktoré odhalili jeho úlohu vo vytváraní politickej polarizácie. Vyplýva to z interných dokumentov zverejnených bývalou zamestnankyňou spoločnosti Frances Haugen. Firma teraz čelí podozreniu, že šírenie nenávisti na platforme nezastavila kvôli zisku.
Lajkuj Brainee.sk na

Experiment s Carol a Karen

V roku 2019 sa k Facebooku pridali dve nové členky. Carol sama seba opísala ako politicky konzervatívnu matku zo Severnej Karolíny so záujmom o kresťanstvo, politiku a rodičovstvo. Platforme priznala, že jej obľúbenou stanicou je pravicovo orientovaná stanica Fox News a je fanynkou vtedajšieho republikánskeho prezidenta Donalda Trumpa.

Druhou zo žien bola Karen. Hoci bola toho istého veku a žila v tom istom štáte, politicky sa profilovala inak. Bola presvedčenou liberálkou, ktorá neznášala Trumpa a naopak sa jej páčil ľavicový demokratický senátor Bernie Sanders.

Facebook obom ženám začal okamžite ponúkať stránky. Carol sa mohla pripojiť k tej, podľa ktorej je Trump spasiteľom. Karen potom k protitrumpovskej stránke, v ktorej mal Trump miesto úst riť.

Hoci Carol nejavila záujem o konšpiračné teórie, len dva dni po pripojení jej Facebook ponúkol, aby sa pridala k krajne pravicovej skupine QAnon, podľa ktorej demokrati a celebrity sú satanistickou skupinou pedofilov a chcú zosadiť Trumpa. Aj keď sa Carol k skupine nepridala, jej facebooková stena bola čoskoro bol zaplnená „prívalom extrémistického, konšpiratívneho a explicitného obsahu“.

K takému záveru dochádza interná štúdia Facebooku nazvaná „Carolina cesta ku QAnonu“, ktorú na verejnosť vyniesla niekdajšia zamestnankyňa spoločnosti Haugen. Spolu s ňou zverejnila aj ďalšie dokumenty Facebooku a kvôli tomu vystúpila aj pred americkým Senátom. Americké médiá získali dokumenty k dispozícii.

136447300_244551567030868_485642566002136825_n ludia Facebook/Terry Meiners

​Carol ani Karen v skutočnosti neboli reálne ženy, ale fiktívne „testovacie užívateľky“, pomocou ktorých výskumníci pre interné potreby Facebooku zisťovali, ako sa algoritmy spoločnosti podieľajú na polarizácii spoločnosti. Denník The New York Times uvádza, že podľa Haugen „Facebook vedome vystavoval používateľa riziku poškodenia integrity".

Vojenský veterán Jose Rocha sa považuje za jedného z poškodených. Na čas sa stal sympatizantom neonacistov, pričom k extrémistickým názorom ho podľa neho priviedol práve Facebook „Ani by som nevedel, že existujú. Nebyť Facebooku, ani by som po nich nepátral,“ povedal portálu USA Today.

Podľa Haugen Facebook o problémoch vedel, rozhodol sa ale preferovať zisk pred krokmi proti prejavom nenávisti. „Facebook opakovane čelil konfliktom medzi jeho vlastným ziskom a našou bezpečnosťou. Opakovane riešil tieto konflikty tak, že dal prednosť svojmu vlastnému profitu,“ uvádza Haugen.

Vyjadrenie Facebooku

Facebook všetky obvinenia odmieta. Podľa hovorcu Andyho Stonea akademický výskum zatiaľ nedošiel ku konsenzu, že by sociálne siete a Facebook špeciálne „boli zdrojom politickej polarizácie“.

Facebook_Privacy_Scandal_Congress450466514331 (1) mark Archív TASR

„Experiment s Carol a Karen je dokonalý príklad výskumu, ktorý spoločnosť vykonáva za účelom zlepšenia systémov, a pomohol pri našom rozhodnutí odstrániť QAnon z platformy,“ hovorí Stone.

Podľa expertov ale zákaz skupiny QAnon na Facebooku nebol efektívny. Najextrémistickejší členovia vystupovali na platforme ďalej, iba sa prezliekli do šiat bojovníkov proti obchodu s deťmi. Zamestnanci Facebooku sa v interných komunikačných kanáloch sťažovali, že firma zasiahla až vtedy, keď sa veci začali vymykať kontrole.

Ako sa tvorí polarizácia

Uniknuté dokumenty Facebooku ukazujú spôsob, akým algoritmus platformy vytvára polarizáciu. S cieľom silnejšie zapojiť užívateľov a donútiť ich viac komentovať sa zmenilo vlákno, ktoré zobrazuje príspevky od priateľov a rodiny.

Užívateľom sa tak začali objavovať aj nesúvisiace politické príspevky, pričom často išlo o také, ktoré vyvolávali emócie, a to tie skôr negatívne.

Zmena algoritmu viedla ku vzostupu takzvaných „deep reshares“ čiže príspevkov od ľudí, ktorí nie sú ani priateľmi ani ich užívateľ nesleduje, ale ktoré majú rad zdieľaní. Podľa štúdie Facebooku medzi nimi prevažujú „dezinformácie, toxický či násilný obsah“.

Tím poverený bojom s dezinformáciami navrhoval, aby sa Facebook reshares zbavil. Spoločnosť to ale odmietla s tým, že by tým došlo k výraznému zníženiu obsahu na platforme.

Brainee patrí do portfólia vydavateľstva Mafra, ktorého súčasťou je aj iDnes.cz.

Top rozhovor
menuLevel = 4, menuRoute = notsorry/news/kultura/socialne-siete, menuAlias = socialne-siete, menuRouteLevel0 = notsorry, homepage = false
21. november 2024 18:35