Algoritmy pod dohľadom

Ilustrácia Unsplash/visuals

Verejný tlak núti platformy k záväzku zmierniť šírenie nepravdivých informácií či propagandy ich algoritmami. Ráznejšie opatrenia však neuplatňujú a externej kontrole sa skôr bránia. Pribúdajú preto iniciatívy, ktoré vykonávajú nezávislé štúdie merajúce tendencie šírenia nepravdivých informácií a propagandy na princípe tzv. čiernej skrinky.

Algoritmy veľkých platforiem značne prispievajú k online šíreniu nepravdivých informácií. Preferujú totiž vzrušujúci, emotívny či inak atraktívny obsah, pri ktorom ich používatelia zostávajú dlhšie (a teda sú viac vystavení speňažiteľnej reklame). Dezinformácie, misinformácie, ale aj bulvár či iné povrchné formy majú tieto vlastnosti častejšie, a preto sú odporúčané väčšmi než nudný či nezáživný, no dôveryhodný obsah. Platformy o preferenciách svojich algoritmov vedia, nemajú však ochotu zásadnejšie ich meniť: boja sa narušenia svojich príjmov.

O (ne)plnení záväzkov

Foto Unsplash/Marc Sendra Martorell

Verejný tlak v západnej časti sveta núti platformy k záväzkom zmieriť šírenie nepravdivých informácií ich algoritmami. Príkladom takýchto záväzkov v Európskej únii na dobrovoľnej úrovni je v tomto roku posilnený Code of Practice on Disinformation. Tieto záväzky reflektuje aj európska legislatíva v rámci tzv. Digital Services Act.
Pri plnení doterajších dobrovoľných záväzkov išlo zatiaľ skôr o zdržovaciu taktiku: záväzky sú ťažko merateľné, kontrolovateľné či vymožiteľné. Deklarované efekty sú malé. Platformy využívajú rôzne techniky bluewashingu (najvhodnejší slovenský ekvivalent je opíjanie rožkom). Doteraz totiž boli zaviazané iba k selfreportingu a pravidlá boli navyše príliš všeobecne definované. Takto si platformy mohli napríklad vybrať obdobie, z ktorého budú hlásiť dáta Európskej komisii, prípadne spôsob agregácie týchto dát. Problematickejšie obdobia, ako napríklad čas pred voľbami alebo menšie krajiny ako Slovensko, tak neboli samostatne vyhodnotené. Takto dokázali platformy z prvých regulatív elegantne vykľučkovať.
Obľúbenou reguláciou medzi platformami je tiež samoregulácia: platformy vydávajú vlastné (niekedy spoločné) kódexy svojej činnosti (codes of conduct), ktoré sa zaväzujú dodržiavať. Tieto kódexy však často zostávajú na polceste k želanému stavu. No keďže predstavujú aspoň niečo, niektorých kritikov umlčia a nechávajú mnohé aktivity skryté vo vnútorných procesoch, ktorých výstupy sa síce verejnosť občas dozvie, ich pravdivosť sa však často nedá overiť.

Foto Unsplash/NordWood Themes

Nezávislé audity na Youtube

Nezávislé audity fungujú na iných princípoch ako selfreporting. Ide o metódu systematického skúmania obsahu prezentovaného používateľom platformou. Napríklad je možné merať frekvenciu odporúčania potenciálne škodlivého obsahu pri rôznych podmienkach, ako sú demografický profil používateľa či jeho história na platforme. Niekedy sa audity robia v spolupráci s ľudskými používateľmi, inokedy sú zapojené boty (naprogramovaní agenti), ktoré vystupujú ako používatelia a systematicky zaznamenávajú reakcie platformy na svoje predprogramované správanie.
Príkladom takéhoto auditu je výskum, ktorý vyhral cenu za najlepší článok na veľmi selektívnej vedeckej konferencii ACM Recommender Systems (iba 18 % zaslaných príspevkov je akceptovaných a publikovaných). V ňom auditujeme platformu YouTube, o odporúčaniach ktorej sa vie veľmi málo. Platforma funguje ako čierna skrinka a používatelia nevedia, ako a na základe čoho im videá odporúča. V našej štúdii sme sledovali, či na YouTube vznikajú dezinformačné filtračné bubliny (filter bubbles) a či sa z nich vedia používatelia dostať pozeraním videí, ktoré dokazujú a vysvetľujú nepravdivosť predmetných dezinformácií.
Prítomnosť dezinformačných filtračných bublín na YouTube sme v našej štúdii ukázali v prípade zoznamov odporúčaných videí (nie však vyhľadávacích výsledkov). Zistili sme tiež, že YouTube sa v šírení nepravdivých informácií a zavádzajúcich videí v porovnaní s predchádzajúcou podobnou štúdiou veľmi nezlepšil. Viac dezinformačných videí o vakcinácii sme čakali aj kvôli prebiehajúcej pandémii, vo veľkom množstve sa však šírili aj fámy o udalostiach zo septembra 2011. Na druhej strane sme svojím výskumom dokázali, že pozeranie pravdivých videí pomohlo takmer pri všetkých témach znížiť množstvo dezinformácií, ktorým používatelia čelia.

Téma Audit E. Husseina a kol. Audit KInIT-u Zmena Podrobnosti
Útoky z 11. 9. 2001  0,14  0,26 nie (nie štatisticky významná) podobná distribúcia, viac propagačných videí
Chemtrails  0,05  0,03 nie (nie štatisticky významná) neutrálnejšie výsledky
Plochá Zem -0,16 -0,15 nie (nie štatisticky významná) podobná distribúcia
Pristátie na Mesiaci -0,08 -0,32 k lepšiemu
(U = 2954,5, p = 8e – 6)
viac vysvetľujúcich videí
Antivakcinácia -0,28 -0 k horšiemu
(U = 664, p = 1,6e – 9)
menej vysvetľujúcich videí, viac neutrálnych
a propagačných

Ukážka z nášho auditu odporúčania konšpiračných tém na YouTube. Dáta sme porovnávali s auditom, ktorý v minulosti vykonal kolektív okolo Eslama Husseina. -1 označuje videá, ktoré konšpirácie vyvracajú, +1, ktoré ich šíria. Zdroje:
Eslam Hussein, Prerna Juneja, and Tanushree Mitra. 2020.
Measuring Misinformation in Video Search Platforms: An Audit Study on YouTube. Proc.ACM Hum.-Comput. Interact.4, CSCW1, Article 048 (May 2020), 27 pages

Matus Tomlein, Branislav Pecher, Jakub Simko, Ivan Srba, Robert Moro, Elena Stefancova, Michal Kompan, Andrea Hrckova, Juraj Podrouzek, and Maria Bielikova. 2021. An Audit of Misinformation Filter Bubbles on YouTube: Bubble Bursting and Recent Behavior Changes. The ACM Conference Series on Recommender Systems

Facebook a umlčiavanie

Foto Unsplash/Kajetan Sumila

O tom, že sa platformám nezávislé audity odporúčaného obsahu nepáčia, sa už presvedčili mnohí výskumníci. Nečudo, ide v podstate o odhaľovanie ich slabých miest. Posledný škandál si spôsobil Facebook (teraz už platforma Meta), ktorý zmazal účty, stránky aj aplikácie odborníkom z Newyorskej univerzity. Títo akademici skúmali transparentnosť politických reklám na Facebooku. Výskum odhalil približne 86-tisíc zavádzajúcich reklám, z ktorých takmer štvrtina bola financovaná pochybnými komunitami. Výskumníci na svoje zistenie využili dobrovoľníkov, ktorí im sami sprístupnili na tento účel svoje dáta. Facebook ako dôvod zatvorenia účtov uviedol ochranu súkromia používateľov.
Klepnutiu po prstoch sa nevyhli ani interné štruktúry Facebooku. Konkrétne tím CrowdTangle, ktorý prešiel pod vlastníctvo Facebooku. Vďaka tomuto nástroju na analýzu a vyhodnocovanie facebookových dát sa napríklad zistilo aj to, že extrémnejšia pravica získavala na Facebooku v porovnaní s iným obsahom príliš veľa pozornosti. Tieto výsledky ukázali Facebook ako nevyvážený zdroj s veľkou konzervatívnou komorou ozvien (echo chamber). A práve tento obraz sa exekutíve platformy nepáčil. Niektorí z nich boli dokonca toho názoru, že Facebook by mal namiesto otvárania svojich dát na analytické účely publikovať iba vlastnoručne a selektívne vybrané dátové reporty. Zatiaľ CrowdTangle svoje služby poskytuje naďalej, no ľudia blízki tomuto nástroju sa obávajú, že to tak nemusí byť aj v budúcnosti. Facebooku totiž podľa nich väčšmi záleží na zlepšovaní svojho obrazu ako bezproblémovej platformy než na úsilí reálne riešiť problémy, ktoré platforma má.
Naša štúdia je len jedným z našich príspevkov pri boji s dezinformáciami. Naším dlhodobým zámerom je vytvoriť nástroje, ktorými bude možné nezávisle vyhodnocovať podiel algoritmov sociálnych médií na šírení dezinformácií. K tomu nám pomôže aj zapojenie sa do konzorcia EDMO (European digital media observatory), ktoré sa boju proti dezinformáciám venuje na európskej úrovni.

Andrea Hrčková
Jakub Šimko
Kempelenov inštitút inteligentných technológií (KInIT)
Anglickú verziu článku si môžete prečítať tu.

Podcast E-tika

Ak vás téma regulácie veľkých platforiem zaujala, pustite si podcast E-tika. V diele s názvom Ako regulovať digitálne technológie sa na tému, ako a kedy má zmysel regulovať nové technológie zo strany štátov a verejných inštitúcií, pozreli moderátori Juraj Podroužek a Matúš Mesarčík spolu s ich hosťom Tomášom Juchom z Ministerstva investícií, regionálneho rozvoja a informatizácie Slovenskej republiky. Dozviete sa napríklad to, do akej miery EÚ dôveruje technologickým gigantom, veľkým online platformám či celkovo poskytovateľom vysokorizikových systémov umelej inteligencie, že v rámci samoregulácie budú primerane čeliť novým spoločenským rizikám, no aj to, do akej miery potrebujú štátni úradníci rozumieť technológiám, ktoré sa snažia usmerňovať.
Podcast nájdete na stránke https://kinit.sk/sk/e-tika-podcast-how-to-regulate-digital-technologies/.

Tento článok si môžete prečítať v časopise Quark 9/2022. Ak ešte nie ste našou predplatiteľkou/naším predplatiteľom a chcete mať prístup k exkluzívnemu obsahu, objednajte si predplatné podľa vášho výberu tu.