1814 slov
9 minut
7: Sociální sítě – Bojiště algoritmů a trollů

Úvod: Válka v komentářích#

Otevřete jakýkoliv článek o Ukrajině, EU nebo NATO na českém zpravodajském serveru. Podívejte se do komentářů. S vysokou pravděpodobností uvidíte:

  • „A co Amerika v Iráku?”
  • „NATO nás táhne do války!”
  • „EU nám ničí ekonomiku!”
  • „Zelenskyj je loutka Západu!”

Tyto komentáře mají stovky lajků a jsou nahoře. Vytvářejí dojem, že „většina lidí si to myslí”. Ale je to pravda?

Tato kapitola odhaluje mechaniku toho, jak se určité názory dostávají na vrchol – a proč to, co vidíte v komentářích, nemusí vůbec odpovídat skutečnému rozložení názorů ve společnosti.


7.1 Anatomie komentářové sekce#

Jak funguje řazení komentářů#

Většina platforem řadí komentáře podle kombinace faktorů:

  • Počet reakcí: Lajky, srdíčka, „To se mi líbí”
  • Počet odpovědí: Komentáře vyvolávající diskuzi jsou upřednostňovány
  • Čas publikování: Novější vs. starší
  • Relevance: Algoritmus odhaduje, co vás zaujme
  • Engagement uživatele: Komentáře od lidí, s nimiž interagujete

Klíčový poznatek: Algoritmus nehodnotí pravdivost ani kvalitu. Hodnotí pouze engagement – kolik lidí reaguje.

Proč jsou „zlé” komentáře nahoře#

Komentáře vyjadřující silné emoce (hněv, pobouření, strach) generují více reakcí než neutrální nebo vyvážené příspěvky. Proto:

  • Provokativní komentář dostane 50 reakcí (ať už souhlasných nebo nesouhlasných)
  • Vyvážený komentář dostane 5 reakcí
  • Algoritmus zobrazí nahoře ten provokativní

A zde přichází ke slovu koordinovaná manipulace.


7.2 Boti: Automatizovaní vojáci#

Co je bot#

Bot je automatizovaný účet ovládaný softwarem, nikoliv člověkem. Může:

  • Publikovat příspěvky podle předem daného plánu
  • Lajkovat obsah obsahující určitá klíčová slova
  • Sdílet příspěvky od vybraných účtů
  • Sledovat a být sledován pro budování „důvěryhodnosti”
  • Reagovat předpřipravenými odpověďmi

Typy botů#

Jednoduché boty:

  • Opakují stále stejné zprávy
  • Mají generovaná jména (Jana12345678)
  • Profilový obrázek chybí nebo je zjevně falešný
  • Snadno rozpoznatelné

Sofistikované boty:

  • Napodobují lidské chování (nepravidelné příspěvky, různorodý obsah)
  • Mají propracované profily s historií
  • Používají AI pro generování unikátních textů
  • Téměř nerozpoznatelné od lidí

Cyborgy:

  • Kombinace člověka a automatizace
  • Člověk vytváří obsah, bot ho distribuuje
  • Nebo bot vytváří obsah, člověk ho schvaluje
  • Nejúčinnější a nejtěžší k detekci

Čísla#

Odhady hovoří o tom, že na velkých platformách:

  • 5–15 % všech účtů jsou boti
  • V určitých diskuzích může být podíl botů přes 50 %
  • Jeden člověk může ovládat stovky botů

7.3 Koordinované neautentické chování#

Co to znamená#

„Koordinované neautentické chování” (Coordinated Inauthentic Behavior, CIB) je termín, který používá Meta (Facebook) pro situace, kdy skupina účtů spolupracuje na manipulaci veřejné diskuze, přičemž tuto koordinaci skrývá.

Jde o něco jiného než:

  • Běžné sdílení názorů (i koordinované, pokud je transparentní)
  • Politické kampaně (pokud jsou označené)
  • Aktivismus (pokud je autentický)

Jak vypadá v praxi#

Příklad: Komentáře pod článkem o Ukrajině

  1. Článek je publikován v 9<00>
  2. V 9<05> se objeví první komentář: „A co Amerika v Iráku?”
  3. V 9<06>–9<15> dostane tento komentář 30 lajků od různých účtů
  4. Algoritmus ho vyhodnotí jako „populární” a zobrazí nahoře
  5. V 9<20> přichází skuteční čtenáři – vidí tento komentář jako první
  6. Někteří z nich (kteří by jinak nereagovali) s ním souhlasí
  7. Vzniká dojem konsenzu

Časové okno je klíčové: První hodina po publikování rozhoduje o tom, které komentáře budou dominovat. Proto jsou koordinované operace tak účinné.

Techniky amplifikace#

Lajkovací brigády: Stovky účtů automaticky lajkují obsah s určitými klíčovými slovy nebo od určitých uživatelů.

Cross-platformní amplifikace: Ten samý obsah je šířen současně na Facebooku, Twitteru, YouTube, Telegramu – čímž vzniká dojem „všudypřítomnosti”.

Falešné trending: Masové používání hashtagů, aby se téma dostalo do trendů.

Quote tweeting/sdílení: Stovky účtů sdílejí původní příspěvek, čímž zvyšují jeho dosah.


7.4 Konkrétní taktiky#

„Slavné” techniky#

1. Whataboutism Odvádění pozornosti od tématu poukazováním na (skutečné či domnělé) prohřešky druhé strany.

  • „Rusko zaútočilo na Ukrajinu” → „A co Amerika v Iráku/Jugoslávii/Libyi?”

2. Gish gallop Zahlcení diskuze množstvím argumentů (i nepravdivých), na které není možné všechny odpovědět.

3. Sealioning Předstíraná zdvořilá žádost o „důkazy” a „vysvětlení”, jejímž skutečným cílem je vyčerpat oponenta.

4. JAQing off (Just Asking Questions) „Já se jen ptám” – kladení sugestivních otázek, které implikují odpověď.

  • „Není zvláštní, že…?”
  • „Proč se nikdo neptá na…?”
  • „Co když to bylo jinak?”

5. Concern trolling Předstíraný zájem a starost, jejímž skutečným cílem je vnesení pochybností.

  • „Já taky podporuji Ukrajinu, ALE…”

6. Moving the goalposts Když je argument vyvrácen, přesunutí diskuze jinam.

  • „Ok, to nebyla invaze, ale proč NATO provokuje?”

Rozpoznávací znaky trollů#

  • Profil: Nový účet, málo přátel, generické jméno nebo fotka
  • Aktivita: Komentuje pouze politická témata, v nepřirozených hodinách
  • Obsah: Opakující se formulace, kopírované texty
  • Reakce: Neodpovídá na konkrétní argumenty, jen opakuje teze
  • Emoce: Vyhrocené, černobílé, bez nuancí

7.5 Algoritmus jako zbraň#

Jak funguje algoritmické řazení#

Sociální sítě používají strojové učení k predikci, který obsah uživatele zaujme. Faktory zahrnují:

  • Historické chování: Na co jste klikali, co jste lajkovali
  • Podobní uživatelé: Co zaujalo lidi s podobným profilem
  • Engagement signály: Jak lidé na obsah reagují
  • Čerstvost: Novější obsah je upřednostňován
  • Typ obsahu: Video, obrázky, text mají různou váhu

Proč algoritmus pomáhá dezinformacím#

  • Emoce = engagement: Obsah vyvolávající hněv, strach nebo pobouření má vyšší engagement
  • Kontroverzní = klikatelné: Lidé klikají na kontroverzní titulky
  • Echo chambers: Algoritmus vám ukazuje více toho, s čím souhlasíte
  • Virální = viditelné: Co hodně lidí sdílí, je považováno za „kvalitní”

Algoritmus nerozlišuje pravdu od lži. Rozlišuje pouze to, co generuje engagement.

Praktický příklad#

Člověk jednou klikne na článek kritizující EU (třeba z legitimního zájmu o téma).

Algoritmus zaregistruje: „Tento uživatel se zajímá o kritiku EU.”

Další den mu nabídne: Více článků kritizujících EU.

Člověk klikne znovu (protože to je teď to, co vidí).

Algoritmus: „Aha, správně jsem odhadl!” → ještě více kritiky EU.

Za měsíc: Feed tohoto člověka je plný antieuropejského obsahu, i když jeho původní zájem byl neutrální.

Toto není konspirace – je to přirozený důsledek optimalizace na engagement.


7.6 Proč platformy nezasahují?#

Věčná otázka#

Když vidíme, jak sociální sítě přetékají dezinformacemi, koordinovanými kampaněmi a obsahem, který prokazatelně škodí společnosti, nabízí se otázka: Proč majitelé a provozovatelé platforem nezasáhnou? Vědí přece, co se děje. Mají data. Mají technologie na detekci. Proč to tolerují?

Odpověď je méně vzrušující, než by se čekalo – a o to znepokojivější.

Důvod #1: Engagement = peníze#

Základní byznys model sociálních sítí je prostý:

  1. Uživatelé tráví čas na platformě
  2. Platforma jim zobrazuje reklamy
  3. Inzerenti platí za zobrazení
  4. Čím víc času = čím víc reklam = čím víc peněz

A co drží lidi na platformě nejdéle? Emoce. Konkrétně:

  • Hněv
  • Strach
  • Pobouření
  • Konflikt

Dezinformace, konspirační teorie, polarizující obsah – to všechno generuje masivní engagement. Lidé komentují, hádají se, sdílejí, reagují, vracejí se. Algoritmus tento obsah odměňuje, protože plní KPI.

Kdyby platformy důsledně mazaly dezinformace, jejich metriky by šly dolů. A s nimi cena akcií. A s ní bonusy managementu.

Důvod #2: Moderace je nákladná a nepopulární#

Skutečná moderace obsahu v měřítku globální platformy je:

  • Drahá: Miliony příspěvků denně, potřeba lidských moderátorů i pro kontrolu AI
  • Pomalá: Než se obsah posoudí, už se rozšířil
  • Kontroverzní: Každé smazání někdo kritizuje jako „cenzuru”
  • Právně riskantní: V různých jurisdikcích platí různá pravidla

Z pohledu managementu: Proč investovat miliardy do něčeho, co snižuje engagement, štve část uživatelů a vytváří právní rizika?

Důvod #3: Falešná neutralita jako štít#

Platformy se dlouho schovávaly za narativ „jsme jen neutrální infrastruktura”:

  • „My obsah nevytváříme, jen ho hostujeme”
  • „Svoboda slova znamená nechat všechny mluvit”
  • „Kdo jsme my, abychom rozhodovali o pravdě?”

Tato pozice je intelektuálně nečestná (algoritmy aktivně obsah řadí a zesilují – to není neutralita), ale právně a PR-ově pohodlná.

Důvod #4: Kdo křičí hlasitěji#

Když platforma zasáhne proti dezinformacím:

  • Kritici moderace (často dobře organizovaní) spustí kampaň o „cenzuře”
  • Politici hrozí regulací, obviněními z předpojatosti
  • Média píší o „kontroverzním rozhodnutí”

Když platforma nezasáhne:

  • Kritici dezinformací si stěžují, ale méně koordinovaně
  • Oběti dezinformací jsou rozptýlené, neorganizované
  • Dlouhodobé škody jsou abstraktní a těžko připisatelné

Z pohledu krizového managementu: Nezasahovat je cesta menšího odporu.

Důvod #5: Geopolitická opatrnost#

Globální platformy operují na trzích s různými režimy:

  • Příliš tvrdý zásah proti proruským dezinformacím → problémy v Rusku a u jeho spojenců
  • Příliš tvrdý zásah proti pročínským narativům → problémy v Číně
  • Jakýkoliv zásah → někdo řekne „politická předpojatost”

„Neutralita” (tj. nezasahování) je pohodlnější než jasná pozice, která by mohla stát trh nebo vyvolat odvetu.

Důvod #6: Někteří s tím sympatizují#

Je třeba přiznat i nepříjemnou možnost: Část lidí ve vedení platforem s dezinformačními narativy sympatizuje.

Ne nutně proto, že by byli „agenti Kremlu”, ale protože:

  • Sdílejí libertariánský odpor k „elitám” a institucím
  • Věří, že „obě strany jsou stejné”
  • Radikalizovali se ve vlastních bublinách
  • Považují „mainstream” za nepřítele

Když lidé v řídících pozicích platformy osobně sdílejí konspirační teorie, těžko čekat, že platforma proti nim zasáhne.

Důvod #7: Zisk nade vše – známý vzorec#

Je to stejný vzorec jako u farmaceutického průmyslu, který jsme popisovali v kapitole 4:

Farmaceutický průmyslSociální sítě
Vyléčený pacient = ztracený zákazníkSpokojený, informovaný uživatel = méně času na platformě
Chronicky nemocný = stabilní příjemNaštvaný, závislý uživatel = stabilní engagement
Dlouhodobé škody jsou externalizoványSpolečenské škody jsou externalizovány
Regulace je lobbována k neúčinnostiRegulace je lobbována k neúčinnosti

Systém vytváří pobídky, které jsou v přímém rozporu se zájmem společnosti.

Co by muselo nastat, aby se to změnilo?#

  • Regulace s zuby: Skutečné sankce za nečinnost, ne jen pokuty „na provoz”
  • Změna byznys modelu: Předplatné místo reklam? Ale kdo by platil?
  • Odliv uživatelů: Ale kam? Všechny velké platformy mají stejné problémy
  • Osobní odpovědnost: Management nesoucí právní důsledky za škody

Dokud budou platformy vydělávat na chaosu víc než na pořádku, chaos bude pokračovat.


7.7 Platformy a jejich specifika#

Facebook/Meta#

  • Největší dosah v ČR v demografii 35+
  • Skupiny jsou klíčovým nástrojem šíření
  • Algoritmus silně upřednostňuje obsah z přátel a skupin
  • Komentářové sekce pod zpravodajstvím jsou bojištěm

Twitter/X#

  • Menší dosah, ale větší vliv na novináře a politiky
  • Trendy jsou snadno manipulovatelné
  • Quote tweety umožňují efektivní brigading
  • V posledních letech výrazně omezená moderace

YouTube#

  • Druhý největší vyhledávač na světě
  • „Doporučená videa” jsou algoritmická past
  • Komentáře jsou méně moderované
  • Dlouhá videa = velký prostor pro dezinformace

Telegram#

  • Minimální moderace
  • Anonymita
  • Skupiny s tisíci členy
  • Koordinační centrum pro kampaně

TikTok#

  • Nejmladší demografika
  • Extrémně silný algoritmus
  • Krátký formát neumožňuje nuance
  • Rychlá viralizace

7.8 Konkrétní mechanismus: Proč jsou proruské komentáře nahoře#

Krok za krokem#

1. Připravenost: Před publikováním důležitého článku jsou koordinátoři připraveni. Mají:

  • Předpřipravené komentáře pro různé scénáře
  • Sítě účtů připravených k akci
  • Lajkovací sítě v pohotovosti

2. Rychlá reakce: Do 5–10 minut od publikování jsou první komentáře venku.

3. Masové lajkování: Během další hodiny dostane komentář 50–200 lajků z koordinované sítě.

4. Algoritmická odměna: Platforma vyhodnotí komentář jako „populární” a zobrazí ho nahoře.

5. Organická amplifikace: Skuteční uživatelé, kteří s komentářem souhlasí, ho dále lajkují.

6. Spirála potvrzení: Další uživatelé vidí: „Nejlajkovanější komentář říká X” → vzniká dojem konsenzu.

Proč organičtí uživatelé „nestíhají”#

  • Koordinovaná síť je rychlejší než jednotlivec
  • První komentáře definují tón diskuze
  • Lidé jsou sociální – připojují se k „vítěznému” názoru
  • Algoritmické znevýhodnění pozdních komentářů
  • Kognitivní únava – většina lidí nechce vstupovat do „nepřátelské” diskuze

7.9 Co s tím můžeme dělat#

Na úrovni jednotlivce#

1. Uvědomění:

  • Pamatujte, že komentáře ≠ veřejné mínění
  • Počet lajků ≠ pravda
  • První komentáře ≠ nejkvalitnější

2. Hygiena konzumace:

  • Nekonzumujte zprávy jen z feedu
  • Aktivně vyhledávejte různé zdroje
  • Omezte čas na sociálních sítích
  • Všímejte si svých emocí – manipulace cílí na emoce

3. Kritické čtení:

  • Kdo to píše? Jaký má profil?
  • Proč právě teď? Proč právě zde?
  • Jaký je kontext? Co chybí?

4. Nešířte automaticky:

  • Než sdílíte, ověřte
  • Emocionálně nabitý obsah je často manipulativní
  • „Tohle MUSÍŠ vidět!” = červená vlajka

Na úrovni platforem#

  • Transparentnost algoritmů: Veřejnost by měla rozumět tomu, jak je obsah řazen
  • Detekce CIB: Lepší nástroje pro odhalování koordinované manipulace
  • Zpomalení virality: „Friction” před sdílením kontroverzního obsahu
  • Kontextové štítky: Označování sporných témat s odkazy na ověřené zdroje
  • Odpovědnost za design: Uvědomění, že engagement-maximalizace má společenské náklady

Na úrovni společnosti#

  • Mediální gramotnost ve školách: Od základní školy
  • Podpora kvalitní žurnalistiky: Investigace dezinformačních sítí
  • Regulace s rozumem: Bez cenzury, ale s odpovědností platforem
  • Veřejná diskuze: Pojmenování problému bez stigmatizace uživatelů

7.10 Závěr: Viděné není skutečné#

To, co vidíte v komentářích na sociálních sítích, není reprezentativní vzorek společnosti. Je to výsledek:

  • Algoritmické optimalizace na engagement
  • Koordinované manipulace zainteresovanými aktéry
  • Psychologických zkreslení (hlasitá menšina vs. tichá většina)
  • Designu platforem, který upřednostňuje konflikt

To neznamená, že všechny kritické komentáře jsou od trollů. Mnoho lidí má legitimní obavy a nespokojenost. Ale podíl, váha a viditelnost jednotlivých názorů je systematicky zkreslována.

Nejlepší obranou je toto vědět. Nebrat komentáře jako barometr společnosti. Udržet si kritický odstup. A pamatovat, že za klávesnicí může sedět člověk s upřímným názorem – ale také bot, troll nebo člověk placený za šíření určitého narativu.


Doslov k rozšířené verzi#

Tento dokument byl v lednu 2026 rozšířen o tři nové kapitoly věnující se konkrétním nástrojům a terčům hybridní války: spirituální komunitě, tématu EU/Green Dealu a mechanice sociálních sítí.

Cílem není stigmatizovat žádnou skupinu ani označit každou kritiku za dezinformaci. Cílem je poskytnout nástroje k rozpoznání manipulace – ať už přichází odkudkoliv.

V informační válce je nejcennější komoditou vaše pozornost a vaše důvěra. Věnujte ji obezřetně.

7: Sociální sítě – Bojiště algoritmů a trollů
https://dogma.observer/posts/kapitola_07_socialni_site/
Autor
Dogma Observer
Publikováno
2026-01-07
Licence
CC BY-NC-SA 4.0