Úvod: Válka v komentářích
Otevřete jakýkoliv článek o Ukrajině, EU nebo NATO na českém zpravodajském serveru. Podívejte se do komentářů. S vysokou pravděpodobností uvidíte:
- „A co Amerika v Iráku?”
- „NATO nás táhne do války!”
- „EU nám ničí ekonomiku!”
- „Zelenskyj je loutka Západu!”
Tyto komentáře mají stovky lajků a jsou nahoře. Vytvářejí dojem, že „většina lidí si to myslí”. Ale je to pravda?
Tato kapitola odhaluje mechaniku toho, jak se určité názory dostávají na vrchol – a proč to, co vidíte v komentářích, nemusí vůbec odpovídat skutečnému rozložení názorů ve společnosti.
7.1 Anatomie komentářové sekce
Jak funguje řazení komentářů
Většina platforem řadí komentáře podle kombinace faktorů:
- Počet reakcí: Lajky, srdíčka, „To se mi líbí”
- Počet odpovědí: Komentáře vyvolávající diskuzi jsou upřednostňovány
- Čas publikování: Novější vs. starší
- Relevance: Algoritmus odhaduje, co vás zaujme
- Engagement uživatele: Komentáře od lidí, s nimiž interagujete
Klíčový poznatek: Algoritmus nehodnotí pravdivost ani kvalitu. Hodnotí pouze engagement – kolik lidí reaguje.
Proč jsou „zlé” komentáře nahoře
Komentáře vyjadřující silné emoce (hněv, pobouření, strach) generují více reakcí než neutrální nebo vyvážené příspěvky. Proto:
- Provokativní komentář dostane 50 reakcí (ať už souhlasných nebo nesouhlasných)
- Vyvážený komentář dostane 5 reakcí
- Algoritmus zobrazí nahoře ten provokativní
A zde přichází ke slovu koordinovaná manipulace.
7.2 Boti: Automatizovaní vojáci
Co je bot
Bot je automatizovaný účet ovládaný softwarem, nikoliv člověkem. Může:
- Publikovat příspěvky podle předem daného plánu
- Lajkovat obsah obsahující určitá klíčová slova
- Sdílet příspěvky od vybraných účtů
- Sledovat a být sledován pro budování „důvěryhodnosti”
- Reagovat předpřipravenými odpověďmi
Typy botů
Jednoduché boty:
- Opakují stále stejné zprávy
- Mají generovaná jména (Jana12345678)
- Profilový obrázek chybí nebo je zjevně falešný
- Snadno rozpoznatelné
Sofistikované boty:
- Napodobují lidské chování (nepravidelné příspěvky, různorodý obsah)
- Mají propracované profily s historií
- Používají AI pro generování unikátních textů
- Téměř nerozpoznatelné od lidí
Cyborgy:
- Kombinace člověka a automatizace
- Člověk vytváří obsah, bot ho distribuuje
- Nebo bot vytváří obsah, člověk ho schvaluje
- Nejúčinnější a nejtěžší k detekci
Čísla
Odhady hovoří o tom, že na velkých platformách:
- 5–15 % všech účtů jsou boti
- V určitých diskuzích může být podíl botů přes 50 %
- Jeden člověk může ovládat stovky botů
7.3 Koordinované neautentické chování
Co to znamená
„Koordinované neautentické chování” (Coordinated Inauthentic Behavior, CIB) je termín, který používá Meta (Facebook) pro situace, kdy skupina účtů spolupracuje na manipulaci veřejné diskuze, přičemž tuto koordinaci skrývá.
Jde o něco jiného než:
- Běžné sdílení názorů (i koordinované, pokud je transparentní)
- Politické kampaně (pokud jsou označené)
- Aktivismus (pokud je autentický)
Jak vypadá v praxi
Příklad: Komentáře pod článkem o Ukrajině
- Článek je publikován v 9<00>00>
- V 9<05>05> se objeví první komentář: „A co Amerika v Iráku?”
- V 9<06>06>–9<15>15> dostane tento komentář 30 lajků od různých účtů
- Algoritmus ho vyhodnotí jako „populární” a zobrazí nahoře
- V 9<20>20> přichází skuteční čtenáři – vidí tento komentář jako první
- Někteří z nich (kteří by jinak nereagovali) s ním souhlasí
- Vzniká dojem konsenzu
Časové okno je klíčové: První hodina po publikování rozhoduje o tom, které komentáře budou dominovat. Proto jsou koordinované operace tak účinné.
Techniky amplifikace
Lajkovací brigády: Stovky účtů automaticky lajkují obsah s určitými klíčovými slovy nebo od určitých uživatelů.
Cross-platformní amplifikace: Ten samý obsah je šířen současně na Facebooku, Twitteru, YouTube, Telegramu – čímž vzniká dojem „všudypřítomnosti”.
Falešné trending: Masové používání hashtagů, aby se téma dostalo do trendů.
Quote tweeting/sdílení: Stovky účtů sdílejí původní příspěvek, čímž zvyšují jeho dosah.
7.4 Konkrétní taktiky
„Slavné” techniky
1. Whataboutism Odvádění pozornosti od tématu poukazováním na (skutečné či domnělé) prohřešky druhé strany.
- „Rusko zaútočilo na Ukrajinu” → „A co Amerika v Iráku/Jugoslávii/Libyi?”
2. Gish gallop Zahlcení diskuze množstvím argumentů (i nepravdivých), na které není možné všechny odpovědět.
3. Sealioning Předstíraná zdvořilá žádost o „důkazy” a „vysvětlení”, jejímž skutečným cílem je vyčerpat oponenta.
4. JAQing off (Just Asking Questions) „Já se jen ptám” – kladení sugestivních otázek, které implikují odpověď.
- „Není zvláštní, že…?”
- „Proč se nikdo neptá na…?”
- „Co když to bylo jinak?”
5. Concern trolling Předstíraný zájem a starost, jejímž skutečným cílem je vnesení pochybností.
- „Já taky podporuji Ukrajinu, ALE…”
6. Moving the goalposts Když je argument vyvrácen, přesunutí diskuze jinam.
- „Ok, to nebyla invaze, ale proč NATO provokuje?”
Rozpoznávací znaky trollů
- Profil: Nový účet, málo přátel, generické jméno nebo fotka
- Aktivita: Komentuje pouze politická témata, v nepřirozených hodinách
- Obsah: Opakující se formulace, kopírované texty
- Reakce: Neodpovídá na konkrétní argumenty, jen opakuje teze
- Emoce: Vyhrocené, černobílé, bez nuancí
7.5 Algoritmus jako zbraň
Jak funguje algoritmické řazení
Sociální sítě používají strojové učení k predikci, který obsah uživatele zaujme. Faktory zahrnují:
- Historické chování: Na co jste klikali, co jste lajkovali
- Podobní uživatelé: Co zaujalo lidi s podobným profilem
- Engagement signály: Jak lidé na obsah reagují
- Čerstvost: Novější obsah je upřednostňován
- Typ obsahu: Video, obrázky, text mají různou váhu
Proč algoritmus pomáhá dezinformacím
- Emoce = engagement: Obsah vyvolávající hněv, strach nebo pobouření má vyšší engagement
- Kontroverzní = klikatelné: Lidé klikají na kontroverzní titulky
- Echo chambers: Algoritmus vám ukazuje více toho, s čím souhlasíte
- Virální = viditelné: Co hodně lidí sdílí, je považováno za „kvalitní”
Algoritmus nerozlišuje pravdu od lži. Rozlišuje pouze to, co generuje engagement.
Praktický příklad
Člověk jednou klikne na článek kritizující EU (třeba z legitimního zájmu o téma).
Algoritmus zaregistruje: „Tento uživatel se zajímá o kritiku EU.”
Další den mu nabídne: Více článků kritizujících EU.
Člověk klikne znovu (protože to je teď to, co vidí).
Algoritmus: „Aha, správně jsem odhadl!” → ještě více kritiky EU.
Za měsíc: Feed tohoto člověka je plný antieuropejského obsahu, i když jeho původní zájem byl neutrální.
Toto není konspirace – je to přirozený důsledek optimalizace na engagement.
7.6 Proč platformy nezasahují?
Věčná otázka
Když vidíme, jak sociální sítě přetékají dezinformacemi, koordinovanými kampaněmi a obsahem, který prokazatelně škodí společnosti, nabízí se otázka: Proč majitelé a provozovatelé platforem nezasáhnou? Vědí přece, co se děje. Mají data. Mají technologie na detekci. Proč to tolerují?
Odpověď je méně vzrušující, než by se čekalo – a o to znepokojivější.
Důvod #1: Engagement = peníze
Základní byznys model sociálních sítí je prostý:
- Uživatelé tráví čas na platformě
- Platforma jim zobrazuje reklamy
- Inzerenti platí za zobrazení
- Čím víc času = čím víc reklam = čím víc peněz
A co drží lidi na platformě nejdéle? Emoce. Konkrétně:
- Hněv
- Strach
- Pobouření
- Konflikt
Dezinformace, konspirační teorie, polarizující obsah – to všechno generuje masivní engagement. Lidé komentují, hádají se, sdílejí, reagují, vracejí se. Algoritmus tento obsah odměňuje, protože plní KPI.
Kdyby platformy důsledně mazaly dezinformace, jejich metriky by šly dolů. A s nimi cena akcií. A s ní bonusy managementu.
Důvod #2: Moderace je nákladná a nepopulární
Skutečná moderace obsahu v měřítku globální platformy je:
- Drahá: Miliony příspěvků denně, potřeba lidských moderátorů i pro kontrolu AI
- Pomalá: Než se obsah posoudí, už se rozšířil
- Kontroverzní: Každé smazání někdo kritizuje jako „cenzuru”
- Právně riskantní: V různých jurisdikcích platí různá pravidla
Z pohledu managementu: Proč investovat miliardy do něčeho, co snižuje engagement, štve část uživatelů a vytváří právní rizika?
Důvod #3: Falešná neutralita jako štít
Platformy se dlouho schovávaly za narativ „jsme jen neutrální infrastruktura”:
- „My obsah nevytváříme, jen ho hostujeme”
- „Svoboda slova znamená nechat všechny mluvit”
- „Kdo jsme my, abychom rozhodovali o pravdě?”
Tato pozice je intelektuálně nečestná (algoritmy aktivně obsah řadí a zesilují – to není neutralita), ale právně a PR-ově pohodlná.
Důvod #4: Kdo křičí hlasitěji
Když platforma zasáhne proti dezinformacím:
- Kritici moderace (často dobře organizovaní) spustí kampaň o „cenzuře”
- Politici hrozí regulací, obviněními z předpojatosti
- Média píší o „kontroverzním rozhodnutí”
Když platforma nezasáhne:
- Kritici dezinformací si stěžují, ale méně koordinovaně
- Oběti dezinformací jsou rozptýlené, neorganizované
- Dlouhodobé škody jsou abstraktní a těžko připisatelné
Z pohledu krizového managementu: Nezasahovat je cesta menšího odporu.
Důvod #5: Geopolitická opatrnost
Globální platformy operují na trzích s různými režimy:
- Příliš tvrdý zásah proti proruským dezinformacím → problémy v Rusku a u jeho spojenců
- Příliš tvrdý zásah proti pročínským narativům → problémy v Číně
- Jakýkoliv zásah → někdo řekne „politická předpojatost”
„Neutralita” (tj. nezasahování) je pohodlnější než jasná pozice, která by mohla stát trh nebo vyvolat odvetu.
Důvod #6: Někteří s tím sympatizují
Je třeba přiznat i nepříjemnou možnost: Část lidí ve vedení platforem s dezinformačními narativy sympatizuje.
Ne nutně proto, že by byli „agenti Kremlu”, ale protože:
- Sdílejí libertariánský odpor k „elitám” a institucím
- Věří, že „obě strany jsou stejné”
- Radikalizovali se ve vlastních bublinách
- Považují „mainstream” za nepřítele
Když lidé v řídících pozicích platformy osobně sdílejí konspirační teorie, těžko čekat, že platforma proti nim zasáhne.
Důvod #7: Zisk nade vše – známý vzorec
Je to stejný vzorec jako u farmaceutického průmyslu, který jsme popisovali v kapitole 4:
| Farmaceutický průmysl | Sociální sítě |
|---|---|
| Vyléčený pacient = ztracený zákazník | Spokojený, informovaný uživatel = méně času na platformě |
| Chronicky nemocný = stabilní příjem | Naštvaný, závislý uživatel = stabilní engagement |
| Dlouhodobé škody jsou externalizovány | Společenské škody jsou externalizovány |
| Regulace je lobbována k neúčinnosti | Regulace je lobbována k neúčinnosti |
Systém vytváří pobídky, které jsou v přímém rozporu se zájmem společnosti.
Co by muselo nastat, aby se to změnilo?
- Regulace s zuby: Skutečné sankce za nečinnost, ne jen pokuty „na provoz”
- Změna byznys modelu: Předplatné místo reklam? Ale kdo by platil?
- Odliv uživatelů: Ale kam? Všechny velké platformy mají stejné problémy
- Osobní odpovědnost: Management nesoucí právní důsledky za škody
Dokud budou platformy vydělávat na chaosu víc než na pořádku, chaos bude pokračovat.
7.7 Platformy a jejich specifika
Facebook/Meta
- Největší dosah v ČR v demografii 35+
- Skupiny jsou klíčovým nástrojem šíření
- Algoritmus silně upřednostňuje obsah z přátel a skupin
- Komentářové sekce pod zpravodajstvím jsou bojištěm
Twitter/X
- Menší dosah, ale větší vliv na novináře a politiky
- Trendy jsou snadno manipulovatelné
- Quote tweety umožňují efektivní brigading
- V posledních letech výrazně omezená moderace
YouTube
- Druhý největší vyhledávač na světě
- „Doporučená videa” jsou algoritmická past
- Komentáře jsou méně moderované
- Dlouhá videa = velký prostor pro dezinformace
Telegram
- Minimální moderace
- Anonymita
- Skupiny s tisíci členy
- Koordinační centrum pro kampaně
TikTok
- Nejmladší demografika
- Extrémně silný algoritmus
- Krátký formát neumožňuje nuance
- Rychlá viralizace
7.8 Konkrétní mechanismus: Proč jsou proruské komentáře nahoře
Krok za krokem
1. Připravenost: Před publikováním důležitého článku jsou koordinátoři připraveni. Mají:
- Předpřipravené komentáře pro různé scénáře
- Sítě účtů připravených k akci
- Lajkovací sítě v pohotovosti
2. Rychlá reakce: Do 5–10 minut od publikování jsou první komentáře venku.
3. Masové lajkování: Během další hodiny dostane komentář 50–200 lajků z koordinované sítě.
4. Algoritmická odměna: Platforma vyhodnotí komentář jako „populární” a zobrazí ho nahoře.
5. Organická amplifikace: Skuteční uživatelé, kteří s komentářem souhlasí, ho dále lajkují.
6. Spirála potvrzení: Další uživatelé vidí: „Nejlajkovanější komentář říká X” → vzniká dojem konsenzu.
Proč organičtí uživatelé „nestíhají”
- Koordinovaná síť je rychlejší než jednotlivec
- První komentáře definují tón diskuze
- Lidé jsou sociální – připojují se k „vítěznému” názoru
- Algoritmické znevýhodnění pozdních komentářů
- Kognitivní únava – většina lidí nechce vstupovat do „nepřátelské” diskuze
7.9 Co s tím můžeme dělat
Na úrovni jednotlivce
1. Uvědomění:
- Pamatujte, že komentáře ≠ veřejné mínění
- Počet lajků ≠ pravda
- První komentáře ≠ nejkvalitnější
2. Hygiena konzumace:
- Nekonzumujte zprávy jen z feedu
- Aktivně vyhledávejte různé zdroje
- Omezte čas na sociálních sítích
- Všímejte si svých emocí – manipulace cílí na emoce
3. Kritické čtení:
- Kdo to píše? Jaký má profil?
- Proč právě teď? Proč právě zde?
- Jaký je kontext? Co chybí?
4. Nešířte automaticky:
- Než sdílíte, ověřte
- Emocionálně nabitý obsah je často manipulativní
- „Tohle MUSÍŠ vidět!” = červená vlajka
Na úrovni platforem
- Transparentnost algoritmů: Veřejnost by měla rozumět tomu, jak je obsah řazen
- Detekce CIB: Lepší nástroje pro odhalování koordinované manipulace
- Zpomalení virality: „Friction” před sdílením kontroverzního obsahu
- Kontextové štítky: Označování sporných témat s odkazy na ověřené zdroje
- Odpovědnost za design: Uvědomění, že engagement-maximalizace má společenské náklady
Na úrovni společnosti
- Mediální gramotnost ve školách: Od základní školy
- Podpora kvalitní žurnalistiky: Investigace dezinformačních sítí
- Regulace s rozumem: Bez cenzury, ale s odpovědností platforem
- Veřejná diskuze: Pojmenování problému bez stigmatizace uživatelů
7.10 Závěr: Viděné není skutečné
To, co vidíte v komentářích na sociálních sítích, není reprezentativní vzorek společnosti. Je to výsledek:
- Algoritmické optimalizace na engagement
- Koordinované manipulace zainteresovanými aktéry
- Psychologických zkreslení (hlasitá menšina vs. tichá většina)
- Designu platforem, který upřednostňuje konflikt
To neznamená, že všechny kritické komentáře jsou od trollů. Mnoho lidí má legitimní obavy a nespokojenost. Ale podíl, váha a viditelnost jednotlivých názorů je systematicky zkreslována.
Nejlepší obranou je toto vědět. Nebrat komentáře jako barometr společnosti. Udržet si kritický odstup. A pamatovat, že za klávesnicí může sedět člověk s upřímným názorem – ale také bot, troll nebo člověk placený za šíření určitého narativu.
Doslov k rozšířené verzi
Tento dokument byl v lednu 2026 rozšířen o tři nové kapitoly věnující se konkrétním nástrojům a terčům hybridní války: spirituální komunitě, tématu EU/Green Dealu a mechanice sociálních sítí.
Cílem není stigmatizovat žádnou skupinu ani označit každou kritiku za dezinformaci. Cílem je poskytnout nástroje k rozpoznání manipulace – ať už přichází odkudkoliv.
V informační válce je nejcennější komoditou vaše pozornost a vaše důvěra. Věnujte ji obezřetně.