Алгоритмичният преврат или как се печелят избори в ерата на TikTok и Telegram

В стария свят изборите бяха празник на демокрацията - открит сблъсък на идеи, личности и политически програми. Политиците се бореха да спечелят ума ви чрез дебати и аргументи, а избирателят трябваше да бъде убеден.
През 2026 г. този свят вече е история. Старият политически свят живееше в дебатите и телевизионните студиа; новият се разгръща на екрана на телефона ви.
Днес изборите все по-малко приличат на „кампания“ и все повече на технологична система за влияние. Никой не се опитва просто да ви убеди, че е прав. Вместо това се моделира средата около вас така, че сами да стигнете до „правилното“ решение. Властта вече не се печели с идеи, а чрез алгоритми в TikTok и Telegram, които управляват вниманието, емоциите и рефлексите ви.
Има една дума, която звучи почти конспиративно, но описва точно новата реалност: инженерство. Това е структурна трансформация на самата демократична среда. Изборите се печелят чрез „архитектури на възприятието“ – система, която подрежда какво виждаш, в какъв ред го виждаш, кое ти изглежда масово и какво ти се внушава да мразиш. Когато вниманието се управлява алгоритмично, границата между убеждаване и управление на поведението започва да изчезва.
В този свят „кампанията“ е остаряла дума. Новата реалност е социално инженерство – приложна наука за управление на масовото поведение. Тя не се интересува от вашите логически доводи; тя се интересува да ви накара да реагирате. Политическото влияние вече не се постига чрез аргументи, а чрез контрол върху информационната среда, в която тези аргументи постепенно се разтварят.
От Чомски към алгоритъма: новият филтър на истината
Чомски и Херман описаха „Производство на съгласие“ като система от филтри, които решават кое е важно и кое остава извън кадър. Ключовата им идея не е, че медиите постоянно лъжат. Ключовата идея е, че реалността се редактира: някои теми стават „централни“, други изчезват; някои говорители са легитимни, други са „маргинални“; някои рамки са естествени, други са немислими. Днес тези филтри не са само в редакциите. Те са в сървърите. TikTok и Facebook не са „просто платформи“. Те са редактори на вниманието. И имат предимство, което старата медия никога не е имала: не редактират една обща публичност. Те редактират милиони персонализирани публичности. Всеки получава различна версия на света, а най-опасното е, че всеки е убеден, че вижда „как стоят нещата“. Това е модерният филтър: не “цензура”, а персонализация. Не “един наратив”, а множество микро-наративи, всеки опакован според аудиторията. Ако Чомски описва как медиите филтрират реалността и произвеждат съгласие, съветската теория за рефлексивно управление описва следващата стъпка – как самата информационна среда може активно да бъде моделирана така, че обществото да стигне до предварително желани решения.
Рефлексивното управление: да избираш „сам“, но по чужда логика
Тук влиза една концепция, разработена от математика и психолог Владимир Лефевр – бащата на теорията за рефлексивното управление. За разлика от хуманистичния анализ на Чомски, Лефевр разглежда манипулацията като математически модел и стратегическо оръжие. Самата теория дефинира рефлексивното управление като процес, при който един субект предава на друг субект база за вземане на решение, която го принуждава доброволно да вземе предварително планирано от манипулатора решение. Това не е екзотична теория, а реалната логика на съвременните кампании. В най-чист вид то означава: не ти казват „мисли това“. Вместо това, манипулаторът моделира информационната среда така, че ти сам да стигнеш до „правилното“ решение, напълно убеден, че то е твое собствено.
Това моделиране се постига чрез прецизно управление на четири основни параметъра:
· Какво е видимо: Кое съдържание ти изскача постоянно и кое остава напълно скрито за теб.
· Какво изглежда масово: Броячите на гледания и лайкове се превръщат в новия дигитален плебисцит, който внушава кое е „вълна“ и кое няма никаква подкрепа.
· Какво е морално допустимо: Кое се приема за „нормално мнение“ и кое моментално те превръща в „предател“ или „враг“ в очите на другите.
· Какво е наказуемо: Когато критичният въпрос, нюансът и здравословното съмнение започнат да носят висока социална цена.
Когато тези четири елемента са синхронизирани, избирателят не се чувства манипулиран. Той се чувства „пробуден“.
Това е върховата форма на контрол.
Управлението, което се преживява като лична свобода.
Както пише Мишел Фуко, най-ефективната власт е тази, която кара хората сами да действат в рамките, които тя е задала.
Механиката: как от емоция се произвежда вот
Подобни последователности на влияние не са случайни. Те напомнят на описаните още в съветската теория за рефлексивно управление стратегии, при които информационната среда се моделира така, че обществото само да стигне до предварително желани решения.
Първо се пуска емоционална котва. Символ, сцена, обект, унижение, страх, отврат, гордост. Вдигнат юмрук, пилотска униформа, прасе-касичка. Емоцията е по-бърза от факта. А в предизборен период скоростта е власт.
После идва епистемичната мъгла. Това е най-циничната, но най-ефективна фаза: не убеждаваш обществото в една версия. Засипваш го с много версии. С противоречия. С “изтичания”. С „всички лъжат“. Резултатът не е критично мислене. При случаи като „Петрохан“ истината става вторична; важен е ефектът мъгла: недоверие и търсене на нов авторитет. Появява се вакуум, а вакуумът търси нов авторитет. Човек не спира да вярва. Той сменя на кого вярва.
Следва ехо-стаята. Алгоритъмът ти показва само това, което те държи вътре. Различното мнение изчезва или се наказва. А всяко правилно се награждава с харесвания и неспирен допаминов поток. Така окъпани в допамин се ражда илюзията: “всички мислят така”. А когато вярваш, че си мнозинство, се държиш като мнозинство.
И накрая идва информационната каскада – моментът, когато малък сигнал става масова реалност. Икономистите Сушил Бикчандани, Дейвид Хиршлайфър и Айво Уелч описват този процес като ситуация, в която хората започват да следват избора на другите, игнорирайки собствената си информация. Платформите превръщат видимостта в легитимност. Легитимността в действие. Действието в още видимост. Това е самоподдържащ се цикъл.
Финалният „заключващ“ механизъм е дехуманизацията. Когато опонентът не е “грешащ гражданин” или „различно мнение“, а “прасе”, “враг”, “предател” „мафия“, диалогът приключва. Остава племенна лоялност. Това не е просто груб език. Това е техника: убиваш емпатията, за да направиш крайността приемлива.
TikTok и Telegram: ускорение и стабилизация
В тази екосистема TikTok и Telegram са идеален тандем.
TikTok е ускорителят. Там съдържанието не се разпространява през приятели, а през алгоритъм. Това е критично: можеш да стигнеш до хора, които никога не са те търсили, и да го направиш с формат, който минимизира анализа и максимизира емоцията. Кратки клипове, монтажи, музика, символи. В TikTok печели не аргументът, а сцената и емоцията.
Telegram е стабилизаторът. Там се изгражда “общността”. Там се повтаря наративът. Там се унифицира езикът. Там се създава усещането за вътрешна истина, недостъпна за “мейнстрийма”. Това е фабрика за ехо-стаи: затворено пространство, в което рамката се запечатва.
Когато TikTok прави “вълната”, Telegram я превръща в “убеждение”. А убеждението се връща обратно като нови клипове и нови каскади. Когато това се превърти многократно вече нямаме личност, а програмиран избирател.
Румънският прецедент – Първият софтуерен преврат
Румъния даде най-ясния сигнал какво се случва, когато дигиталните каскади изпреварят институциите. След първия тур на президентските избори на 24 ноември 2024 г. Конституционният съд анулира резултата. След анулирането темата се превърна в европейска: появиха се разследвания за поведението на TikTok около този вот и за това как платформата може да усилва политически съдържания, включително тестове на алгоритъма и анализи на динамиката на препоръките. Разследвания на румънските служби и независими центрове разкриха мрежа координирани TikTok акаунти. Те не просто споделяха съдържание, а манипулираха алгоритъма на платформата, за да създадат илюзия за „месианска вълна“. Кампанията на Джорджеску не съдържаше цифри, а „емоционални котви“ – православие, бягане в гората и суверенистка реторика. Анулирането на вота от Конституционния съд на Румъния беше официален сигнал, че демократичният процес може да бъде „хакнат“ отвън чрез технологична интервенция.
Българската проекция – От „Петрохан“ до „Дигиталните аватари“
В България изборите на 19 април 2026 г. идват след години на политическа нестабилност и умора. Това е ключово, защото умората и недоверието са най-доброто гориво за инженерство. В такава среда обществото все по-лесно приема рамката „всички лъжат“ и тогава истината не се търси; търси се лагер. В България моделът на социалното инженерство е адаптиран с хирургическа прецизност към местните страхове и носталгия.
В дигиталната политика общите кукловоди са механизми, които работят еднакво добре за всеки, който ги разбира и използва. Алгоритмите награждават емоцията и конфликта, затова най-крайното и най-зареденото излиза най-отгоре. Каскадите превръщат видимостта в легитимност: щом е навсякъде, значи е важно; щом е важно, значи е вярно. Този механизъм е насочен директно към Gen Z, чийто личен праг за политическо действие се срива под натиска на „праговия ефект“ – илюзията, че „всички вече са там“, проектирана в екраните им. Тук бот-ферми осигуряват началния импулс на каскадата, а инфлуенсърите действат като „преводачи“, превръщайки инженерната опорна точка в органично изглеждащо мнение.
Ехо-стаите правят различното мнение не просто невидимо, а социално рисковано: несъгласието вече не е позиция, а „предателство“. Мъглата от версии и полуистини убива доверието в институциите и оставя общество без компас. Символите заместват аргументите, защото са по-бързи от проверката. А дехуманизацията заключва системата: когато опонентът е превърнат в карикатура, разговорът приключва и остава морална война.
Финал: Избори или рефлекс?
В класическата демокрация изборът е резултат от спор на идеи. В дигиталната демокрация изборът все по-често е резултат от архитектура на възприятията. Това е големият тест на 2026 г.: ще останем ли общество, което избира програми, или ще се превърнем в марионетки на социалното инженерство? Ще позволим ли ехо-стаите да заместят публичния разговор и ще оставим ли алгоритмичната популярност да се маскира като истина? Демокрацията може да остане същата по форма бюлетини, секции, резултати. Но да бъде изпразнена от съдържание. Не чрез груба цензура, а чрез фино управление на видимостта. Не чрез политическа „кампания“, а чрез студено инженерство.
Провалът на правилата
Има ли правила? Да, но те са изправени пред два фундаментални проблема. Първо, те са писани за „стария свят“ (ТВ, преса, официални реклами), а новият свят работи през мемета, анонимни канали, затворени групи и мрежи, които изглеждат органични дори когато са координирани. Второ, дори добрите правила са безнадеждно бавни. Една информационна каскада може да преобърне нагласите за часове, докато регулацията и санкцията пристигат след месеци, когато изборният резултат вече е факт. Контролът днес е разпределен между тези, които притежават кода, и тези, които знаят как да го експлоатират. В предизборна България това означава, че властта над възприятията се разпилява между платформи, политически маркетинг, мрежи от профили и алгоритмични настройки комбинация, която рядко има „лице“, но винаги има ефект.
Регулация на инженерството: между правото и политическата воля
Възможно ли е държавата да дефинира границата между идеи и социално инженерство? Отговори вече се появяват, и те идват най-вече от европейския модел на прозрачност и отчетност. В Европейския съюз тази защита постепенно се оформя чрез Digital Services Act (DSA), AI Act и новите правила за политическа реклама онлайн. Тяхната логика не е да ограничават политическите идеи, а да направят прозрачни механизмите, чрез които те се усилват, насочват или манипулират.
Няколко ключови нива на контрол се очертават като критични:
· Прозрачност на политическото съдържание. Както в аналоговия свят всяка реклама носи етикет „политическа реклама“, така и в дигиталната среда се въвеждат изисквания за ясно обозначаване на спонсорирано политическо съдържание и публични архиви на онлайн кампаниите.
· Координирано неавтентично поведение (CIB). Платформите са задължени да откриват и ограничават мрежи от профили, които симулират масова подкрепа и създават изкуствени информационни каскади.
· AI-съдържание и дийпфейкове. AI Act въвежда изисквания за обозначаване на синтетично генерирано съдържание и проследимост чрез метаданни или цифрови водни знаци.
· Микротаргетиране и чувствителни данни. Европейската рамка ограничава използването на чувствителни категории данни за политическо таргетиране както: религия, етнос, политически убеждения,.
· Алгоритмична прозрачност и ехо-стаи. DSA изисква големите платформи да предоставят достъп до данни за независими изследователи, за да може да се анализира как алгоритмите усилват наративи и създават информационни балони.
· Friction – „социално забавяне“. Някои платформи вече използват технически ограничения върху масовото препращане на съдържание, за да намалят скоростта на вирусни информационни каскади.
Но дори когато тези инструменти съществуват, остава по-дълбокият проблем: политическата воля. В свят, в който алгоритмите се превръщат в стратегическо оръжие за управление на вниманието, изкушението за политическите играчи е не да ги регулират, а да ги използват. А когато политиката печели от „епистемичната мъгла“, държавата рядко бърза да включи прожекторите.
Кирил Кирилов, "Фактор.бг"





























.jpg)




