Dlaczego dzisiejszy internet nie jest neutralny — kto steruje tym, co widzisz i dlaczego

Wyobraź sobie poranek. Siadasz z kubkiem kawy i sięgasz po smartfon. Na ekranie powiadomienie za powiadomieniem – Twoja uwaga od pierwszych minut dnia jest rozchwytywana. Facebook podrzuca Ci „wspomnienie sprzed roku” i sponsorowany post dziwnie pasujący do ostatnio oglądanych butów. Instagram kusi czerwoną kropką przy ikonie – może ktoś polubił Twoje zdjęcie? Otwierasz na chwilę TikToka, a „chwila” zamienia się w 15 minut scrollowania niekończącego się strumienia filmików. Brzmi znajomo? Witaj w internecie roku 2026, gdzie algorytmy decydują, co zobaczysz – i nie robią tego bezinteresownie.

Teza: Dzisiejszy internet nie jest neutralny. To, jakie treści do nas docierają, nie jest przypadkowe ani chronologiczne. Przeciwnie – kształtują to mechanizmy biznesowe i techniczne: reklamy, ranking popularności, algorytmy rekomendacji i bezwzględna walka o naszą uwagę. W efekcie dostajemy nie to, co obiektywnie najważniejsze czy najbardziej wartościowe, lecz to, co najlepiej „klika się” i sprzedaje. Poniżej wyjaśniamy to krok po kroku – prostym językiem i na życiowych przykładach – by każdy zrozumiał, kto steruje tym, co widzisz w sieci i dlaczego tak się dzieje.

TL;DR

  • Internet nie jest neutralny ani „równy dla wszystkich” – to, co widzisz online, jest filtrowane przez pośredników, algorytmy i ekonomiczne bodźce. Platformy celowo promują treści, które zatrzymają Cię na dłużej lub skłonią do kliknięcia reklamy, zamiast pokazywać wszystko po kolei.
  • Twoje własne działania karmią algorytmy personalizacji. Każdy lajk, każde wyszukanie i każda sekunda spędzona na danej treści to sygnał. System „uczy się” Twoich preferencji i podsuwa Ci więcej tego samego, tworząc bańkę informacyjną – widzisz głównie poglądy i materiały podobne do tych, z którymi już się zgadzasz. To wygodne, ale ogranicza perspektywę.
  • Algorytmy oparte na zaangażowaniu faworyzują skrajne emocje. Treści kontrowersyjne, szokujące lub oburzające przyciągają więcej uwagi, więc są wypychane na szczyt feedów. Badania pokazują, że posty wywołujące gniew i podziały rozchodzą się znacznie szerzej w social media niż neutralne. W efekcie dostajemy więcej sensacji niż spokojnej analizy.
  • Reklamy w sieci wiedzą o Tobie zaskakująco dużo. Platformy śledzą historię Twoich kliknięć, zakupów i upodobań, by sprzedawać reklamodawcom precyzyjnie dobrany target. Dlatego czasem masz wrażenie, że reklama „czyta Ci w myślach”. Każdy użytkownik widzi inną wersję internetu dopasowaną do swojego profilu – co oznacza, że dwie osoby mogą otrzymać zupełnie różne informacje na ten sam temat.
  • Powiadomienia, streaky, infinite scroll – to nie przypadek, że ciężko się oderwać. Aplikacje są celowo zaprojektowane tak, by wywoływać mikro-dawki dopaminy. Nieskończone przewijanie (infinite scroll) zapewnia zmienne, nieprzewidywalne „nagrody” – co silnie uzależnia. Powiadomienia z kolei działają jak kolorowe bodźce, którym trudno się oprzeć, niczym cyfrowa „strzykawka z dopaminą” aplikowana prosto do mózgu.
  • System zachęt działa jak samo-nakręcająca się spirala. Platformy zarabiają na reklamach, więc zależy im na dłuższym czasie spędzanym przez Ciebie online i na większej liczbie kliknięć. To z kolei motywuje je do ulepszania algorytmów tak, by były jeszcze skuteczniejsze w przykuwaniu uwagi – nawet kosztem jakości treści czy zdrowia psychicznego użytkowników.
  • To nie teoria spiskowa – to efekt modelu biznesowego. Mechanizmy te nie wynikają z jakiejś „moralnej złośliwości” algorytmów, tylko z prostych bodźców ekonomicznych. Gdy system nagradza zaangażowanie i czas, dostajemy internet pełen bodźców walczących o naszą uwagę. Same firmy przyznają wewnętrznie, że ich funkcje bywały „niechcący uzależniające” czy wywołujące „masową psychozę” u młodych użytkowników.
  • Możemy to naprawić, ale musimy zmienić reguły gry. Potrzebujemy nowych zasad – od regulacji wymuszających przejrzystość algorytmów i ograniczenie skrajnego targetowania reklam, po projektowanie aplikacji w sposób etyczny (np. bez manipulacyjnych trików) i tworzenie alternatywnych, publicznych platform cyfrowych nastawionych na dobro użytkownika. Innymi słowy, internet może być inny – jeśli tego świadomie zażądamy i wspólnie zbudujemy.

Czym jest „nieneutralność” internetu?

Mówiąc o neutralności internetu, wiele osób myśli o technicznej zasadzie, wedle której dostawcy internetu powinni jednakowo traktować cały ruch (tzw. net neutrality – żadnych „szybszych pasów” dla wybranych usług). Jednak „nieneutralność”, o której mówimy w tym artykule, dotyczy czegoś innego: sposobu, w jaki platformy i serwisy internetowe selekcjonują i prezentują treści swoim użytkownikom. Innymi słowy – infrastruktura sieci (kable, protokoły) może być neutralna, ale doświadczenie użytkownika już nie jest.

W praktyce większość tego, co widzisz online, jest wynikiem działania algorytmów i decyzji biznesowych, a nie czystej chronologii czy przypadku. Twój newsfeed na Facebooku nie wyświetla po prostu najnowszych postów znajomych – wybiera je i sortuje według skomplikowanych kryteriów (np. szacowanego zainteresowania). Google nie pokazuje każdej strony na dany temat – rankinguje je według swojej oceny ich relewancji (oraz umieszcza u góry reklamy). Twitter, YouTube, TikTok – wszystkie te platformy działają na podobnej zasadzie: mają wbudowane mechanizmy promocji jednych treści nad innymi.

Można powiedzieć, że w dzisiejszym internecie treść jest filtrowana przez pośredników i algorytmy zanim trafi na Twój ekran. Serwisy społecznościowe pełnią rolę kuratorów – decydują, co „przypiąć” na topie Twojego strumienia informacji, a co ukryć gdzieś dalej. Co kieruje tym wyborem? Tu dochodzimy do sedna: nie obiektywna wartość informacji, lecz interesy i mechanizmy rządzące całym ekosystemem internetu.

Sieć vs. platforma vs. ekosystem

Dla jasności zróbmy rozróżnienie: „Internet jako sieć” to neutralna infrastruktura – zbiór połączonych urządzeń i protokołów przesyłających dane. Sama w sobie sieć nie „wie”, czy przenosi stream filmu, czy e-mail – traktuje pakiety podobnie. Jednak „internet jako platforma” (czy raczej zestaw platform) to już świat Facebooków, Google’ów, Twitterów itd., które same układają informacje dla użytkownika. One mają swoje algorytmy i cele, które mogą być wszystkiemu, tylko nie neutralne. Wreszcie jest „internet jako ekosystem” – całościowy obraz obejmujący i infrastrukturę, i platformy, i użytkowników, i reklamodawców, i twórców treści. W tym ekosystemie każdy gdzieś „zarabia” albo zyskuje – i te właśnie powiązania ekonomiczne w dużej mierze tłumaczą, czemu internet wygląda dziś tak, a nie inaczej.

Kiedy więc mówimy, że internet nie jest neutralny, mamy na myśli: informacyjny ekosystem sieci jest stronniczy i ukierunkowany. Samo ułożenie treści, jakie dostajesz – od wyników wyszukiwania, przez posty w social mediach, po propozycje filmów – jest efektem określonych mechanizmów, które faworyzują pewne rzeczy kosztem innych. Przyjrzyjmy się zatem, kto na tym korzysta, a kto traci, czyli „kto z czego żyje” w cyfrowym świecie.

Mapa systemu: kto z czego żyje

Aby zrozumieć mechanizmy sterujące tym, co widzimy w internecie, warto poznać główne grupy graczy i ich motywacje finansowe. Internetowy ekosystem można uprościć do kilku kluczowych aktorów:

  • Użytkownicy (my wszyscy) – Co zyskujemy: dostęp do ogromu darmowych treści i usług (wyszukiwarka, media społecznościowe, mapy, newsy). Czym płacimy: naszą uwagą (czasem spędzonym przy ekranie) oraz danymi (informacjami o nas, które gromadzą platformy). Mówi się, że jeśli produkt jest darmowy, to Ty jesteś produktem – i jest w tym prawda, bo nasza uwaga i dane to waluta w tym systemie.
  • Platformy internetowe (Big Tech) – to m.in. serwisy społecznościowe (Facebook/Instagram, TikTok, Twitter), wyszukiwarki (Google) czy platformy video (YouTube). Z czego żyją: głównie z reklam. Ich model biznesowy to przyciągnąć i utrzymać uwagę użytkownika jak najdłużej, aby wyświetlić mu jak najwięcej reklam lub skłonić do innych działań monetyzowanych. Niektóre platformy mają też inne źródła (np. prowizje od transakcji, sprzedaż usług premium), ale reklama to wciąż lwia część przychodów dla większości. Co to oznacza: Ich nadrzędnym celem jest zwiększanie zaangażowania użytkowników – stąd inwestycje w algorytmy rekomendacyjne, powiadomienia, funkcje „wciągające” (video autoplay, scroll bez końca itp.). Platformy nagradzane są finansowo za to, że nie jesteśmy neutralnymi odbiorcami, tylko zaangażowanymi konsumentami treści.
  • Reklamodawcy i marketerzy – firmy, które chcą dotrzeć do potencjalnych klientów przez internet. Z czego żyją: ze sprzedaży swoich produktów/usług, napędzanej reklamą. Co robią: płacą platformom za możliwość targetowania użytkowników (np. wyświetlenia reklamy osobom o określonym profilu demograficznym czy zainteresowaniach). Im bardziej platforma zna użytkownika i im dłużej potrafi go utrzymać online, tym cenniejsza jest dla reklamodawcy. Dlatego reklamodawcy kochają personalizację – choć czasem prowadzi to do kontrowersji (np. mikrotargetowanie polityczne: różnym osobom pokazywane są inne obietnice wyborcze, co rozmywa wspólny dyskurs).
  • Twórcy treści (media, influencerzy, wydawcy) – ci, którzy dostarczają materiał, który jest potem dystrybuowany przez platformy. Z czego żyją: różnie – media często z reklam (więc gonią za klikami, co premiuje clickbait), influencerzy z współpracy z markami i monetyzacji oglądalności (więc gonią za zasięgami, co premiuje to, co „viralne”), niezależni twórcy np. na YouTube z udziału w przychodach reklamowych i patronatów. Co to oznacza: Twórcy są silnie uzależnieni od algorytmów platform – bo to one decydują, czy np. filmik się „rozejdzie” czy zginie w czeluściach. Rezultat? Często dostosowują treść pod to, co algorytm nagradza (np. nagłówki „szokujące”, miniaturki na YouTube z przesadzonymi minami, teksty SEO pod Google’a). Neutralność schodzi na dalszy plan – liczy się przebicie się przez szum informacyjny.
  • Aktorzy złej wiary (spamerzy, boty, propagandyści) – niestety, i tacy gracze są w ekosystemie. Co robią: próbują manipulować systemem dla własnych celów: finansowych (farmy klików, fałszywe recenzje, scamy) lub politycznych (sianie propagandy, dezinformacji). Wykorzystują brak neutralności – np. wiedząc, że algorytm nagradza kontrowersje, celowo rozsiewają szokujące fake newsy, by zyskać zasięg. Używają botów (fałszywych kont), by sztucznie pompować popularność treści. Platformy oficjalnie z tym walczą, ale dopóki podstawowa dynamika „nagroda za zaangażowanie” się nie zmieni, dopóty system sam będzie skłonny takie rzeczy wynosić na wierzch. Co więcej, fałszywa aktywność botów potrafi podbijać statystyki platform – im więcej „ruchu”, tym lepiej to wygląda dla inwestorów, choć realnie dyskurs staje się toksyczny.

Powyższa mapa pokazuje, że każdy uczestnik ciągnie w swoją stronę, a spoiwem jest waluta uwagi i danych. Neutralność informacji nie ma tu naturalnego strażnika. Skoro nikt za nią nie płaci (użytkownik płaci uwagą, reklamodawca za dostęp do uwagi, platforma zarabia na uwadze – wszystkim opłaca się raczej intensyfikacja bodźców niż neutralna selekcja), to system „jedzie” w kierunku maksymalizacji zaangażowania. To trochę tak, jakby telewizja przez cały dzień puszczała same krzykliwe reality show i reklamy, bo to się najlepiej ogląda – a programy edukacyjne wpychała o drugiej w nocy.

W kolejnej sekcji opisujemy 7 kluczowych mechanizmów, które sprawiają, że internet pcha treści w określonym kierunku zamiast być neutralnym medium. Przy każdym mechanizmie wyjaśniamy, co to jestco system dzięki temu zyskujejakie są skutkikto na tym wygrywa lub przegrywa oraz dajemy konkretny przykład z życia (poparty źródłem).

7 kluczowych mechanizmów nieneutralności internetu

Mechanizm 1: Ranking zaangażowania (algorytmy feedów)

Co to jest: Większość platform społecznościowych i serwisów treściowych używa algorytmicznego rankingu, który układa posty czy filmy według przewidywanego zaangażowania, a nie chronologii. Ten mechanizm można streścić tak: pokaż użytkownikowi to, na co najpewniej zareaguje (polubi, skomentuje, obejrzy do końca), a ukryj to, co uzna za nudne. Przykłady: Facebook zrezygnował lata temu z feedu chronologicznego na rzecz algorytmu „Top Stories”; Instagram sortuje zdjęcia wedle własnej logiki (nie zobaczysz wszystkich postów znajomych); YouTube decyduje, które filmy znajdą się w Twoich rekomendacjach „dla Ciebie”.

Co system nagradza: Nagradzane są treści, które wywołują silne reakcje – emocje, komentarze, długie oglądanie. Algorytm często interpretuje dłuższe zatrzymanie się przy poście lub częste udostępnienia jako sygnał jakości. W praktyce jednak to, co nas najbardziej „angażuje”, to nie zawsze rzeczy wartościowe – często kontrowersja, skandal, śmiech lub oburzenieSystem premiuje więc treści skrajne, sensacyjne albo idealnie dopasowane do naszych upodobań, bo takie najłatwiej przykują uwagę.

Co z tego wynika: To, co popularne, staje się jeszcze bardziej popularne. Jeśli jakiś post zaczyna szybko zbierać reakcje, algorytm podbije go kolejnym ludziom – efekt kuli śnieżnej. Ponadto treści umiarkowane, złożone czy wymagające skupienia przegrywają z memami i clickbaitem, bo przegrywają bitwę o impulsową uwagę. Z czasem feed może zamienić się w emocjonalny rollercoaster: posty zaprojektowane, by Cię wciągnąć, nawet kosztem rzetelności. Co gorsza, wewnętrzne analizy ujawniły, że faworyzowanie kontrowersyjnych treści prowadzi do zalewu dezinformacji i spamu – Facebook odkrył, że posty wywołujące masę reakcji „wrr” (wściekłość) są nieproporcjonalnie często powiązane z fake newsami i toksycznymi treściami.

Kto zyskuje, kto traci: Zyskuje platforma (ludzie dłużej siedzą, scrollują, więc można im pokazać więcej reklam) i twórcy, którzy opanowali sztukę grania pod algorytm (np. tabloidy internetowe, skandalizujący influencerzy – szybciej zdobędą zasięgi). Tracą zaś twórcy oferujący spokojniejsze, dłuższe formy – ich treści są spychane. Tracą też użytkownicy w sensie jakości informacji: otrzymują zniekształcony obraz świata, w którym same skrajności wyskakują na pierwszy plan. Wreszcie traci społeczeństwo, bo taki system sprzyja polaryzacji: najbardziej rozchodzą się treści nastawione na konflikt „my kontra oni”. Naukowcy pokazali, że posty atakujące przeciwników politycznych (język „out-group”) były udostępniane dwa razy częściej niż te pozytywne – a algorytmy uczą się to wykorzystywać, przez co sieją podziały.

Przykład: Facebook w 2017 zmodyfikował algorytm News Feedu tak, by brał pod uwagę reakcje emoji – i to mocniej niż zwykłe lajki. Szczególnie reakcja „wrr” (gniew) została potraktowana jak sygnał 5 razy silniejszy niż kciuk w górę. Czemu? Bo wewnętrzne założenie było takie, że jeśli coś budzi silne emocje, to angażuje użytkownika bardziej – a o to chodzi w biznesie Facebooka. Efekt: Posty wywołujące złość dostały sztucznego „kopa” w zasięgach. Już dwa lata później analitycy FB bili na alarm, że przez to w świat idzie masa szkodliwych treści – okazało się, że posty z największą liczbą „wrr” reakcji często zawierały dezinformacje i hejt. Innymi słowy, przez lata algorytm świadomie wzmacniał to, co najbardziej wkurza ludzi, bo to ich zatrzymywało na platformie. Frances Haugen, sygnalistka z Facebooka, podsumowała to potem słowami: „Złość i nienawiść to najłatwiejszy sposób, by rosnąć na Facebooku”.

Mechanizm 2: Personalizacja i bańki filtrujące

Co to jest: Personalizacja to dostosowanie treści do Twojego profilu i zachowań. Gdziekolwiek się poruszasz w sieci – od Facebooka, przez Google, po Netflix – system stara się „zgadnąć”, co Ty konkretnie lubisz, na podstawie danych zebranych o Tobie. To oznacza, że różni użytkownicy widzą różny internet. Ktoś, kto interesuje się sportem, dostanie na stronie głównej newsów więcej działu sportowego; ktoś inny, kto klika głównie politykę – zobaczy politykę. Wyszukiwarka Google również w pewnym stopniu bierze pod uwagę historię wyszukiwań i lokalizację, by wyniki pasowały do użytkownika (choć warto dodać: badania sugerują, że personalizacja wyników wyszukiwania ma mniejszy wpływ niż się powszechnie uważa – większość ludzi w danym kraju jednak widzi bardzo podobne wyniki newsów). Bardziej widoczne jest to w social media: algorytm Facebooka czy TikToka tworzy Twój unikalny „tunel treści” w oparciu o to, co oglądasz.

Co system nagradza: System nagradza lojalność i dłuższy czas. Chodzi o to, byś czuł się, jakby platforma Cię „rozumiała” – bo wtedy spędzasz na niej więcej czasu. Jeśli więc ciągle oglądasz na YouTube filmy o wędkarstwie, rekomendacje zarzucą Ci więcej wędkarstwa. Jeśli klikasz w clickbaitowe ciekawostki, dostaniesz ich całą masę. Nagradza się konformizm algorytmiczny: im bardziej dajesz się poznać z jednej strony (np. politycznie konserwatywnej), tym więcej tych treści dostaniesz, bo wtedy jest większa szansa, że Ci się spodobają (i zaangażują Cię).

Co z tego wynika: Tworzą się bańki informacyjne (filter bubbles). Użytkownicy nie są aktywnie konfrontowani z odmiennymi treściami czy poglądami, bo algorytm woli „podsuwać to, co lubisz”. Z jednej strony to wygodne – widzisz głównie to, co Cię interesuje, internet jest spersonalizowany jak nigdy wcześniej. Z drugiej strony, łatwo popaść w informacyjną izolację. Możesz nie zdawać sobie sprawy, że np. inni widzą zupełnie inne wiadomości na Facebooku niż Ty. Ekstremalnym skutkiem są zjawiska typu echo chamber – grupy, w których wszyscy utwierdzają się nawzajem w jednym światopoglądzie, bo algorytm nie pokaże im nic spoza. Badacze przyznają, że definicja „bańki” jest płynna i efekty nie zawsze są tak dramatyczne, jak się uważa (są badania zarówno potwierdzające silną polaryzację przez algorytmy, jak i takie, które ją podważają). Niemniej jednak, pewne zróżnicowanie doświadczeń użytkowników jest faktem. W skali społeczeństwa rodzi to niebezpieczeństwo – trudniej o wspólny grunt, skoro każdy ma swój „feed” wiadomości.

Kto zyskuje, kto traci: Zyskuje platforma (znów – personalizacja zwiększa szansę, że użytkownik będzie zadowolony i zostanie dłużej). Zyskuje reklamodawca (może precyzyjnie trafiać do grup docelowych: np. miłośnikom sportu wyświetli reklamę butów do biegania, a młodym mamom – akcesoriów dla dzieci). Traci natomiast dyskusja publiczna i sam użytkownik w roli obywatela. Gdy każdy ma inną wersję informacji, trudniej prowadzić rzeczową debatę – mamy różne fakty bazowe. Jeden użytkownik może być bombardowany teoriami spiskowymi, podczas gdy inny w ogóle ich nie zobaczy – przez co trudno nawet zrozumieć, skąd biorą się poglądy tej drugiej osoby. Tracą też ci, którzy przypadkiem wejdą w niebezpieczną odnogę – bo algorytm może ich poprowadzić coraz dalej. Np. ktoś zacznie oglądać filmiki o zdrowym odżywianiu na TikToku, a po tygodniu algorytm zaczyna mu serwować ekstremalne treści pro-ana (propagujące anoreksję) – bo tak działa spiralna personalizacja.

Przykład: Dziennikarze Wall Street Journal przeprowadzili eksperyment, w którym założyli na TikToku konta podszywające się pod 13-letnie dziewczynki zainteresowane odchudzaniem. Okazało się, że aplikacja w ciągu zaledwie kilku tygodni zasypała je tysiącami filmów promujących skrajne diety, radykalne „porady” typu jak jeść <300 kcal dziennie, tzw. „corpse bride diet” prezentującą wychudzone sylwetki, itp.. Algorytm zorientował się, że „lubią” one treści o odchudzaniu, więc przedawkował im ten temat, nie zważając na jego szkodliwość. To pokazuje, że personalizacja potrafi zamknąć młodą osobę w bardzo niezdrowej bańce, wzmacniającej zaburzenia (w tym wypadku odżywiania). Podobne historie dotyczyły treści depresyjnych – TikTok czy Instagram potrafiły polecać młodym w złym stanie psychicznym masę materiałów o samookaleczeniu czy samobójstwie, pogarszając ich stan. Ten mechanizm bańki nie jest celowym okrucieństwem platform – to raczej efekt uboczny pogołosu, jaki tworzy algorytm dostarczający „więcej tego samego, co Cię wciąga”. Niestety, w skrajnych przypadkach może to prowadzić do tragedii.

Mechanizm 3: Targetowanie reklam i sponsorowane treści

Co to jest: Fundament współczesnego internetu to reklama cyfrowa, która nie jest neutralna, lecz hiper-dopasowana do użytkownika. Platformy zbierają ogromne ilości danych o naszych zachowaniach (tzw. surveillance advertising – reklama oparta na śledzeniu) i udostępniają reklamodawcom możliwość precyzyjnego targetowania. Przykład: Facebook umożliwia pokazanie reklamy np. kobietom w wieku 25-35 z Poznania, które interesują się jogą i niedawno oglądały strony o macierzyństwie. To powoduje, że dwóch użytkowników może widzieć zupełnie inne reklamy, a czasem nawet inne przekazy polityczne, mimo że mieszkają obok siebie. Do tego dochodzi zjawisko sponsorowanych postów – treści, które wyglądają jak normalne wpisy od ludzi czy mediów, ale tak naprawdę ktoś zapłacił, by wepchnąć je do Twojego feedu.

Co system nagradza: Oczywiście pieniądze z reklam. Im bardziej targetowana i skuteczna reklama, tym więcej reklamodawca jest skłonny zapłacić. System więc nagradza gromadzenie danych (bo im więcej o Tobie wiedzą, tym lepiej dobiorą reklamę) oraz wysokie CTR (click-through rate – odsetek osób, które klikną reklamę). Platformy starają się, by reklamy nie były dla Ciebie zbyt irytujące – przeciwnie, mają sprawiać wrażenie, że „to coś, co właśnie chciałeś kupić”. Stąd algorytmy często miksują reklamy z normalnymi treściami tak, by się wtapiały (np. na Instagramie sponsorowane posty wyglądają prawie jak zwykłe). Nagradzane jest również „pay to play” – czyli jeśli zapłacisz za promocję posta, dostanie on priorytet w dotarciu do odbiorców.

Co z tego wynika: Mamy internet dopasowany pod komercyjny profil każdego użytkownika. Z jednej strony fajnie – nie widzisz reklam, które kompletnie Cię nie obchodzą. Z drugiej strony, następuje komercjalizacja treści, czasem bardzo podstępna. Przykładowo, influencer może Ci zarekomendować produkt, nie oznaczając jasno, że to współpraca płatna – i algorytm to popromuje, bo takie treści często angażują (znany ktoś poleca super gadżet). Albo wyszukiwarka: topowe wyniki to często linki sponsorowane, które wiele osób myli z prawdziwymi wynikami. W Wielkiej Brytanii stwierdzono, że niemal połowa dorosłych nie potrafi odróżnić wyników płatnych od organicznych na stronie Google, co oznacza, że sponsorowane treści mogą skutecznie przekierowywać użytkownika tam, gdzie chce reklamodawca, a nie tam, gdzie obiektywnie najlepsza informacja.

Kto zyskuje, kto traci: Zyskuje platforma (przychody z reklam), zyskuje reklamodawca (efektywnie dociera do klientów). W pewnym sensie zyskuje użytkownik jako konsument – bo widzi oferty dopasowane do swoich potrzeb (np. reklamy rzeczy, które faktycznie planuje kupić). Traci jednak użytkownik jako obywatel i odbiorca informacji, bo interesy komercyjne mogą przesłaniać inne treści. Na przykład, jeśli wpiszesz w Google pytanie o objawy choroby, najpierw możesz zobaczyć artykuły sponsorowane przez kliniki lub suplementy diety, zanim dokopiesz się do bezstronnej porady medycznej. Tracą również firmy, które nie płacą – bo ich treści mogą być zepchnięte przez te, które zapłaciły (np. sklep internetowy bez budżetu reklamowego spada pod listę wyników opłaconych). Ponadto targetowanie może być nadużywane – słyszeliśmy o przypadkach, gdy reklamy były kierowane np. w sposób dyskryminujący (oferty pracy tylko do mężczyzn w pewnym wieku itp.). Platformy deklarują, że z tym walczą, ale mechanizm kusi. W polityce – targetowanie reklam wyborczych oznacza, że polityk może różnym grupom obiecać sprzeczne rzeczy i nikt tego łatwo nie wychwyci, bo nie ma jednego przejrzystego przekazu dla wszystkich.

Przykład: Afera Cambridge Analytica pokazała siłę mikrotargetowania politycznego. W 2016 roku firma ta wykorzystała dane milionów użytkowników Facebooka, by profilować ich osobowości polityczne i serwować każdemu ściśle dopasowane reklamy wyborcze. Jeden wyborca widział przekaz „kandydat X obniży podatki”, a jego sąsiad – „kandydat X przywróci miejsca pracy w przemyśle”, podczas gdy kolejna osoba – „kandydat X ochroni Twoje prawo do broni”. Każdy dostawał to, co najbardziej do niego przemawiało, a jednocześnie nie widział obietnic składanych innym grupom. Taka fragmentacja przekazu sprawia, że praktycznie nie ma wspólnej debaty – bo ludzie nawet nie wiedzą, co obiecuje się innym. Facebook do dziś pozwala politykom na mikrotargetowanie (choć wprowadził pewne biblioteki reklam dla transparentności). Mechanizm „kto zapłaci, ten dociera” w internecie ma się dobrze – a neutralność informacyjna przegrywa z portfelem.

Mechanizm 4: Design uzależniający (dark patterns)

Co to jest: Nie tylko co widzimy, ale jak korzystamy z serwisów, też nie jest neutralne. Dark patterns (ciemne wzorce projektowe) to określenie na sztuczki w interfejsach stron i aplikacji, które mają manipulować zachowaniem użytkownika. W kontekście naszego tematu chodzi głównie o techniki zaprojektowane, by maksymalnie wydłużyć Twój czas online i utrudnić Ci odpuszczenie treści. Klasyczne przykłady: infinite scroll (rolowanie bez końca, np. Facebook, TikTok – nigdy nie natrafisz na koniec strony, ciągle ładują się nowe posty), autoplay (następny film na YouTube czy Netflixie włącza się sam, zanim zdążysz powiedzieć „dość”), powiadomienia push (aplikacja regularnie Cię „przywołuje” komunikatami: „Zobacz co nowego!”„Masz 5 nowych polubień”). Dark patterns to też utrudnianie wykonania niechcianych przez platformę akcji – np. schowanie opcji „usuń konto” w gąszczu ustawień, czy mylące komunikaty przy odmawianiu zgód („TAK, chcę otrzymywać mniej informacji” vs „ANULUJ”).

Co system nagradza: Każda z tych sztuczek jest nagradzana wzrostem metryk zaangażowania i retencji. Infinite scroll zapewnia, że użytkownik nie ma naturalnego punktu zatrzymania (kiedyś przewinąłeś do końca strony i mogłeś powiedzieć dość – teraz scrollujesz jak zombie, aż się zorientujesz, że minęła godzina). Autoodtwarzanie kolejnych filmów działa jak telewizyjny maraton – zanim się obejrzysz, jesteś 5 odcinków dalej. Powiadomienia budzą w nas FOMO (fear of missing out) – trudno zignorować małą czerwoną ikonkę z liczebnikiem, bo jesteśmy ciekawi, co się kryje w środku. Platformy nagradzane są finansowo za każdą dodatkową minutę Twojego czasu, więc design całego interfejsu optymalizują pod jedno: żebyś został. Projektanci produktów otwarcie mówią o „haczykach” (hooks), „pętlach nawyku” – to wbudowane mechanizmy psychologiczne.

Co z tego wynika: Użytkownicy spędzają w sieci więcej czasu niż planowali, często kosztem innych aktywności (snu, nauki, spotkań na żywo). Pojawia się zjawisko uzależnienia od social mediów – na poziomie neurochemicznym porównywane do uzależnienia od hazardu czy używek, bo mechanizm nagród (dopamina) jest bardzo podobny. Szczególnie podatni są na to nastolatkowie, których samokontrola dopiero się kształtuje. Projekt „streaków” na Snapchacie (licznik dni z rzędu, przez które wymieniasz ze znajomym wiadomości) sprawił np., że nastolatki czuły presję codziennego korzystania z aplikacji – bo przerwanie serii było dla nich jak utrata osiągnięcia. Dark patterns potrafią wywoływać niepokój i poczucie przymusu („muszę sprawdzić, bo przegapię”), a także manipulować użytkownikiem, by klikał w to, czego normalnie by nie wybrał (np. przypadkowe subskrypcje, trudności z rezygnacją).

Kto zyskuje, kto traci: Zyskuje platforma – wiadomo, im dłużej Cię utrzyma i więcej czynności wykonasz (klikniesz, obejrzysz, kupisz), tym lepsze statystyki i wpływy. Zyskują też niektórzy twórcy treści, bo np. autoodtwarzanie kolejnych filmów zwiększa im liczbę wyświetleń. Tracisz Ty – cenny czas, który zjadają Ci te aplikacje, często ponad to, co zamierzałeś. Traci Twoja autonomia wyboru – bo interfejs tak Cię zapętla, że przestajesz świadomie decydować „czy jeszcze oglądam, czy może już kończę”. Długofalowo może tracić Twoje zdrowie psychiczne (studia wiążą nadmierne użycie social mediów z lękiem i obniżonym nastrojem). Co istotne, nawet ludzie, którzy projektowali te funkcje, dziś biją się w pierś. Aza Raskin, wynalazca infinite scroll, przyznał, że stworzył coś hiperuzależniającego – porównał nieskończone przewijanie do automatu hazardowego, który wypłaca co jakiś czas nieprzewidywalną nagrodę, przez co użytkownik wpada w trans. Sam powiedział wprost: „I’m sorry for ruining your life” – przepraszając za to, jak infinite scroll marnuje ludziom czas.

Przykład: Snapchat i jego Streaks – niby prosta funkcja, licznik pokazujący, ile dni pod rząd dwie osoby wymieniały snapy. Ale okazało się, że nastolatki tak bardzo nie chcą przerwać „paska”, iż logują się codziennie choćby po to tylko, by wysłać cokolwiek. We wnętrzu Snapchata pracownicy od lat alarmowali, że Streaks powodują „masową psychozę” i „niezdrowe uzależnienie” wśród młodych. Sam CEO Snapchata Evan Spiegel przyznał w 2018, że ta funkcja „wywołuje niepokój” u części użytkowników, a jeden z menedżerów nazwał ją „niechcący uzależniającą”. Mimo to funkcji nie usunięto – była zbyt popularna i napędzała aktywność. W 2023 r. z wewnętrznych badań focusowych wyszło, że rodzice nastolatków skarżą się, iż ich dzieci czują „niekontrolowany przymus podtrzymywania streaków”, co przypomina objawy uzależnienia od ekranu. Tego typu dark pattern pozostaje w aplikacji, bo spełnia biznesowy cel, choć kosztem zdrowia psychicznego użytkowników.

Mechanizm 5: Efekt społeczny i „viralizacja” treści

Co to jest: Internetowe platformy nie tylko pokazują treści – pokazują też reakcje innych na te treści. Liczniki lajków, serduszka, udostępnienia, komentarze, listy „trending”. To wszystko wpływa na nasze postrzeganie, co jest ważne czy popularne. Mechanizm polega na tym, że im coś ma więcej interakcji, tym bardziej jest promowane i tym więcej kolejnych ludzi to zobaczy – jest to odmiana mechanizmu zaangażowania, ale w kontekście społecznym. Viralizacja to gwałtowne rozprzestrzenianie się treści jak wirus – platformy lubią chwalić się, że „coś stało się viralem”, bo oznacza to duży ruch. Ale stoi za tym algorytmiczny doping: np. Twitter (X) przez lata miał listy „Top Trends”, które były widoczne dla wszystkich i wywoływały efekt kuli śnieżnej (jeśli jakaś fraza jest w trendach, ludzie klikają z ciekawości -> generują jeszcze większy ruch na ten temat). Facebook grupuje najbardziej popularne tematy dnia w sekcji „Trending” (miał taką funkcję; choć ją wycofał po krytyce, że promuje plotki). YouTube na stronie głównej pokazuje „Na Czasie” – filmy, które zyskują wyjątkowo szybko na oglądalności.

Co system nagradza: Bycie wiralem. Im szybciej coś zdobywa popularność, tym bardziej system to podbija (bo prawdopodobnie to „hit”, więc warto wszystkim pokazać, aby zwiększyć engagement). Nagradzane są też interakcje społeczne – jeśli wiele osób komentuje, taguje się nawzajem, tworzy się buzz. Dla platformy to sygnał: to się ludziom podoba, dajmy to więcej ludziom. W efekcie nagradzane są często treści kontrowersyjne lub zaskakujące – bo takie szybciej zbiorą falę reakcji. Platformy w pewnym sensie rozkręcają emocje zbiorowe. Społeczny dowód słuszności (tysiąc osób udostępniło – muszę zobaczyć, o co chodzi) plus algorytm, który to wykorzystuje, sprawiają, że nie neutralność decyduje, a pęd tłumu.

Co z tego wynika: Dochodzi do znacznego wzmocnienia głosów skrajnych albo po prostu tych, które krzyczą najgłośniej. Kultura „viralu” promuje treści często płytkie (śmieszne filmiki, memy) albo oburzające (skandal polityczny, klip z agresją), bo one dostają natychmiastowy zastrzyk udostępnień. Subtelne, niszowe tematy rzadko stają się viralem – więc w przestrzeni publicznej dominuje to, co krzykliwe. Ten mechanizm też bywa podatny na manipulacje: np. armie fake kont i botów potrafią sztucznie wywindować dany temat do trendów (udając organiczny tłum). Zdarzały się przypadki, że przez boty w trendach na Twitterze pojawiały się hashtagi z dezinformacją – ludzie to widzieli, klikali, i maszyna się nakręcała. Efekt społeczny może także wpływać na samych użytkowników – widząc, że Twoi znajomi masowo coś lajkują, możesz ulec presji większości. Neutralność indywidualnej oceny spada, rośnie owczy pęd.

Kto zyskuje, kto traci: Zyskują ci, którym uda się „wskoczyć na falę” – np. twórca mema, który stał się viralem (zdobywa nagle tysiące obserwujących), media podchwytujące modny temat (bo generuje im kliki). Zyskuje platforma, bo viral to darmowa reklama – ludzie spoza platformy często przychodzą, by zobaczyć głośny materiał (np. link ze skandalicznym nagraniem rozchodzi się i przyciąga nowych użytkowników na YouTube czy TikToka). Tracą ci, którzy próbują przebić się z ważnymi, ale niespektakularnymi treściami (np. eksperci prostujący fakenewsy – ich głos rzadko bywa viralem, przegrywa z emocjonalnym oryginałem fake newsa). Tracą też często sami bohaterowie viralów – bywały przypadki, że prywatna osoba stała się obiektem gniewu milionów przez 10-sekundowe wyrwane z kontekstu nagranie. Internetowy tłum może kogoś „zlinczować” lub ośmieszyć w skali globalnej, bo algorytmy podbiły akurat tę historię. Neutralne wyjaśnienia czy sprostowania docierają potem do ułamka tej widowni.

Przykład: W 2021 roku na Twitterze (X) wybuchła afera – użytkownicy masowo udostępniali wideo, na którym pewna kobieta rzekomo wyrzucała kotka przez balkon. Hashtag #CatAbuse błyskawicznie trafił do globalnych trendów. Tysiące ludzi ruszyło z hejtem i pogróżkami wobec domniemanej sprawczyni. Twitterowy algorytm promował wątek, bo lawina reakcji rosła z minuty na minutę – w efekcie w ciągu doby chyba cały świat online to widział. Później okazało się, że film był stary i pochodził z innego kraju, sprawczyni dawno została ukarana, a kobieta wskazana przez internet nie miała z tym nic wspólnego – pomylono osoby. Niestety, sprostowanie nie stało się już virale – rozeszło się tylko po niszowych portalach z fact-checkingiem. Ten przykład (inspirowany kilkoma prawdziwymi incydentami) pokazuje, jak mechanizm viralizacji przez trending i „co udostępniają znajomi” może doprowadzić do internetowego samosądu i dezinformacji, podczas gdy neutralne fakty giną w cieniuPlatforma nie zatrzymała tego efektu, bo systemowo nie jest nastawiona na neutralne filtrowanie prawdy, tylko na maksymalne emocje i ruch.

Mechanizm 6: Moderacja treści i regulaminy platform

Co to jest: Każda platforma ma własny regulamin i wytyczne, co wolno publikować, a co jest zabronione. W praktyce moderacja (zarówno automatyczna, jak i przez ludzi) decyduje o usuwaniu pewnych treści, oznaczaniu ich, albo odwrotnie – tolerowaniu ich na platformie. To również wpływa na to, co widzisz (a czego nie zobaczysz). Internet nie jest neutralny choćby dlatego, że np. pewnych słów nie wyszukasz (cenzura w niektórych krajach), albo Facebook zdejmie Ci post, bo uzna go za naruszenie standardów społeczności. Mechanizm tu jest bardziej polityczno-społeczny niż czysto algorytmiczny: firmy próbują balansować między wolnością słowa a bezpieczeństwem/komfortem użytkowników i wymogami prawnymi. Jednak ich decyzje bywają stronnicze czy kontrowersyjne – co wpływa na obieg informacji.

Co system nagradza: Z perspektywy biznesu, platforma chce uniknąć skandali i utrzymać jak najwięcej użytkowników. Więc nagradzane jest raczej utrzymanie pozorów porządku niż faktycznie neutralne egzekwowanie zasad. Często serwisy wolą nie zadzierać z rządami autorytarnymi (żeby nie zostać zablokowanym w danym kraju – patrz Twitter i rosyjskie farmy trolli wcześniej tolerowane), czy przymykać oko na popularne profile, które łamią regulamin (bo generują ruch). Wyszło na jaw np., że Facebook miał wewnętrzną listę „XCheck” – celebrytów i polityków, których postów nie usuwał od razu, nawet jeśli łamały zasady, bo sprawdzano je osobno, by uniknąć wpadek wizerunkowych. To oczywiście oznaczało, że znanym wolno więcej. Tak więc system moderacji nagradza tych, którzy są dla platformy wartościowi (duże profile = dużo ruchu) albo których usunięcie byłoby dla firmy ryzykowne. Dla zwykłych użytkowników zasady bywały egzekwowane surowiej.

Co z tego wynika: Brak neutralności w egzekwowaniu reguł. Pewne treści są nadreprezentowane, inne znikają. Np. w 2020 platformy zaczęły agresywnie usuwać dezinformacje covidowe – dzięki temu mniej ich widzieliśmy. To działanie nieneutralne (celowe tłumienie jednego rodzaju treści ze względów społecznych). Czasem potrzebne, ale pokazuje, że widoczność informacji jest kwestią decyzji firm. Bywa i odwrotnie: zaniedbanie moderacji. Przykład – język birmański na Facebooku był latami niemoderowany praktycznie, co doprowadziło do zalewu mowy nienawiści przeciw Rohingya. Facebookowe algorytmy w Birmie promowały nienawistne posty (zgodnie z mechanizmem zaangażowania), a brak reakcji moderatorów sprawił, że te treści pozostały – co według raportów organizacji międzynarodowych przyczyniło się do realnej przemocy. Czyli: niezmoderowanie też jest wyborem nie-neutralnym. Skutek – w krajach słabiej „pilnowanych” przez Big Tech (bo mniej anglojęzyczne, mniej komercyjnie ważne) kwitną np. ekstremizmy, które gdzie indziej byłyby zbanowane. To globalna nierówność informacyjna.

Kto zyskuje, kto traci: Zyskuje platforma, jeśli uda się jej uniknąć negatywnej prasy lub kar (np. za nieusuwanie terrorystycznych treści – stąd jednak pewne mechanizmy blokady istnieją). Tracą użytkownicy, bo brak przejrzystości i konsekwencji w moderacji oznacza arbitralność: np. Twój post może zostać błędnie skasowany przez algorytm (i nikt Ci nie wytłumaczy dlaczego), podczas gdy ktoś inny bezkarnie szerzy nienawiść, bo akurat nie został wyłapany albo jest chronioną VIP-osobą. Tracą społeczeństwa, gdzie moderation debt (dług moderacyjny) doprowadził do realnych szkód – jak wspomniana Mjanma, gdzie algorytmy „nakręcały spiralę nienawiści” wobec Rohingya, co wykorzystała hunta wojskowa do ludobójczej kampanii. Raport Amnesty International stwierdził, że „niebezpieczne algorytmy Facebooka i pogoń za zyskiem znacząco przyczyniły się do zbrodni wobec Rohingya”. To mocny przykład na to, że brak neutralności (tutaj: faworyzowanie treści siejących nienawiść i brak reakcji na nie) przekłada się na realny świat.

Przykład: W listopadzie 2020 Facebook w USA wyłącza na pewien czas rekomendacje grup politycznych – bo boi się, że po wyborach prezydenckich algorytm będzie ludzi spychał w radykalne grupy szerzące teorie spiskowe o fałszerstwach wyborczych. To otwarcie nie-neutralny ruch: platforma stwierdza, że jej własny mechanizm rekomendacji grup jest niebezpieczny, więc go czasowo stopuje. Przyznała tym samym, że algorytm zamiast neutralnie polecać grupy według zainteresowań, promował coraz bardziej ekstremalne społeczności, bo te generowały największe „echo” zaangażowania. Decyzja była słuszna (by uspokoić nastroje), ale pokazuje, że platforma może „przekręcić gałkę” algorytmu, gdy się przestraszy skutków – a to dowód jak daleko od neutralności jest normalne działanie systemu.

(Uwaga: Mechanizmów braku neutralności jest oczywiście więcej – np. architektura monopoli: gdy jedna firma (jak Google) promuje swoje własne usługi kosztem konkurencji. Przykład: w wynikach wyszukiwania Google często na górze wyświetla własne Mapy, własne recenzje, własny moduł zakupów – według śledztwa The Markup zajmowały one kiedyś aż 41% powierzchni pierwszej strony wyników mobilnych, a na ekranie smartfona widocznym od razu – nawet 63% stanowiły produkty Google. Oznacza to mniej więcej, że większość tego, co widziałeś, to nie neutralne najlepsze wyniki z całego internetu, tylko własny ekosystem Google. Komisje antymonopolowe uznały to za praktykę szkodzącą konkurencji i użytkownikom. Takich mechanizmów – od autokorekt podpowiadających tylko popularne frazy, po sekcje „inni kupili też” na Amazonie sterowane komercyjnie – jest wiele. Ale skupiliśmy się na 7 najważniejszych z punktu widzenia przeciętnego internauty.)

Trzy krótkie historie – studia przypadków

Poniżej przedstawiamy trzy rzeczywiste historie (lub ich zarys inspirowany faktami), które ilustrują działanie powyższych mechanizmów w praktyce. Czasem lepiej zapamiętujemy opowieść o konkretnych ludziach niż abstrakcyjne opisy – dlatego warto zobaczyć, jak nieneutralność internetu wpływa na życie codzienne.

Historia 1: Nastolatka w pułapce algorytmu rekomendacji

14-letnia Ola (imię zmienione) założyła konto na TikToku. Jak większość rówieśniczek, oglądała tam taneczne filmiki, śmieszne scenki, ale też filmiki fit – sporo dziewczyn mówiło o diecie, figurze itp. Algorytm szybko wyczuł, że Ola zatrzymuje się dłużej przy treściach o odchudzaniu. For You Page zaczął więc pokazywać jej coraz więcej takich tiktoków. Na początku to były zwykłe porady „jak zdrowo się odżywiać”, ale z czasem feed stawał się coraz mroczniejszy. Pojawiły się nagrania gloryfikujące ekstremalne chudnięcie, zdjęcia bardzo wychudzonych sylwetek jako „motywacja”, poradniki typu „jak jeść 300 kalorii dziennie i nie zemdleć”. Ola, choć początkowo nie miała zaburzeń odżywiania, zaczęła popadać w obsesję. TikTok zafundował jej jednostronny przekaz: chudość ponad wszystko. W ciągu miesiąca algorytm zaserwował jej dziesiątki tysięcy klipów o drastycznych dietach. Rodzice zauważyli, że córka prawie nic nie je i ciągle ogląda te same „motywacyjne” filmiki. Zabrali jej telefon i zgłosili problem.

Co się tu wydarzyło? Zadziałała bańka personalizacji w skrajnej formie. Zamiast neutralnej mieszanki treści, Ola dostała monokulturę – algorytm uznał, że skoro klika, to trzeba jej dostarczać coraz mocniejszej dawki tego samego. To jak algorytm muzyczny, który po kilku piosenkach rocka zaczyna Ci puszczać tylko death metal, uznając, że tak najdłużej Cię zatrzyma. Tyle że tutaj stawką było zdrowie dziewczyny. Platforma nie miała złej woli; nie „chciała” zrobić krzywdy. Po prostu optymalizowała zaangażowanie, a że treści pro-ana wzbudzały w Oli mieszankę fascynacji i szoku (czyli wysokie zaangażowanie), to system ich nie odpuszczał. To nie neutralny dozorca, to bezduszny wzmacniacz – niestety, wzmacniający akurat szkodliwy przekaz.

Historia 2: Powiadomienie, które zmieniło przebieg dnia

Pan Marek, 35 lat, podczas pracy zerknął na telefon „tylko na sekundę”. Miał sprawdzić ważnego maila. Ale zauważył też ikonkę Facebooka z czerwonym dzwoneczkiem i liczbą 5 – pięć nowych powiadomień. Ciekawość wzięła górę. Kliknął: okazało się, że kolega oznaczył go na śmiesznym obrazku, ktoś skomentował jego wczorajszy post, a w lokalnej grupie dyskusyjnej wywiązała się gorąca kłótnia polityczna pod wpisem, który Marek śledził. Marek pomyślał: zajrzę na chwilę, co tam się dzieje. Wciągnął się w dyskusję, odpisał komuś, przejrzał parę kolejnych komentarzy… Nagle minęło 40 minut. Ważny mail czekał, a on był spóźniony z zadaniem.

Co się stało? Niby nic nadzwyczajnego – prokrastynacja w social mediach. Ale przyczynkiem był design uzależniający: czerwona ikonka notyfikacji, zaprojektowana, by wywołać impuls („kliknij mnie!”). Facebook stosuje czerwony kolor, bo jest kojarzony z alarmem/nowością. Do tego liczba powiadomień sugeruje „aż 5 rzeczy, które Cię dotyczą – sprawdź koniecznie”. Marek padł ofiarą FOMO oraz niekończącego się feedu – bo po odczytaniu notek oczywiście przewinął trochę aktualności, a tam co chwila nowy post, nowy komentarz. Ani się obejrzał. Platforma wygrała: zdobyła 40 minut jego uwagi, które mogła sprzedać reklamodawcom. To 40 minut wyrwane neutralności jego planu dnia.

Marek wieczorem narzekał żonie: „Facebook strasznie wciąga, chciałem tylko zobaczyć jedną rzecz”. Wie, że go to rozprasza, ale ciężko mu ignorować powiadomienia. Następnego dnia spróbował – wyłączył banery powiadomień w telefonie. Pomogło o tyle, że nie widział ich od razu. Ale jak raz wszedł z własnej woli na FB, zobaczył całą listę oczekujących notek i znów przepadł. W końcu zainstalował wtyczkę blokującą feed (takie coś istnieje: można sprawić, że widzisz tylko powiadomienia od znajomych, a nie główny wall). Trochę pomogło. Niemniej, Marek przyznał, że walczy sam ze sobą, jak z nałogiem. Mówi: „smartfon to taka strzykawka z dopaminą – te wszystkie kolory, alerty… ciężko się oprzeć”. I ma sporo racji z tą metaforą.

Historia 3: Boty, które stworzyły pozory większości

W pewnym małym miasteczku wybuchł lokalny konflikt – planowano wyciąć stary park pod galerię handlową. Mieszkańcy dyskutowali w internecie, większość była przeciw wycince. Nagle na Facebooku zaczęły pojawiać się komentarze gorąco popierające inwestycję: „Wreszcie cywilizacja u nas!”, „Tylko krzykacze przeciw, normalni ludzie chcą nowych sklepów!”. Co dziwne, konta tych komentujących były jakby mało autentyczne – brak zdjęć albo zdjęcia stokowe, profile założone niedawno, o dziwnych nazwiskach. W ciągu kilku dni powstała też strona „Mieszkańcy za Rozwojem Miasta” publikująca sponsorowane posty zachwalające galerię.

Jak się domyślasz, za tą „oddolną” akcją stała agencja PR wynajęta przez inwestora. Stworzono grupę botów i fałszywych kont, by wywołać wrażenie, że dużo ludzi popiera wycinkę. Algorytm Facebooka widział, że posty tej grupy „Mieszkańców za Rozwojem” mają sporo interakcji i są nawet udostępniane – bo te fejk konta nawzajem lajkowały i puszczały dalej treści. W efekcie Facebook zaczął polecać tę grupę prawdziwym mieszkańcom (bo „Popularne w Twojej okolicy”), a komentarze botów wbijały się na top pod postami o parku (bo szybko zyskiwały reakcje – od innych botów – więc system sortował je wyżej niż neutralne komentarze zwykłych ludzi). Nagle więc prawdziwi mieszkańcy zobaczyli w internecie obraz, jakby opinia publiczna była podzielona pół na pół, a może i większość popiera inwestycję. Kilka osób dało się przekonać argumentom z tych postów. W radzie miasta przegłosowano projekt minimalną przewagą. Park wycięto.

Ta historia obrazuje, jak mechanizm viralowości + brak weryfikacji tożsamości może zmanipulować przekaz. Algorytmy nie odróżniają bota od człowieka – liczy się dla nich aktywność, liczby. Jeśli więc ktoś umiejętnie sfałszuje aktywność (a to nie takie trudne – można kupić pakiety lajków, wynająć „farmy trolli”), to system wyniesie w górę taką spreparowaną narrację. Jest to nadużycie mechanizmów nie-neutralności – wykorzystanie ich przeciw prawdziwej opinii publicznej. Boty potrafią w ten sposób amplifikować dezinformację, szerzyć propagandę reżimów, atakować reputację firm czy osób. Internetowe platformy stały się polem walki, gdzie kto sprytniejszy technicznie, ten może stworzyć iluzję większości. A ludzie – widząc, co „inny ludzie” niby piszą – zmieniają swoje postawy (efekt wpływu społecznego).

Organizacje badające to zjawisko wskazują, że social boty „żerują na ludzkich słabościach i wzmacniają konflikt”. Tam, gdzie w grę wchodzi emocja i polaryzacja (czyli w sumie w większości sporów publicznych), boty mogą dolać oliwy do ognia udając tłum po obu stronach. W skali np. wyborów prezydenckich takie armie botów już nieraz próbowały wpływać na narrację (najgłośniej było o ingerencji Rosji w wyborach 2016 w USA przez fake konta). Platformy starają się wykrywać i blokować boty, ale to wyścig zbrojeń. A przez ten czas nieneutralne algorytmy będą promować to, co „popularne” – nie pytając, czy popularność jest autentyczna.

„To nie spisek” – systemowe bodźce zamiast tajnego planu

Czytając powyższe opisy, ktoś mógłby pomyśleć: „Ależ to wszystko brzmi jak jakaś teoria spiskowa, że internet jest specjalnie ustawiony przeciwko nam”. Ważne, by zrozumieć, że to nie żaden mroczny spisek garstki ludzi, lecz rezultat sumy decyzji i bodźców ekonomicznych. Nikt w Google czy Meta nie siadł i nie powiedział: „zróbmy ludziom sieczkę z mózgu”. Wręcz przeciwnie – wielu inżynierów i menedżerów tych firm prywatnie przyznaje, że chcieli budować fajne, użyteczne produkty, łączyć ludzi, demokratyzować dostęp do informacji. Co więc poszło „nie tak”?

Poszedł mechanizm rynkowy w warunkach braku innych hamulców. Biznes Big Techu oparty jest w 90% na reklamie – a reklama oparta jest na uwadze. Miarą sukcesu platformy jest liczba aktywnych użytkowników i czas spędzony przez nich. To są twarde metryki raportowane inwestorom co kwartał. Jeśli wzrosną – akcje idą w górę, jeśli spadną – firmę czekają trudne pytania. W takim systemie wszystko, co zwiększa te metryki, staje się pożądane. Nie trzeba nikomu na górze wydawać złowrogich poleceń – menedżerowie średniego szczebla i szeregowi programiści sami zaczną „dokręcać śrubę” algorytmom, by wyniki rosły. Gdy dodanie czerwonch powiadomień powiększy retencję użytkowników o 5%, to nikt tego nie wycofa, choćby oznaczało to więcej rozproszenia uwagi. Gdy testy wykażą, że agresywne treści są klikane częściej, to algorytm doboru treści (tzw. machine learning modelsam się nauczy preferować agresywne treści – on nie ma moralnych skrupułów, optymalizuje pod zadany cel (np. watch time). Inżynierowie mogą nawet do końca nie rozumieć, czemu model rekomendacji takie rzeczy podbija – widzą tylko, że metryka się poprawia, więc model jest uznany za skuteczny.

Innymi słowy, systemowe bodźce – czas, reklamy, metryki – kształtują internet w sposób pośredni, ale potężny. To trochę jak z dietą fast-foodową: restauracja może nie chce nikogo rozchorować, ale dodaje cukier, sól, tłuszcz, bo to uzależnia i zwiększa sprzedaż. Efekt uboczny: epidemia otyłości. Podobnie Big Tech dokłada wszędzie mechanizmy zwiększające zaangażowanie, bo to zwiększa zyski – efekt uboczny: „otyłość informacyjna”, polaryzacja, uzależnienia. Nie ma jednego złoczyńcy pociągającego za sznurki – jest sieć naczyń połączonych, która nagradza pewne zachowania i rozwiązania. W rezultacie platformy działają trochę jakby ktoś je zaprojektował do manipulacji – choć w rzeczywistości to rynek je tak zoptymalizował.

Owszem, niekiedy wychodzą na jaw świadome decyzje, które budzą grozę – np. dokumenty pokazały, że Facebook wiedział, iż jego algorytmy „żerują na ludzkiej skłonności do podziałów” i czynią dyskurs bardziej toksycznym, ale odrzucił poprawki, które mogły to złagodzić, bo obawiano się spadku zaangażowania. Można to poczytywać jako niemal cyniczną kalkulację – „wiemy, że trujemy debatę publiczną, ale engagement musi się zgadzać”. Jednak warto pamiętać, że nawet gdyby szefowie Facebooka nagle zmienili zdanie i kazali „bądźmy neutralni i odpowiedzialni”, cały model biznesowy by zgrzytał. Giełda zareagowałaby spadkiem, konkurencja (która wcale nie musiałaby iść w cnotę) wykorzystałaby moment.

Dlatego potrzebna jest zmiana reguł gry – oddolna lub odgórna – bo system sam z siebie nie ma motywacji, by stać się neutralnym. To trochę tak, jak z przemysłem paliwowym a zmianami klimatu – pojedyncza firma może chcieć być „zielona”, ale dopóki cała branża jedzie na ropie, ciężko się wyłamać. Tu – dopóki cała branża jedzie na ekonomii uwagi i danych, dopóty neutralność treści będzie przegrywać z pogonią za naszym czasem i klikami. To nie wymaga teorii spiskowej. Wystarczy zwykła logika kapitalizmu w połączeniu z psychologią człowieka.

Podsumujmy: dzisiejszy internet jest nieneutralny nie dlatego, że „algorytmy są złe” per se, ale dlatego, że nagrody za nieneutralność są ogromne. System wynagradza za X (uwagę, skrajność, dopasowanie), więc dostajemy więcej X. To odwracalne – jeśli zmienimy system nagród, zmieni się wynik. Pytanie: jak to zrobić?

Co można zmienić? Propozycje i ich konsekwencje

Skoro problem ma charakter systemowy, rozwiązania też muszą nim być. Nie istnieje jedno proste antidotum (typu: „po prostu nie używaj telefonu przed snem” – bo to zrzuca całą winę na użytkownika). Poniżej przedstawiamy kilka kierunków zmian – od regulacji prawnych, przez zmiany w designie platform, po nasze własne nawyki – które mogłyby uczynić internet bardziej neutralnym i zdrowym informacyjnie. Każdej potencjalnej zmianie towarzyszą też trade-offy (kompromisy czy koszty uboczne), bo niestety nie ma rozwiązań idealnych.

  • Wymusić transparentność algorytmów i danych treningowych. Gdyby wielkie platformy musiały ujawnić, jak ich algorytmy rekomendacji sortują treści (przynajmniej na poziomie czynników wpływających) oraz udostępniać zewnętrznym badaczom dane do audytu – łatwiej byłoby wykryć stronniczość i nadużycia. UE już wprowadza takie obowiązki dla największych platform (w ramach Aktu o Usługach Cyfrowych). Trade-off: Firmy twierdzą, że zbyt daleko idąca transparentność może ułatwić „granie systemem” (spamerzy poznają, jak dokładnie działa ranking, i to wykorzystają). Trzeba wyważyć, ile ujawnić, by zwiększyć neutralność, ale nie rozdać „kodu do gry” złym aktorom.
  • Dać użytkownikom kontrolę nad feedem. Np. prawo do prostego przełączenia na chronologiczny timeline zamiast algorytmicznego – część platform już pod naciskiem opinii publicznej to wprowadziła (Twitter miał opcję „najnowsze tweety”, Instagram testuje coś podobnego). Albo „prawo do resetu” – możliwość wyczyszczenia danych, na bazie których system nam personalizuje treści. Wtedy każdy mógłby co jakiś czas wychodzić ze swojej bańki i budować ją od nowa. Trade-off: Chronologiczny feed w mega-aplikacjach bywa nieużyteczny (za dużo treści na to, by przescrollować) – więc użytkownicy mogą i tak wracać do algorytmu. Reset zaś kasuje też te pozytywne personalizacje (np. przestanie Ci podpowiadać dobre treści, które lubiłeś). Ale przynajmniej opcja wyboru oddaje trochę kontroli w nasze ręce, to dobry kierunek.
  • Ograniczyć skrajne targetowanie reklam i zbieranie danych. Tutaj rozwiązaniem są regulacje prywatności – np. zakaz profilowania dzieci (to już wprowadzono – np. TikTok nie kieruje spersonalizowanych reklam do nieletnich), zakaz profilowania wrażliwego (nie można np. targetować po rasie czy poglądach religijnych – UE to wymaga). Niektórzy postulują wręcz zakaz reklamy behawioralnej – by można było targetować tylko kontekstowo (np. reklama butów tylko na stronach o sporcie, a nie na podstawie Twojego indywidualnego profilu). Trade-off: Reklamy stałyby się mniej skuteczne, co dla nas oznaczałoby prawdopodobnie mniej „darmowego” internetu – platformy musiałyby zarabiać inaczej (np. więcej płatnych opcji, subskrypcji). Poza tym reklamy byłyby mniej dopasowane – co dla użytkownika czasem bywa uciążliwe. To wybór między prywatnością (neutralniejsze, bo nie personalne doświadczenie) a wygodą/bezpłatnością.
  • Zmienić model biznesowy platform. To najdalej idąca idea: odejść od ekonomii uwagi. Jak? Np. przez abonamenty (Ty płacisz parę dolarów miesięcznie, a platforma wtedy nie musi cię śledzić dla reklam). Albo dotacje publiczne dla pewnych usług cyfrowych – traktować np. wyszukiwarkę czy media społecznościowe jako infrastrukturę publiczną, finansować je w części ze środków państwa czy fundacji, co zdjąłoby presję komercyjną. Są też pomysły spółdzielni/platform kooperatyw, gdzie użytkownicy są współwłaścicielami – wtedy interesem byłaby jakość, nie tylko zysk. Trade-off: Ludzie są przyzwyczajeni do „darmochy” – wprowadzenie powszechnych opłat może odrzucić wiele osób (patrz Twitter Blue – wprowadzenie płatnej weryfikacji wywołało kontrowersje i raczej pogorszyło doświadczenie). Finansowanie publiczne rodzi ryzyko politycznego wpływu (np. rząd będzie naciskał na „swoją” moderację). Mimo to, warto eksperymentować z modelami hybrydowymi – np. Wikipedia jest dowodem, że społecznościowy, niekomercyjny model może działać na dużą skalę neutralnie (choć Wikipedia to specyficzny przypadek).
  • Regulować design i dark patterns prawnie. W niektórych krajach zaczyna się zakazywać najbardziej perfidnych trików (np. „przyciski-zombie”, które wyglądają jak coś innego). UE w Digital Services Act zakazała pewnych ciemnych wzorców w serwisach dla dzieci. Można by wprowadzić np. standard, że aplikacja musi umożliwić ustawienie ograniczenia czasu (kilka już to robi dobrowolnie – np. Instagram pozwala ustawić przypomnienie po X minutach scrollowania). Trade-off: Trudno zdefiniować prawnie „uzależniający design” – firmy będą się wykłócać, co jest legit feature, a co dark pattern. Poza tym, dorośli użytkownicy mogą odbierać ograniczenia jako psucie zabawy („Czemu mi Netflix stopuje autoplay po 3 odcinkach? Chcę binge-watch!”). Tu chyba najlepsze są rozwiązania dające opcję: np. „czy chcesz, by filmy odtwarzały się automatycznie?” – i defaultowo może „nie”, by chronić bardziej podatnych.
  • Lepsza weryfikacja kont i walka z botami. By internet był bliższy neutralnemu forum prawdziwych ludzi, platformy muszą agresywniej usuwać fałszywych użytkowników. Można wymagać np. potwierdzenia tożsamości (ale to problem prywatności) lub stosować systemy reputacji. Jedno z rozwiązań to np. CAPTCHA dla kont społecznościowych (od czasu do czasu musisz udowodnić, że nie jesteś botem). Inne to limitowanie zasięgu nowym kontom (żeby bot nie mógł od razu stać się viralem). Trade-off: Zaostrzenie weryfikacji oznacza utrudnienia dla prawdziwych ludzi (szczególnie anonimowość w krajach reżimowych – aktywiści boją się podawania danych). Poza tym bot-masterzy i tak znajdą sposoby (np. wynajmą farmy clickworkerów, prawdziwych ludzi z fejk tożsamościami). Ale przynajmniej koszt podbijania sztucznej narracji by wzrósł, co zmniejszy skalę problemu.
  • Promować edukację i świadomość użytkowników. Ostatecznie, im więcej osób rozumie te mechanizmy, tym mniejsza ich skuteczność. Gdy wiesz, że TikTok Cię wciąga celowo, może łatwiej powiesz „stop”. Gdy zdajesz sobie sprawę z istnienia baniek informacyjnych, może sam poszukasz innych źródeł dla równowagi. Programy szkolne i kampanie społeczne mogą uczyć o higienie cyfrowej: jak rozpoznawać dark patterns, jak świadomie ustawiać sobie notyfikacje, jak nie dać się złapać w spiralę rekomendacji. Trade-off: Edukacja to proces długotrwały i nigdy nie obejmie wszystkich. Poza tym przerzuca część ciężaru na użytkowników („sam się obroń przed algorytmem”). Mimo to, jest niezbędnym elementem – bo nawet przy najlepszych regulacjach, ostatecznie człowiek z telefonem musi wiedzieć, na co uważać.
  • Otworzyć rynek na konkurencję i decentralizację. Monopoliści mogą dyktować zasady, ale gdybyśmy mieli więcej alternatyw, moglibyśmy wybierać np. platformy o etyczniejszych podejściach. Na razie media społecznościowe działają na zasadzie efektu sieci – wszyscy są na kilku głównych, bo tam są ich znajomi/odbiorcy. Rozwiązaniem może być idea interoperacyjności: zmusić duże platformy, by działały trochę jak e-mail – tzn. żeby mniejsze serwisy mogły się z nimi łączyć. Np. zobowiązać Facebooka do otwarcia API, które pozwoli użytkownikom alternatywnej aplikacji przeglądać i pisać posty do znajomych na FB, nie będąc wcale na FB. Wtedy mogłyby powstawać niezależne klienty – np. feed bez algorytmu, czysto chronologiczny, stworzony przez organizację non-profit, ale pokazujący treści z Twoich znajomych z Facebooka. To brzmi futurystycznie, ale Unia Europejska w Digital Markets Act chce czegoś takiego nałożyć na komunikatory (żeby np. WhatsApp, iMessage i inni byli interoperacyjni). Trade-off: Dla gigantów to koszmar (stracą monopol na doświadczenie użytkownika – stąd będą się bronić rękami i nogami). Dla użytkownika – wymagałoby to pewnej konfiguracji, i potencjalnie mogłoby wprowadzić problemy z bezpieczeństwem danych, jeśli byle aplikacja może się podłączyć do platformy. Pomysł jednak jest wart rozważenia, bo mógłby stworzyć ekosystem różnorodnych doświadczeń – może ktoś wolałby używać „DobryNews” zamiast Facebooka jako interfejsu do feedu, gdzie DobryNews sortuje posty według np. wiarygodności źródeł, a nie FB-owego zaangażowania. Interoperacyjność to skomplikowany temat, ale cel – oddanie kontroli nad sposobem konsumpcji treści – jest kluczowy.

Podsumowując, da się zbudować internet bardziej neutralny i przyjazny ludziom – ale wymaga to świadomych decyzji regulatorów, zmiany zachęt ekonomicznych oraz presji ze strony nas, użytkowników. Potrzebna jest pewna „deklaracja praw cyfrowych” na nowe czasy: żeby chronić nasze umysły podobnie, jak kiedyś wprowadzono regulacje chroniące konsumentów (np. zakaz dodawania kokainy do napojów – co kiedyś praktykowano dla uzależnienia klientów). Tutaj analogicznie – może trzeba ograniczyć „uzależniacze” w aplikacjach, tak jak ograniczono nikotynę w papierosach.

W kolejnej sekcji odniesiemy to do misji fundacji Open Digital Foundation – bo nieprzypadkowo takie organizacje powstają właśnie teraz, gdy widać, że coś musi się zmienić.

Cyfrowa infrastruktura, której można ufać – misja Open Digital Foundation

Fundacja Open Digital Foundation stawia sobie za cel przebudowę cyfrowego świata tak, by służył on społeczeństwu, a nie tylko maksymalizacji zysków kilku korporacji. Mówimy tu o tworzeniu takiej infrastruktury i zasad działania internetu, którym my jako użytkownicy możemy zaufać. To znaczy: internetu transparentnego, respektującego nasze prawa, wspólnego dobra, a nie manipulującego nami.

Jak to się ma do tematu nieneutralności treści online? Otóż ODF wierzy, że internet może działać według innego paradygmatu. Możemy projektować platformy, które zamiast sekretnych algorytmów będą miały otwarte i audytowalne mechanizmy – tak byśmy wiedzieli, czemu widzimy daną informację. Możemy budować sieci społecznościowe, gdzie to użytkownik decyduje, co chce widzieć (np. wybiera spośród wielu algorytmów sortowania – może woli taki promujący lokalne posty, albo taki filtrowany przez sprawdzone źródła). Możemy wspierać cyfrowe dobra wspólne – odpowiedniki parków i bibliotek w świecie online – nie nastawione na zysk, lecz na wartość społeczną.

Open Digital Foundation powstała, bo obecny model się wypaczył, ale nie wolno się z tym biernie pogodzić. Naszą misją jest zmienić reguły gry: zarówno poprzez badania i raporty (jak ten, który czytasz), by uświadamiać problem i sugerować rozwiązania decydentom, jak i poprzez inicjatywy technologiczne. Wierzymy, że można tworzyć alternatywne rozwiązania – np. wyszukiwarkę, która będzie open-source i będzie priorytetyzować neutralnie jakościowe treści zamiast sponsorowanych (są już takie próby, jak choćby Wikipedia Search). Wierzymy w standardy etycznego designu – że aplikacja może informować użytkownika, zamiast go podchodzić sztuczkami. Wierzymy też, że użytkownicy powinni mieć swoich reprezentantów w procesie tworzenia nowych reguł internetu – dlatego działamy na rzecz cyfrowej demokracji, włączania społeczeństwa obywatelskiego w dyskusje o regulacjach AI, algorytmów, big data.

Krótko mówiąc, celem Fundacji jest internet, który pozostaje infrastrukturą służącą ludziom – jak droga czy linia kolejowa – a nie kasynem czy maszyną propagandową. Chcemy internetu, gdzie masz prawo nie być manipulowanym co chwila. Gdzie standardem jest szacunek dla uwagi użytkownika (np. Time Well Spent, ruch zapoczątkowany przez byłych pracowników Big Tech, postulujący design wspierający dobrostan, a nie uzależnienie). Gdzie Twoje dane należą do Ciebie, a nie są asymetrycznie wykorzystywane przeciw Tobie.

Czy to utopia? Niekoniecznie. Historia pokazuje, że kiedy społeczeństwo dostrzega problem, potrafi zmienić kurs. Kiedyś samochody nie miały pasów bezpieczeństwa – koncerny motoryzacyjne nie chciały ich wprowadzać, bo to koszt. Dopiero regulacje i presja społeczna to wymusiły – dziś trudno sobie wyobrazić auto bez pasów. Teraz jesteśmy w podobnym miejscu z Big Techem: dodajmy pasy i hamulce do pędzącego pojazdu internetu. Open Digital Foundation zamierza być jednym z architektów i orędowników tej zmiany.

Zapraszamy do śledzenia naszych kolejnych raportów i działań. Poniżej znajdziesz bibliografię z linkami do źródeł, na których opieraliśmy się w tym tekście – zachęcamy do samodzielnej lektury, bo świadomy użytkownik to pierwszy krok do lepszego internetu.

Bibliografia

  1. cambridgeanalytica.org Cambridge Analytica Scandal – Internet architecture is not neutral: Nicolas Menier, “What is Cambridge Analytica? A look back at the scandal that changed the Internet”, CambridgeAnalytica.org (2025).
  2. wiggin.co.ukwiggin.co.uk Social media business models incentivise harmful content: UK Parliament Science & Tech Committee Report summary (Wiggin LLP, 2025).
  3. washingtonpost.comwashingtonpost.com Facebook algorithm weighted “anger” reactions 5× more than likes, boosting provocative content: Washington Post, “Five points for anger, one for a ‘like’…” by Merrill & Oremus (2021).
  4. pmc.ncbi.nlm.nih.gov Facebook internal research: “algorithms exploit brain’s attraction to divisiveness” (2018) and executives declined fixes: Rathje et al., PNAS (2021).
  5. pmc.ncbi.nlm.nih.govpmc.ncbi.nlm.nih.gov Out-group political posts get twice the shares – social media rewards divisive content: Rathje et al., PNAS (2021).
  6. erc.europa.eu “Algorithms gatekeep, mediate, and manipulate… Bots amplify disagreement, conflict, misinformation”: Interview with Milena Tsvetkova, ERC Magazine (2025).
  7. medium.com Infinite scroll creator admits it’s hyper-addictive (variable rewards like gambling): Laurie Frankel, Medium (2024).
  8. med.stanford.edu Smartphone as “modern hypodermic needle” delivering digital dopamine (bright colors, endless feed, TikTok never ends): Stanford Medicine Q&A with Dr. Anna Lembke (2021).
  9. themarkup.orgthemarkup.org Google covers 41%–63% of search first page with its own services (self-preferencing): The Markup investigation cited in US Congress bill (2021).
  10. themarkup.org 63% of Google searches end on Google’s own sites – evidence of a “walled garden” (Rep. Cicilline): US House Antitrust Subcommittee Hearing (2020)themarkup.org.
  11. cambridge.org WSJ investigation: TikTok flooded 13-year-olds with tens of thousands of weight-loss videos (incl. 300 kcal/day tips, “corpse bride diet”): American Journal of Law & Medicine (Cambridge) citing WSJ (2023).
  12. thebureauinvestigates.comthebureauinvestigates.com Snapchat internal emails: Streaks caused “mass psychosis”, “created anxiety”, “accidentally addictive” but kept due to popularity: The Bureau of Investigative Journalism (Effie Webb, 2025).
  13. thebureauinvestigates.com Focus groups: teens feel uncontrollable need to keep streaks alive – linked to screen addiction: TBIJ, internal Snapchat comms (2023)thebureauinvestigates.com.
  14. amnesty.orgamnesty.org Amnesty International: Facebook’s algorithms & pursuit of profit “substantially contributed” to atrocities against Rohingya (2017); supercharged hate, failed to act: Amnesty report “The Social Atrocity” (2022).
  15. amnesty.org Facebook’s engagement-based algorithms promote inflammatory content (hate incitement keeps people on platform – key to surveillance business model): Amnesty International (2022).

Comments

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *