Gospodarka uwagi
Spis treści
- Uwaga jako waluta
- Mechanizmy uzależniania
- Skutki społeczne
- Dezinformacja jako efekt uboczny modelu biznesowego
- Dlaczego regulacja nie wystarczy
- Alternatywa: infrastruktura bez modelu reklamowego
Gospodarka uwagi — jak platformy przejęły kontrolę nad Twoim umysłem
Wprowadzenie
Na stronie Problem internetu opisujemy, jak współczesne platformy cyfrowe zamieniły uwagę w surowiec, a debatę publiczną w pole walki o kliki. To diagnoza, którą większość użytkowników internetu potwierdzi z własnego doświadczenia: algorytmy promują oburzenie, powiadomienia nie dają spokoju, a granica między prawdziwą rozmową a manipulacją zaciera się z każdym rokiem.
Ten dokument idzie o krok dalej. Zamiast powtarzać diagnozę, pokazuje mechanizmy, które za nią stoją, i dostarcza danych, do których można się odwołać. Opisuje, jak dokładnie działa maszyna gospodarki uwagi: jakie mechanizmy psychologiczne wykorzystuje, jakie badania naukowe potwierdzają jej skutki, ile pieniędzy generuje i dlaczego samo regulowanie tego systemu nie wystarczy. To materiał dla osób, które chcą wiedzieć więcej niż „internet jest zepsuty”. Dla dziennikarzy szukających konkretnych źródeł, dla decydentów potrzebujących argumentów, dla ekspertów i obywateli, którzy chcą zrozumieć skalę problemu, zanim zaczną szukać rozwiązań.
Dokument konsoliduje i pogłębia argumenty, które fundacja rozwijała w trzech wcześniejszych artykułach badawczych poświęconych ekonomii uwagi, nieneutralności algorytmów i mechanizmom dystrybucji dezinformacji. Integruje je w jeden spójny obraz oparty na najnowszych dostępnych danych.
1. Uwaga jako waluta
Skala rynku uwagi
Globalny rynek reklamy cyfrowej, który jest bezpośrednim ekonomicznym wyrazem gospodarki uwagi, osiągnął w 2024 roku wartość szacowaną na około 600 miliardów dolarów. Prognozy na rok 2025 przekraczają 650 miliardów, z perspektywą wzrostu do ponad biliona dolarów przed końcem dekady. Mówimy o jednym z największych i najszybciej rosnących sektorów światowej gospodarki, a jego paliwem jest dokładnie jedno: czas i uwaga miliardów ludzi.
Przeciętny użytkownik internetu na świecie spędza na mediach społecznościowych około 2 godzin i 21 minut dziennie, jak wynika z danych We Are Social i DataReportal za luty 2025 roku. W Europie czas ten waha się w zależności od kraju, od nieco ponad godziny w państwach skandynawskich do ponad dwóch godzin w Portugalii czy Holandii. Wśród młodzieży skala jest jeszcze większa: według danych OECD co najmniej połowa piętnastolatków w krajach rozwiniętych spędza ponad 30 godzin tygodniowo przy urządzeniach cyfrowych. Dane Eurostatu z 2024 roku pokazują, że 97% młodych Europejczyków w wieku 16–29 lat korzysta z internetu codziennie, a 88% z nich aktywnie uczestniczy w sieciach społecznościowych.
Te godziny nie są „darmowe” z perspektywy platform. Każda minuta spędzona na Facebooku, Instagramie, TikToku czy YouTube ma swoją cenę rynkową. Meta Platforms, właściciel Facebooka i Instagrama, osiągnął w 2024 roku globalny przychód na użytkownika (ARPU) na poziomie blisko 50 dolarów rocznie. W Ameryce Północnej ta kwota sięgnęła ponad 200 dolarów na osobę, w Europie wyniosła ponad 75 dolarów. Łączne przychody reklamowe Meta w 2024 roku przekroczyły 160 miliardów dolarów, co stanowiło ponad 97% całkowitych przychodów firmy. Model jest prosty: prawie każdy dolar, który Meta zarabia, pochodzi ze sprzedaży uwagi swoich użytkowników reklamodawcom.
Mapa ekosystemu: kto z czego żyje
Aby zrozumieć, dlaczego platformy są zaprojektowane tak, a nie inaczej, trzeba spojrzeć na mapę interesów w cyfrowym ekosystemie. Uczestniczą w nim cztery grupy: użytkownicy, platformy, reklamodawcy i twórcy treści. Każda z nich ma inną motywację, ale system łączy je w jedną maszynę.
Użytkownicy otrzymują „darmowy” dostęp do komunikacji, rozrywki i informacji. Płacą za to swoimi danymi, uwagą i czasem, choć rzadko zdają sobie z tego sprawę w momencie korzystania. Platformy zarabiają na sprzedaży profilowanych reklam, co oznacza, że ich podstawowym interesem jest maksymalizacja czasu spędzanego przez użytkownika w aplikacji i zbieranie jak najdokładniejszych danych o jego zachowaniu. Reklamodawcy kupują dostęp do precyzyjnie dobranych grup odbiorców, co napędza popyt na jeszcze lepsze profilowanie. Twórcy treści otrzymują „zasięg” jako walutę, co motywuje ich do tworzenia materiałów, które algorytm będzie promować, czyli materiałów emocjonalnych, kontrowersyjnych lub po prostu zoptymalizowanych pod metryki zaangażowania.
Ten układ interesów tworzy samonakręcającą się spiralę. Im więcej czasu użytkownicy spędzają na platformie, tym więcej danych platforma zbiera. Im więcej danych, tym precyzyjniejsze reklamy. Im precyzyjniejsze reklamy, tym wyższe przychody. Im wyższe przychody, tym większe inwestycje w algorytmy, które jeszcze skuteczniej zatrzymują użytkownika. Nikt w tym łańcuchu nie ma strukturalnej motywacji, żeby się zatrzymać. Jedynym przegranym jest użytkownik, który nie jest klientem tego systemu. Jest jego produktem.
2. Mechanizmy uzależniania
Od automatów do algorytmów: zmienna nagroda
Jednym z najlepiej udokumentowanych mechanizmów, na których opiera się projektowanie platform społecznościowych, jest tzw. wzmocnienie zmiennym stosunkiem (variable ratio reinforcement). Psycholog B.F. Skinner odkrył ten mechanizm w połowie XX wieku, badając zachowanie zwierząt laboratoryjnych: gołębie i szczury, które otrzymywały nagrodę w nieprzewidywalnych odstępach czasu, powtarzały działanie kompulsywnie i znacznie częściej niż te, które nagradzano regularnie. Ta sama zasada leży u podstaw konstrukcji automatów do gry w kasynach i ta sama zasada została przeniesiona do projektowania mediów społecznościowych.
Gdy przewijasz kanał na Instagramie lub TikToku, nie wiesz, co pojawi się dalej. Może to będzie post od bliskiej osoby, może zabawny filmik, może nic interesującego, a może coś, co wywoła silną emocję. Właśnie ta nieprzewidywalność sprawia, że mózg produkuje dopaminę nie w momencie otrzymania nagrody, ale w momencie oczekiwania na nią. Neurobiologicznie jest to ten sam mechanizm, który aktywuje się u osoby siedzącej przed automatem do gry. System nerwowy uczy się, że „jeszcze jedno przeciągnięcie palcem” może przynieść nagrodę, i ta obietnica trzyma go w pętli.
BJ Fogg i laboratorium perswazji
Projektowanie uzależniających interfejsów nie jest efektem ubocznym. Ma swoją naukową podbudowę. BJ Fogg, profesor Stanford University, prowadzi Persuasive Technology Lab, laboratorium zajmujące się technikami zmiany zachowań za pomocą technologii. Opracowany przez niego Fogg Behavior Model (model zachowania Fogga) opisuje trzy warunki, które muszą być spełnione jednocześnie, aby człowiek wykonał określone działanie: motywacja, zdolność i bodziec. Platformy społecznościowe perfekcyjnie realizują wszystkie trzy: motywacją jest naturalna ciekawość i potrzeba kontaktu społecznego, zdolność zapewnia intuicyjny interfejs wymagający jednego dotknięcia, a bodźcem są powiadomienia.
Wielu inżynierów i projektantów, którzy dziś pracują w największych firmach technologicznych Doliny Krzemowej, to absolwenci programów Fogga. To nie jest teoria spiskowa. To udokumentowana ścieżka kariery, która łączy akademickie badania nad perswazją z komercyjnym projektowaniem aplikacji mających setki milionów użytkowników.
Nieskończone przewijanie i inne wzorce manipulacji
Aza Raskin, projektant interfejsów, jest powszechnie uznawany za twórcę mechanizmu nieskończonego przewijania (infinite scroll), który eliminuje naturalny punkt zatrzymania w konsumpcji treści. W tradycyjnej stronie internetowej podział na strony (paginacja) zmuszał użytkownika do podjęcia świadomej decyzji: „czy chcę kliknąć dalej?”. Nieskończone przewijanie usuwa ten moment refleksji. Treści ładują się automatycznie, a użytkownik kontynuuje z siły bezwładności. Raskin publicznie wyraził żal z powodu swojego wynalazku, stwierdził, że mechanizm ten kosztuje ludzkość setki milionów godzin dziennie, i dołączył do Center for Humane Technology, organizacji założonej przez Tristana Harrisa, byłego specjalistę ds. etyki projektowania w Google.
Harris, który zeznawał przed Kongresem USA w sprawie manipulacyjnego projektowania platform, zwraca uwagę na systemowy charakter problemu: nie chodzi o pojedynczą złą decyzję projektową, ale o cały ekosystem wzorców, które razem tworzą środowisko zaprojektowane tak, by minimalizować autonomię użytkownika. Do tych wzorców należą m.in. tzw. dark patterns, czyli manipulacyjne elementy interfejsu. Confirmshaming to technika, w której opcja rezygnacji jest sformułowana tak, by wywoływać poczucie winy (np. „Nie, nie chcę być na bieżąco”). Roach motel to wzorzec, w którym łatwo jest się zapisać, ale ekstremalnie trudno się wypisać. Friend spam polega na wyłudzaniu kontaktów z książki adresowej użytkownika pod pretekstem „zaproszenia znajomych”.
Dopamina: uproszczenie, które mówi prawdę
Mówienie, że media społecznościowe „uzależniają jak narkotyk”, jest uproszczeniem, ale uproszczeniem, za którym stoi realna neurobiologia. Dopamina, neuroprzekaźnik kluczowy dla systemu nagrody w mózgu, nie jest „hormonem przyjemności”, jak bywa potocznie opisywana. Jest raczej sygnałem oczekiwania: informuje mózg, że coś wartego uwagi może się zaraz wydarzyć, i motywuje do działania. To właśnie ten mechanizm aktywują powiadomienia (czerwona kropka, dźwięk, wibracja): nie dostarczają nagrody, ale ją obiecują, uruchamiając zachowanie polegające na sprawdzeniu. Badania nad problematycznym użyciem mediów społecznościowych wskazują na zmiany w aktywności kory przedczołowej podobne do tych obserwowanych u osób z innymi zaburzeniami behawioralnymi. Raport Surgeon General USA z 2023 roku zwraca uwagę, że intensywne korzystanie z mediów społecznościowych może prowadzić do zmian w strukturze mózgu młodzieży, zwiększając podatność na impulsywne zachowania.
Istotne jest, że mechanizmy te działają z nierówną siłą w zależności od wieku. Kora przedczołowa, odpowiedzialna za kontrolę impulsów i podejmowanie decyzji, dojrzewa dopiero około 25. roku życia. Oznacza to, że dzieci i młodzież są biologicznie bardziej podatne na projektowanie uzależniające niż dorośli. To nie jest kwestia „słabej woli” młodych ludzi. To kwestia konfrontacji niedojrzałego neurologicznie mózgu z systemem zoptymalizowanym pod maksymalizację zaangażowania na miliardowej skali.
3. Skutki społeczne
Polaryzacja i radykalizacja
W 2018 roku badacze z MIT, Soroush Vosoughi, Deb Roy i Sinan Aral, opublikowali w czasopiśmie Science wyniki największego w historii badania nad rozprzestrzenianiem się prawdziwych i fałszywych wiadomości w mediach społecznościowych. Przeanalizowali około 126 tysięcy kaskad informacyjnych udostępnianych na platformie Twitter (obecnie X) w latach 2006–2017, obejmujących ponad 4,5 miliona postów od 3 milionów użytkowników. Wyniki były jednoznaczne: fałszywe wiadomości docierały do 1500 odbiorców około sześć razy szybciej niż prawdziwe. Fałszywe informacje były o 70% częściej udostępniane dalej niż prawdziwe. Co równie istotne, efekt ten był napędzany głównie przez ludzi, nie przez boty, co sugeruje, że to ludzka psychologia, podatna na nowość i zaskoczenie, jest jednym z głównych motorów wiralności fałszywych treści.
Algorytmy rekomendacji pogłębiają ten efekt. Ich logika jest prosta: pokazuj użytkownikowi to, co maksymalizuje zaangażowanie. A treści wywołujące silne emocje, zwłaszcza oburzenie, strach i poczucie zagrożenia ze strony „drugiej strony”, generują więcej komentarzy, udostępnień i czasu spędzonego na platformie niż treści wyważone i rzeczowe. W praktyce oznacza to, że algorytm systematycznie faworyzuje skrajność kosztem umiaru, pogłębiając podziały polityczne i światopoglądowe. Zjawisko to, opisywane przez badaczy jako tribal epistemology, polega na tym, że ludzie coraz częściej oceniają informacje nie na podstawie ich rzetelności, ale na podstawie tego, kto je przekazuje i po której jest stronie.
Zdrowie psychiczne, w szczególności młodzieży
W maju 2023 roku Surgeon General Stanów Zjednoczonych, dr Vivek Murthy, wydał oficjalne ostrzeżenie dotyczące wpływu mediów społecznościowych na zdrowie psychiczne młodzieży. Ostrzeżenia tego rodzaju (Surgeon General’s Advisory) są zarezerwowane dla najpoważniejszych zagrożeń zdrowia publicznego; wcześniejsze dotyczyły między innymi palenia tytoniu w 1964 roku czy epidemii otyłości w 2001 roku. Ostrzeżenie z 2023 roku stwierdzało, że do 95% młodych Amerykanów w wieku 13–17 lat korzysta z platform społecznościowych, a ponad jedna trzecia z nich robi to „niemal stale”. Dokument wskazywał, że u młodzieży spędzającej na mediach społecznościowych ponad trzy godziny dziennie obserwuje się znacząco podwyższone ryzyko objawów depresji i lęku.
Europejskie dane są równie niepokojące. Raport WHO z 2024 roku wykazał, że 36% badanych nastolatków w Europie, Azji Centralnej i Kanadzie deklaruje kontakt z przyjaciółmi za pośrednictwem mediów społecznościowych „niemal cały czas w ciągu dnia”, a ponad 11% wykazuje oznaki problematycznego użycia mediów społecznościowych, odpowiadające kryteriom zachowań podobnych do uzależnienia. W październiku 2025 roku Amnesty International opublikował wyniki eksperymentu przeprowadzonego we Francji, w którym stworzono trzy fikcyjne konta trzynastolatków na TikToku. W ciągu niecałej godziny przeglądania kanału „Dla Ciebie” konta te zaczęły otrzymywać treści związane z depresją, a w ciągu trzech do czterech godzin algorytm kierował je ku materiałom dotyczącym samookaleczenia i myśli samobójczych.
Jonathan Haidt, psycholog społeczny z New York University i autor książki „The Anxious Generation” z 2024 roku, argumentuje, że korelacja między upowszechnieniem się smartfonów z mediami społecznościowymi (około 2012 roku) a gwałtownym pogorszeniem wskaźników zdrowia psychicznego młodzieży w wielu krajach jednocześnie jest zbyt silna, aby ją ignorować. Haidt podkreśla, że problem nie dotyczy samego dostępu do internetu, ale konkretnych cech platform opartych na modelu uwagi: nieskończonego strumienia treści, społecznego porównywania się, presji ciągłej dostępności i algorytmicznego wzmacniania treści emocjonalnych.
Kryzys zaufania i zmęczenie informacją
Reuters Institute Digital News Report, jeden z największych globalnych raportów o stanie mediów, dokumentuje wieloletni spadek zaufania do informacji. W 2024 roku jedynie 40% respondentów w 47 badanych krajach deklarowało, że ufa większości wiadomości przez większość czasu, o cztery punkty procentowe mniej niż w szczycie pandemii COVID-19. Raport za 2025 rok potwierdza tę tendencję: zaufanie utrzymuje się na tym samym niskim poziomie, a w niektórych krajach, jak Grecja czy Węgry, spada do zaledwie 22%.
Równie alarmujący jest rosnący trend unikania wiadomości. W 2025 roku 40% respondentów globalnie deklarowało, że czasami lub często unika kontaktu z informacjami, w porównaniu z 29% w 2017 roku. W Bułgarii, Turcji i Chorwacji odsetek ten przekracza 60%. Ludzie nie unikają wiadomości dlatego, że są leniwi czy niezainteresowani. Unikają ich dlatego, że czują się przytłoczeni, zdezorientowani i bezsilni wobec potoku informacji, których nie potrafią zweryfikować. To racjonalna odpowiedź na irracjonalne środowisko informacyjne.
Gospodarka uwagi niszczy zaufanie dwutorowo. Z jednej strony algorytmy faworyzują treści emocjonalne i kontrowersyjne kosztem rzetelnych, co obniża ogólną jakość debaty. Z drugiej strony użytkownicy, bombardowani sprzecznymi przekazami, z których wiele pochodzi od botów i zorganizowanych sieci dezinformacyjnych, tracą zdolność do odróżnienia sygnału od szumu i zaczynają nie ufać nikomu, w tym źródłom, które na to zaufanie zasługują.
4. Dezinformacja jako efekt uboczny modelu biznesowego
Problem dystrybucji, nie treści
Dezinformacja bywa traktowana przede wszystkim jako problem fałszywych treści: ktoś tworzy kłamstwo, ktoś inny je czyta i wierzy. Ale to zbyt proste ujęcie. Fałszywe informacje istniały zawsze, od propagandy wojennej po plotki na rynku. Tym, co zmieniło się radykalnie w erze mediów społecznościowych, jest mechanizm dystrybucji. Kłamstwo, które dwadzieścia lat temu dotarłoby do kilkudziesięciu osób, dziś za pośrednictwem algorytmów i sieci botów może w ciągu godzin dotrzeć do milionów.
Jak opisujemy na stronie Problem internetu, algorytmy promują treści wywołujące najsilniejsze emocje. W tym dokumencie warto pokazać, dlaczego to prowadzi do systemowego wzmacniania dezinformacji. Fałszywe wiadomości, jak wykazało przytoczone wyżej badanie MIT, rozchodzą się szybciej niż prawdziwe, ponieważ są bardziej zaskakujące i emocjonalnie naładowane. Algorytmy optymalizujące pod zaangażowanie naturalnie promują treści, które generują więcej reakcji. W efekcie dezinformacja jest strukturalnie uprzywilejowana w obecnym modelu. Nie wygrywa dlatego, że jest bardziej przekonująca, ale dlatego, że generuje więcej klików, komentarzy i udostępnień, a to jest jedyną walutą, jaką algorytm rozumie.
Skala sztucznego ruchu
Problem pogłębia fakt, że znaczna część aktywności w internecie nie pochodzi od ludzi. Według raportu Imperva „Bad Bot Report” z 2024 roku ponad 51% globalnego ruchu w internecie jest generowane przez boty. Na poszczególnych platformach sytuacja jest zróżnicowana: Meta szacuje, że fałszywe konta stanowią około 4% aktywnych użytkowników Facebooka miesięcznie, co przy bazie ponad 3 miliardów użytkowników oznacza ponad 120 milionów fałszywych profili. Niezależne analizy innych platform sugerują, że skala nieautentycznych kont może być jeszcze wyższa. Więcej o tym, jak zweryfikowana tożsamość może rozwiązać ten problem, piszemy w dokumencie Tożsamość i zaufanie w sieci.
Boty i farmy kont nie działają losowo. Są wykorzystywane do tworzenia iluzji poparcia społecznego: gdy tysiące fałszywych kont jednocześnie promują określony przekaz, algorytmy platformy interpretują to jako organiczne zainteresowanie i wzmacniają go dalej. Prawdziwe posty prawdziwych ludzi giną w zalewie sztucznie podbitego przekazu. Użytkownicy, nie wiedząc o skali manipulacji, ulegają wrażeniu, że obserwują autentyczną opinię publiczną, podczas gdy w rzeczywistości widzą starannie wyreżyserowaną operację wpływu.
Deepfake’i i generatywna sztuczna inteligencja
Nowa generacja narzędzi opartych na generatywnej sztucznej inteligencji drastycznie obniża barierę wejścia dla dezinformacji. Jeszcze kilka lat temu stworzenie przekonującego fałszywego nagrania wideo wymagało zaawansowanej wiedzy technicznej i drogiego sprzętu. Dziś ogólnodostępne narzędzia pozwalają wygenerować realistycznie wyglądający deepfake w ciągu minut. Dotyczy to nie tylko wideo, ale również tekstu, obrazów i głosu. Treści generowane przez AI mogą być produkowane masowo, tanio i z precyzyjnym dopasowaniem do profilu psychologicznego odbiorcy.
Oznacza to, że problem dezinformacji, który już teraz przerasta możliwości moderacji, będzie się pogłębiał. Dotychczasowe podejście, polegające na identyfikowaniu i usuwaniu fałszywych treści, staje się coraz bardziej nieskuteczne w świecie, w którym koszt produkcji przekonującej dezinformacji dąży do zera, a jej ilość rośnie wykładniczo.
Dlaczego cenzura nie jest odpowiedzią
Instynktowną reakcją na dezinformację jest wołanie o usuwanie fałszywych treści. Ale ta strategia napotyka fundamentalne ograniczenia. Po pierwsze, skala: na sam YouTube co minutę trafiają setki godzin nowego materiału wideo. Żadna armia moderatorów, wspomagana jakimkolwiek algorytmem, nie jest w stanie przejrzeć tego w czasie rzeczywistym bez generowania masowych błędów, polegających na usuwaniu treści nieszkodliwych i przepuszczaniu tych naprawdę niebezpiecznych. Po drugie, szybkość kopiowania: nawet jeśli platforma usunie szkodliwą treść, jej kopie pojawiają się natychmiast w dziesiątkach innych miejsc. Po trzecie, spory definicyjne: nie istnieje powszechny konsensus co do tego, co stanowi „dezinformację”, a powierzenie komukolwiek, czy to państwu, czy prywatnej firmie, roli arbitra prawdy niesie poważne ryzyko nadużyć. Grupa ekspertów wysokiego szczebla powołana przez Komisję Europejską stwierdziła już w 2018 roku, że wszelkich form cenzury, zarówno publicznej, jak i prywatnej, należy unikać jako metody walki z dezinformacją.
Do tego dochodzi efekt paradoksalny: próby cenzurowania treści nierzadko przynoszą odwrotny skutek. Usunięty materiał zyskuje aurę „zakazanego” (efekt Streisand), a jego twórca staje się męczennikiem wolności słowa, co zwiększa, a nie zmniejsza, jego zasięg. To dlatego skuteczna odpowiedź na dezinformację nie może polegać na filtrowaniu treści post factum. Musi zmienić strukturę systemu, który dezinformację wzmacnia.
5. Dlaczego regulacja nie wystarczy
DSA: krok we właściwym kierunku, ale nie wystarczający
Akt o Usługach Cyfrowych (Digital Services Act, DSA), który wszedł w życie w Unii Europejskiej, jest najpoważniejszą dotychczasową próbą uregulowania platform cyfrowych. Nakłada na duże platformy obowiązki dotyczące transparentności algorytmów, moderacji treści, ochrony małoletnich i raportowania ryzyk systemowych. To istotny postęp w porównaniu z wcześniejszym stanem prawnym, w którym platformy działały niemal bez nadzoru.
DSA ma jednak fundamentalne ograniczenie: reguluje zachowanie platform, ale nie zmienia ich modelu biznesowego. Platforma, która zarabia na reklamach, nadal ma strukturalną motywację do maksymalizacji czasu spędzanego przez użytkownika, nawet jeśli musi teraz raportować, jak to robi, i podlegać audytom. To trochę jak regulowanie emisji spalin z silnika spalinowego: można je zmniejszyć, ale nie da się całkowicie wyeliminować problemu, dopóki napęd pozostaje ten sam. Prawdziwą zmianę przynosi zamiana silnika.
Podobną lekcję dostarcza RODO (GDPR), europejskie rozporządzenie o ochronie danych osobowych z 2018 roku. Intencje były ambitne: oddać obywatelom kontrolę nad ich danymi. W praktyce efekty są mieszane. Użytkownicy zyskali prawo do informacji i usunięcia danych, ale codzienne doświadczenie sprowadza się głównie do klikania „akceptuję pliki cookie” na każdej odwiedzanej stronie. Największe platformy dostosowały swoje procesy do wymogów regulacyjnych, nie zmieniając fundamentalnie sposobu, w jaki zbierają i wykorzystują dane. RODO jest lepsze niż brak regulacji, ale nie rozwiązało problemu, którego źródłem jest sam model biznesowy oparty na monetyzacji danych.
Moderacja treści na skalę globalną: zadanie niemożliwe
Nawet przy najlepszych intencjach i nieograniczonych zasobach, moderacja treści na skalę miliardów postów dziennie jest zadaniem, które przekracza możliwości zarówno ludzi, jak i algorytmów. Ludzcy moderatorzy cierpią z powodu wypalenia i traumy wynikającej z wielogodzinnego przeglądania drastycznych treści. Algorytmy z kolei nie radzą sobie z kontekstem, satyrą, ironią i niuansami kulturowymi, generując zarówno fałszywie pozytywne (usuwanie nieszkodliwych treści), jak i fałszywie negatywne wyniki (przepuszczanie treści faktycznie szkodliwych). Meta przyznaje, że nawet po latach inwestycji i miliardach dolarów wydanych na moderację, systemy te są dalekie od doskonałości.
Kluczowy argument brzmi: regulacja łata symptomy, ale nie zmienia przyczyny. Przyczyna leży w modelu biznesowym, który czyni zaangażowanie, a nie jakość, podstawową miarą wartości. Dopóki platforma zarabia więcej, gdy użytkownik jest oburzony, niż gdy jest spokojny, żadna regulacja nie sprawi, by system z własnej woli promował rzetelność kosztem prowokacji. Można nałożyć obowiązki raportowania, można wymagać audytów, można nakładać kary. Ale nie zmieni to faktu, że struktura motywacji wewnątrz systemu pozostaje taka sama.
6. Alternatywa: infrastruktura bez modelu reklamowego
Zmiana modelu zmienia wszystko
Jeśli platforma nie zarabia na uwadze użytkownika, nie ma powodu go uzależniać. Jeśli nie sprzedaje danych reklamodawcom, nie ma powodu ich zbierać. Jeśli algorytm nie jest optymalizowany pod zaangażowanie, nie musi promować oburzenia. Ta prosta obserwacja prowadzi do zasadniczego wniosku: problem nie leży w technologii jako takiej, ale w modelu biznesowym, który ją napędza. Zmiana modelu biznesowego zmienia wszystkie motywacje wewnątrz systemu.
Publiczna infrastruktura cyfrowa, finansowana ze środków publicznych i działająca bez modelu reklamowego, eliminuje ten podstawowy konflikt interesów. Algorytmy w takim systemie mogą być optymalizowane pod jakość informacji, nie pod czas spędzony na platformie. Interfejsy mogą być projektowane tak, by wspierać autonomię użytkownika, nie ją podważać. Dane użytkowników mogą pozostać pod ich kontrolą, bo nie ma podmiotu, który chciałby je monetyzować.
Precedensy: infrastruktura publiczna działa
Koncepcja publicznej infrastruktury informacyjnej nie jest utopią. Istnieją liczne precedensy instytucji, które dostarczają usługi informacyjne i kulturalne bez modelu reklamowego i cieszą się wysokim zaufaniem społecznym. Publiczne media, takie jak BBC w Wielkiej Brytanii czy ARD/ZDF w Niemczech, od dekad udowadniają, że rzetelne dziennikarstwo jest możliwe bez uzależnienia od reklamodawców. Publiczne biblioteki zapewniają bezpłatny dostęp do wiedzy. Publiczny transport umożliwia mobilność. W każdym z tych przypadków społeczeństwo uznało, że pewne usługi są zbyt ważne, by pozostawić je wyłącznie mechanizmom rynkowym, i stworzyło instytucje, które realizują je w modelu służby publicznej.
Infrastruktura cyfrowa zasługuje na to samo podejście. Tak jak nie zmuszamy obywateli do korzystania wyłącznie z prywatnych autostrad, tak nie powinniśmy zmuszać ich do korzystania wyłącznie z platform, których model biznesowy opiera się na eksploatacji ich uwagi. Europejska Superaplikacja jest propozycją takiego właśnie publicznego ekosystemu cyfrowego: otwartego, finansowanego publicznie, z audytowalnymi algorytmami i zweryfikowaną tożsamością użytkowników.
Od diagnozy do rozwiązania
Niniejszy dokument rozpoczął się od mapy systemu, który zamienia ludzką uwagę w towar. Prześledził mechanizmy psychologiczne, za pomocą których platformy ten towar wydobywają. Pokazał skutki społeczne: polaryzację, kryzys zdrowia psychicznego młodzieży, erozję zaufania. Opisał, dlaczego dezinformacja jest nie błędem, lecz cechą systemu. I uzasadnił, dlaczego samo regulowanie tego systemu nie wystarczy.
Łącząc te elementy, dochodzimy do wniosku, który jest zarazem prosty i radykalny: potrzebujemy nie lepszego regulowania gospodarki uwagi, ale alternatywy dla niej. Infrastruktury cyfrowej, która od fundamentu jest zaprojektowana tak, by służyć obywatelom, nie eksploatować ich uwagę. Na stronie Finansowanie pokazujemy, jak konkretnie taka infrastruktura może zostać sfinansowana ze środków publicznych, bez modelu reklamowego i bez uzależnienia od dobrej woli prywatnych korporacji.