Problem Internetu
Spis treści
- Uwaga jako surowiec
- Internet bez ludzi
- Dezinformacja
- Dzieci na linii ognia
- Brak przejrzystości i odpowiedzialności
- Sztuczna inteligencja podnosi stawkę
- Infrastruktura, która nie jest publiczna
- Dlaczego to wymaga nowej odpowiedzi
Problem internetu
Internet stał się infrastrukturą codzienności: edukacji, informacji, relacji i usług. A jednak często działa jak rynek uwagi, w którym zasady ustala właściciel.
Znasz to uczucie. Otwierasz telefon „na chwilę”. Jedno powiadomienie, krótki film, jeszcze jeden. Miało być pięć minut, a mija dwadzieścia. Nie dlatego, że brakuje Ci silnej woli, tylko dlatego, że większość współczesnych platform jest projektowana tak, by jak najdłużej zatrzymać Cię na ekranie.
W tym modelu uwaga jest towarem. Algorytm nie pyta, co jest dla Ciebie dobre, tylko co sprawi, że zareagujesz. Najłatwiej zatrzymują emocje: oburzenie, strach, konflikt, poczucie plemienia. Dlatego internet coraz częściej przypomina maszynę do eskalacji, a nie narzędzie do porozumienia.
To dopiero początek. Coraz większa część „rozmowy” w sieci nie jest rozmową ludzi, tylko automatyzacją: boty, fikcyjne konta, sztucznie podbijane trendy. Do tego dochodzi brak przejrzystości: nie wiesz, dlaczego widzisz jedne treści, a inne znikają. A infrastruktura, przez którą przechodzą nasze dane, pieniądze i usługi publiczne, wciąż w dużej mierze należy do kilku prywatnych firm i podlega ich regułom.
Ten tekst porządkuje problem: co dokładnie się zepsuło i dlaczego nie wystarczy łatać starego systemu. Nie po to, by narzekać. Po to, by pokazać, że da się zbudować cyfrową przestrzeń, która działa dla ludzi.
W skrócie:
- Internet działa dziś jak rynek uwagi, nie jak neutralna infrastruktura.
- Boty i algorytmy zniekształcają debatę publiczną i szkodzą dzieciom.
- Potrzebujemy przestrzeni cyfrowej z weryfikacją człowieka, prywatnością i audytowalnymi regułami.
Uwaga jako surowiec
Większość największych platform działa według tej samej logiki. Ich celem nie jest to, by użytkownikowi było lepiej. Ich celem jest to, by użytkownik został jak najdłużej, wracał jak najczęściej i reagował jak najsilniej. Uwaga stała się paliwem systemu, a człowiek stał się źródłem danych.
W praktyce oznacza to, że promowane są treści, które najszybciej wywołują reakcję: zaskoczenie, oburzenie, strach, pogardę, poczucie przynależności do plemienia. Treści spokojne, rzeczowe i uczciwe przegrywają, bo nie wytwarzają tak silnego impulsu. Badania potwierdzają, że posty wywołujące gniew i podziały rozchodzą się w mediach społecznościowych znacznie szerzej niż neutralne analizy. Przestrzeń cyfrowa zaczyna przypominać maszynę do eskalacji, a nie narzędzie do porozumienia.
To działa jak nałóg. Powiadomienia, rekomendacje, krótkie formaty, nieskończone przewijanie. Wszystko po to, by człowiek oddał kolejne minuty. Nawet w branży przyznaje się, że te mechanizmy bywają „uzależniające w skutkach”. Aplikacje są celowo zaprojektowane tak, by wywoływać mikrodawki dopaminy. W tej walce użytkownik jest z góry na przegranej pozycji, bo mierzy się z systemem testowanym na miliardach ludzi i optymalizowanym każdego dnia.
Internet bez ludzi
Jest faktem, który powinien wstrząsnąć każdym użytkownikiem sieci: według raportu Imperva z 2024 roku ponad połowa — dokładnie 51% — globalnego ruchu w internecie jest generowana przez boty, a nie przez żywych ludzi. Meta raportuje, że fałszywe konta na Facebooku stanowiły ok. 3% globalnych miesięcznie aktywnych użytkowników w Q1 2025 oraz 4% w Q2 2025. To pokazuje skalę problemu nawet przy dużych inwestycjach w moderację. Na części innych platform skala kont nieautentycznych jest jeszcze wyższa i stanowi istotny, choć trudny do precyzyjnego zmierzenia problem.
Wkraczamy w erę „Martwego Internetu”, gdzie znacząca część interakcji to maszyny rozmawiające z maszynami, a ludzie są zagubionymi widzami tego teatru. Kiedy tysiące fałszywych kont jednocześnie promują jakiś przekaz, a algorytmy platformy go wzmacniają, zwykli użytkownicy ulegają wrażeniu, że to opinia większości. Trendy, które obserwujemy, „burze”, które wybuchają, i emocje, które nam się udzielają, są w dużej mierze sztucznie wykreowane.
U źródła tego problemu leży anonimowość, która w obecnym modelu internetu chroni głównie boty i trolli, a nie obywateli. Jeden człowiek lub jeden algorytm może stworzyć tysiące kont i zalać przestrzeń publiczną szumem, którego nie da się odróżnić od prawdziwej rozmowy. W wyjątkowych sytuacjach anonimowość bywa potrzebna: dla sygnalistów, ofiar przemocy, osób żyjących pod presją autorytarnych reżimów. Problem zaczyna się wtedy, gdy anonimowość staje się domyślnym trybem komunikacji masowej, bo wtedy wygrywają ci, którzy mogą produkować tysiące tożsamości naraz.
Prawdziwa prywatność wymaga bezpiecznej tożsamości, a nie maski, którą może założyć każdy bot. Dopóki nie odróżnimy człowieka od automatu, dezinformacja będzie wygrywać nie dlatego, że jest bardziej przekonująca, lecz dlatego, że jest agresywnie pompowana systemowo.
Nie chodzi przy tym o system do śledzenia obywateli. Weryfikacja tożsamości to potwierdzenie, że po drugiej stronie jest człowiek, przy minimalnym ujawnianiu danych osobowych. Prywatność i tożsamość nie muszą stać w sprzeczności. Nowoczesna kryptografia pozwala je pogodzić: da się potwierdzić, że spełniasz warunek (np. jesteś pełnoletni albo jesteś unikalnym człowiekiem), nie ujawniając przy tym swojej tożsamości.
Dezinformacja: problem dystrybucji, nie treści
Dezinformacja kojarzy się przede wszystkim z fałszywymi informacjami. Ale prawdziwy problem leży gdzie indziej, w sposobie dystrybucji. W dobie mediów społecznościowych kłamstwo może obiec świat szybciej niż zdąży zostać sprostowane, głównie za sprawą botów, farm trolli i algorytmów promujących skrajne emocje.
Cenzura, rozumiana jako proste usuwanie treści, nie radzi sobie z tą skalą. Na sam YouTube w każdej minucie szacunkowo pojawiają się setki godzin nowego materiału wideo. Żadna armia moderatorów tego nie przejrzy. A im bardziej polegamy na maszynowym filtrowaniu, tym częściej algorytmy usuwają nieszkodliwe treści, przepuszczając te naprawdę niebezpieczne.
Problem nie dotyczy tylko polityki. Dotyczy zdrowia, edukacji, finansów, relacji i bezpieczeństwa. Jeśli nie potrafimy odróżnić rzetelnej informacji od manipulacji, społeczeństwo zaczyna podejmować decyzje na błędnych danych. A to zawsze kończy się źle.
Dzieci na linii ognia
Jednym z najbardziej dramatycznych wymiarów tego kryzysu jest wpływ platform na zdrowie psychiczne dzieci i młodzieży. Dostępne dane zdrowia publicznego pokazują istotne ryzyko: u młodych osób korzystających z mediów społecznościowych ponad 3 godziny dziennie obserwuje się około dwukrotnie wyższe ryzyko problemów psychicznych, w tym objawów lęku i depresji.
Algorytmy behawioralne, zaprojektowane w celu maksymalizacji zaangażowania, promują treści kontrowersyjne lub szkodliwe, by zatrzymać użytkownika przed ekranem. Mechanizmy dopaminowe (lajki, powiadomienia, nieskończone przewijanie) u dzieci z jeszcze nie w pełni wykształconym układem hamowania w korze przedczołowej prowadzą do patologicznego przywiązania. A „bariery wiekowe” to przez lata jedynie proste deklaracje typu „mam 13 lat”, które każde dziecko potrafi obejść.
W latach 2024–2026 coraz więcej państw i instytucji odeszło od założenia, że platformy same się uregulują. Australia przyjęła przepisy ograniczające dostęp osób poniżej 16 roku życia do części mediów społecznościowych, a tamtejszy urząd eSafety wdraża konkretne obowiązki dla platform. UE równolegle opublikowała wytyczne ochrony małoletnich na podstawie Aktu o Usługach Cyfrowych (DSA) oraz techniczne standardy prywatnościowej weryfikacji wieku, kompatybilne z Europejskim Portfelem Tożsamości Cyfrowej (EUDI Wallet), który państwa UE mają udostępnić do 2026 roku. Rządy na całym świecie zaczęły postrzegać media społecznościowe nie jako neutralne usługi, ale jako środowiska wysokiego ryzyka dla rozwoju młodego pokolenia.
Brak przejrzystości i odpowiedzialności
Kluczowe decyzje o tym, co widzimy i w co wierzymy, są podejmowane poza kontrolą społeczną. Algorytmy rekomendacji są zamknięte. Zasady moderacji są niejasne. Użytkownik nie ma wglądu w to, dlaczego dana treść została wypchnięta do milionów ludzi, a inna zniknęła bez śladu. Dwie osoby mogą otrzymać zupełnie różne informacje na ten sam temat i żadna z nich nie wie, dlaczego.
W UE kierunek regulacyjny jest już jasny: Akt o Usługach Cyfrowych wymaga, by użytkownik wiedział, według jakich głównych parametrów działa system rekomendacji, a największe platformy o bardzo dużym zasięgu muszą dawać także opcje nieoparte na profilowaniu. To ważny krok, ale sama regulacja nie wystarczy, dopóki kod pozostaje zamknięty.
Co gorsza, gdy system popełni błąd (zablokuje konto bez powodu, pominie ważną wiadomość, błędnie odrzuci wniosek), nie mamy jak tego zweryfikować ani dochodzić praw. W 2022 roku Google automatycznie zablokował użytkownikowi całe konto po tym, jak algorytm błędnie oznaczył zdjęcia chorego dziecka jako zakazane treści. Mimo że policja oczyściła go z zarzutów, firma odmówiła przywrócenia dostępu. Użytkownik pozostał bez odwołania i bez danych.
Rozwiązaniem nie jest „lepszy algorytm korporacyjny”. Rozwiązaniem jest algorytm, który każdy może sprawdzić. Dopóki kod źródłowy platform pozostaje ich tajemnicą handlową, dopóty zaufanie opiera się na obietnicach, a nie na dowodach. Model „zaufaj nam” nie skaluje się na miliardy interakcji. Masowe zaufanie musi wynikać z możliwości weryfikacji: z otwartego kodu, niezależnych audytów i jawnych zasad działania.
Sztuczna inteligencja podnosi stawkę
Ten problem będzie się pogłębiał. Sztuczna inteligencja potrafi już generować tekst, obraz i wideo na masową skalę, w jakości, która coraz częściej jest nieodróżnialna od materiałów tworzonych przez ludzi. Deepfake’i, syntetyczne profile, automatycznie generowane artykuły i komentarze stają się codziennością.
Jednocześnie AI wchodzi do usług publicznych: podejmuje lub wspiera decyzje o świadczeniach, zdrowiu, edukacji, kredytach. Gdy algorytm odrzuca wniosek i nikt nie umie powiedzieć dlaczego, powstaje nowy rodzaj bezsilności. W amerykańskim stanie Michigan automatyczny system wykrywania nadużyć bez żadnej weryfikacji oskarżył ponad 20 000 osób o wyłudzenie zasiłku. 93% tych oskarżeń okazało się bezpodstawnych.
Jeśli dziś z trudem rozpoznajemy manipulację, jutro będzie to jeszcze trudniejsze. A jeśli przestrzeń publiczna przenosi się do cyfrowego świata, to bez zaufanej infrastruktury cyfrowej demokracja, edukacja i bezpieczeństwo społeczne zaczynają się chwiać.
Infrastruktura, która nie jest publiczna
Jest jeszcze jeden, głębszy wymiar tego kryzysu. Dzisiejszy internet pełni funkcję infrastruktury. Przez niego przechodzą rozmowy, transakcje, edukacja, informacja, relacje i procesy państwowe. A mimo to w ogromnej części jest prywatny, scentralizowany i nastawiony na interes właścicieli.
To tak, jakby drogi należały do jednej firmy, a zasady ruchu zmieniały się w zależności od tego, co akurat jest opłacalne. Europejskie rządy przez dwie dekady funkcjonowały w stanie cyfrowej naiwności. Wygoda, niska cena i łatwość wdrożenia sprawiły, że infrastruktura krytyczna państw, od poczty elektronicznej po chmurę danych, znalazła się w rękach kilku amerykańskich korporacji.
Problemem jest nie tylko to, co widzimy na ekranie, ale też to, gdzie nasze dane fizycznie się znajdują i czyje prawo nad nimi obowiązuje. Gdy europejskie dane leżą na serwerach objętych jurysdykcją państw trzecich (na przykład amerykańskim CLOUD Act, który umożliwia transgraniczny dostęp do danych), europejskie regulacje mogą okazać się niewystarczające do ich pełnej ochrony. To nie jest kwestia politycznych sloganów: to konkretny problem prawny i architektoniczny. Nie ma suwerenności cyfrowej bez fizycznej kontroli nad infrastrukturą.
Dlaczego to wymaga nowej odpowiedzi
Ten problem nie zniknie sam. Regulacje pomagają, ale technologia porusza się szybciej niż prawo. Cenzura treści nie radzi sobie ze skalą. Apele o samoregulację platform nie działają, bo stoją w sprzeczności z ich modelem biznesowym.
Potrzebujemy fundamentalnej zmiany podejścia. Nie kolejnej aplikacji i nie kolejnej platformy opartej na reklamach, ale cyfrowej przestrzeni, która od początku jest projektowana inaczej. Takiej, w której:
- każdy użytkownik to zweryfikowany człowiek, a nie anonimowe konto, które może być botem, przy jednoczesnej minimalizacji ujawnianych danych osobowych;
- kod źródłowy jest otwarty i każdy (obywatel, naukowiec, regulator) może go sprawdzić i poddać niezależnemu audytowi;
- dane pozostają pod kontrolą europejskiego prawa, na europejskiej infrastrukturze;
- mechanizmy działania są jawne, a zasady nie zmieniają się w zależności od interesów właściciela.
Tak jak w XXI wieku potrzebujemy bezpiecznych dróg, uczciwych zasad w energetyce i przejrzystych reguł w finansach, tak samo potrzebujemy cyfrowej infrastruktury, która jest dobrem publicznym. Nie prywatnym centrum handlowym, ale drogą, energią i wodą. Dla wszystkich, według jasnych zasad.
To nie jest walka z internetem. To próba odzyskania internetu jako przestrzeni dla ludzi.