Wstęp: Utracony Raj Cyfrowy
Kiedy trzydzieści lat temu internet wkraczał do naszych domów, towarzyszyła mu obietnica, która brzmiała niemal jak religijne objawienie. Wierzyliśmy, że budujemy nową, wspaniałą agorę – przestrzeń wolną od uprzedzeń, barier geograficznych i hierarchii społecznych. W tym cyfrowym raju każdy miał być równy. Tożsamość fizyczna – nasz wygląd, kolor skóry, wiek czy status majątkowy – miała zostać zastąpiona przez czystą myśl. Symbolem tej epoki stał się słynny rysunek z „The New Yorker”, na którym jeden pies mówi do drugiego, siedząc przed komputerem: „W internecie nikt nie wie, że jesteś psem”. To zdanie, wówczas zabawne i wyzwalające, z perspektywy czasu brzmi jak ponure proroctwo.
Dziś, stojąc u progu trzeciej dekady XXI wieku, musimy spojrzeć prawdzie w oczy: ten eksperyment, w swojej pierwotnej, naiwnej formie, zakończył się niepowodzeniem. Internet, który miał nas łączyć, stał się narzędziem najskuteczniejszej w historii ludzkości polaryzacji. Przestrzeń, która miała służyć wymianie wiedzy, została zalana toksycznym ściekiem dezinformacji. A anonimowość – ta wielka, święta krowa wczesnego internetu, która miała być tarczą dla słabych przeciwko silnym – stała się najpotężniejszą bronią w rękach agresorów, cynicznych korporacji i wrogich reżimów.
Jako Open Digital Foundation, po latach badań, analiz i obserwacji, stawiamy tezę, która dla wielu może wydawać się kontrowersyjna, ale która jest niezbędna dla przetrwania naszego społeczeństwa: anonimowość w internecie przestała działać. Stała się rakiem toczącym tkankę społeczną. Jeśli chcemy odzyskać sieć dla ludzi, musimy dokonać fundamentalnej zmiany w architekturze zaufania. Musimy przejść od modelu, w którym każdy może być nikim (lub milionem nikim), do modelu, w którym każdy jest kimś. Do modelu „jedna osoba = jedno konto”.
W niniejszym raporcie zabierzemy Państwa w podróż przez mroczne zakamarki dzisiejszej sieci – od farm trolli generujących miliony kłamstw, przez psychologiczne mechanizmy nienawiści, aż po techniczne laboratoria, w których rodzi się nowa nadzieja. Pokażemy, że koniec anonimowości nie musi oznaczać końca prywatności. Wręcz przeciwnie – pokażemy, jak nowoczesna kryptografia i model „Intranetu Ludzi” mogą dać nam wolność, o jakiej marzyli pionierzy internetu, ale bez zagrożeń, które dziś paraliżują naszą codzienność. To wizja Cyfrowego Domu, w którym wreszcie będziemy mogli poczuć się bezpiecznie.
Rozdział I: Anatomia Upadku. Dlaczego straciliśmy kontrolę?
Aby zrozumieć, dlaczego zmiana jest konieczna, musimy najpierw w pełni pojąć skalę katastrofy, która rozgrywa się na naszych oczach. Wielu z nas intuicyjnie czuje, że „coś jest nie tak” z dzisiejszym internetem. Czujemy się zmęczeni agresją, nieufni wobec newsów, przytłoczeni reklamami. Ale rzadko zdajemy sobie sprawę, że to nie jest naturalna ewolucja ludzkich zachowań. To wynik systemowego błędu w założeniach sieci.
Plaga nie-ludzi. Internet jako Martwa Strefa
Zacznijmy od faktu, który powinien wstrząsnąć każdym użytkownikiem sieci: internet w dużej mierze przestał być siecią ludzi. Według przełomowego raportu „Bad Bot Report” przygotowanego przez firmę Imperva w 2024 roku, przekroczyliśmy historyczny i niebezpieczny punkt krytyczny. Ponad połowa – dokładnie 51% – całego globalnego ruchu w internecie jest generowana przez boty, a nie przez żywych ludzi.1
Zastanówmy się nad tym przez chwilę. Kiedy otwierasz przeglądarkę, kiedy scrollujesz media społecznościowe, kiedy czytasz komentarze pod artykułem – statystycznie rzecz biorąc, częściej obcujesz z aktywnością automatu niż drugiego człowieka. Wkraczamy w erę tzw. „Martwego Internetu” (Dead Internet Theory), gdzie większość interakcji to maszyny rozmawiające z maszynami, a ludzie są tylko zagubionymi widzami tego teatru.
Sytuacja jest szczególnie dramatyczna na platformach, które z założenia miały służyć debacie publicznej. Szacunki dotyczące platformy X (dawniej Twitter) są alarmujące – analizy wskazują, że nawet 64% wszystkich kont na tej platformie może należeć do botów lub być nieautentycznych.3 Oznacza to, że trendy, które obserwujemy, „burze”, które wybuchają, i emocje, które nam się udzielają, są w dużej mierze sztucznie wykreowane. Nie są odzwierciedleniem nastrojów społecznych, ale wynikiem działania algorytmów zaprojektowanych, by nami manipulować. Nawet ostrożniejsze szacunki, takie jak te dostarczane przez firmy analityczne typu BotNot czy Yofi.ai, mówią o tym, że od 1/4 do 1/3 aktywnych użytkowników dziennie to konta fałszywe.3
To nie jest problem techniczny, który można naprawić lepszym filtrem antyspamowym. To problem egzystencjalny. W świecie fizycznym, jeśli na wiec wyborczy przyjdzie tysiąc osób, widzimy tysiąc twarzy. W świecie cyfrowym jeden człowiek wyposażony w odpowiednie oprogramowanie może symulować tłum miliona osób. Może krzyczeć milionem gardeł, zagłuszając każdy inny głos. Anonimowość, pozwalająca na zakładanie nieskończonej liczby kont bez weryfikacji tożsamości, stała się fundamentem tego oszustwa.
Studium Kłamstwa: 34 miliony głosów, które nie istniały
Abstrakcyjne statystyki o botach nabierają przerażającego wymiaru, gdy spojrzymy na konkretne przypadki ich użycia przeciwko społeczeństwu. Polska stała się w ostatnich latach jednym z głównych celów cyberwojny informacyjnej. Śledztwa dziennikarskie (m.in. VSquare i OKO.press) oraz raporty organizacji cyberbezpieczeństwa ujawniły skalę operacji, która powinna być dzwonkiem alarmowym dla każdego obywatela.
W pierwszych miesiącach 2024 roku, tylko jedna zorganizowana grupa – tzw. „farma trolli” powiązana z rosyjskim aparatem wpływu (Social Design Agency) – wygenerowała w polskim internecie 33,9 miliona komentarzy.3
Proszę spróbować wyobrazić sobie tę liczbę. Trzydzieści cztery miliony. To niemal tyle, ile wynosi populacja całego naszego kraju. Ta cyfrowa armia, działająca pod osłoną anonimowości, nie wrzucała do sieci przypadkowych treści. Ich działania były precyzyjne, chirurgiczne i bezwzględne. Opublikowali również blisko 40 tysięcy postów i grafik, których celem było jedno: zniszczenie spójności społecznej.
Te boty i trolle nie wyglądały jak automaty. Dzięki wykorzystaniu Generatywnej Sztucznej Inteligencji (GenAI), ich wypowiedzi były gramatycznie poprawne, nasycone emocjami, dopasowane do kontekstu kulturowego. Udawali „zwykłych Polaków”: zatroskane matki bojące się o przyszłość dzieci, wściekłych rolników, rozczarowanych wyborców, patriotów. Wchodzili w dyskusje, podsycali lęki, szczuli jednych na drugich.
W systemie, w którym nie ma weryfikacji „jedna osoba = jedno konto”, obrona przed takim atakiem jest niemożliwa. Platformy społecznościowe chwalą się, że usuwają miliony kont – TikTok w samym pierwszym kwartale 2024 roku usunął ich 171 milionów 3 – ale to walka z Hydrą. Usunięcie jednego konta zajmuje platformie czas i zasoby. Założenie nowego przez bota zajmuje milisekundy i kosztuje ułamki grosza. To asymetryczna wojna, którą jako społeczeństwo przegrywamy każdego dnia.
Psychologia Maski: Dlaczego stajemy się potworami?
Problem z anonimowością nie dotyczy jednak tylko botów i agentów wpływu. Dotyczy on nas samych – zwykłych ludzi. Psychologia internetu od lat bada zjawisko znane jako efekt odhamowania online (online disinhibition effect).6 Badacze, tacy jak John Suler, udowodnili, że brak widocznej tożsamości, brak kontaktu wzrokowego i poczucie „bycia niewidzialnym” drastycznie redukują u ludzi poczucie odpowiedzialności społecznej i empatii.
Zdejmując twarz i zakładając maskę nicka „Anon123”, wielu z nas przechodzi niepokojącą transformację. Mechanizmy kontroli społecznej – wstyd, obawa przed oceną sąsiadów, reputacja – które w świecie fizycznym powstrzymują nas przed wyzwaniem nieznajomego na ulicy czy opluciem kogoś w sklepie, w sieci przestają działać. Ekran komputera staje się murem, zza którego można rzucać kamieniami bez ryzyka, że kamień poleci w naszą stronę.
Statystyki są w tym zakresie nieubłagane i przygnębiające. Analiza tysięcy komentarzy na portalach informacyjnych wykazała, że 53% wypowiedzi dodawanych przez użytkowników w pełni anonimowych miało charakter agresywny, wulgarny lub obelżywy. Dla porównania, wśród użytkowników, którzy podpisywali się imieniem i nazwiskiem (nawet jeśli nie była to pełna weryfikacja, a jedynie logowanie przez profil społecznościowy), odsetek ten wynosił 28,7%.3 Anonimowość jest więc paliwem dla agresji.
Ta „toksyczna swoboda” ma realne, często tragiczne ofiary. Hejt w sieci to nie są tylko piksele na ekranie. To zniszczone kariery, to nastolatki wpadające w depresję, to samookaleczenia i samobójstwa. Bezkarność sprawców w obecnym modelu jest niemal całkowita. Jeśli użytkownik o nicku „ZniszczeCie666” zostanie zablokowany za nękanie, w ciągu minuty może wrócić jako „ZniszczeCie667”. To sprawia, że ofiary czują się osaczone i bezradne, a sprawcy – wszechmocni. System, który pozwala na nieskończone odradzanie się agresora, jest systemem fundamentalnie niesprawiedliwym i nieludzkim.
Ekonomia Oszustwa: Podatek od braku zaufania
Kryzys zaufania wywołany anonimowością uderza nie tylko w nasze dusze i demokrację, ale także w nasze portfele. Anonimowość stała się fundamentem gigantycznego, globalnego przemysłu fałszywych opinii i recenzji.
Żyjemy w czasach, w których przed zakupem odkurzacza, wyborem lekarza czy rezerwacją hotelu, 95% z nas sprawdza opinie w internecie. Ufamy „społecznemu dowodowi słuszności”. Tymczasem szacuje się, że od 30% do nawet 47% recenzji produktów i usług w sieci to fałszywki.3
Firmy wynajmują „farmy klakierów” lub używają prostych algorytmów AI do generowania tysięcy pozytywnych ocen dla siebie i negatywnych dla konkurencji. Ponieważ założenie konta w serwisie z opiniami nie wymaga potwierdzenia, że jest się unikalnym człowiekiem, jedna osoba może w ciągu godziny wystawić sto recenzji. Straty globalne z tego tytułu są szacowane na niewyobrażalne kwoty – prognozy na rok 2025 mówią o 770 miliardach dolarów strat.3
Płacimy za to my wszyscy. Kupujemy gorsze produkty, sugerując się pięcioma gwiazdkami. Przepłacamy za usługi, które nie są tego warte. Uczciwi przedsiębiorcy, którzy nie chcą oszukiwać, bankrutują, przegrywając z nieuczciwą konkurencją. Anonimowość, która w teorii miała chronić konsumenta przed zemstą korporacji za szczerą krytykę, stała się narzędziem korporacji do oszukiwania konsumenta na masową skalę.
Rozdział II: Wielkie Nieporozumienie. Prywatność to nie Anonimowość
Zanim przedstawimy rozwiązanie, musimy rozprawić się z jednym z największych i najbardziej szkodliwych mitów współczesnej debaty o prawach cyfrowych. Mitem tym jest utożsamianie prywatności z anonimowością. W dyskursie publicznym pojęcia te są używane zamiennie, co prowadzi do błędnych wniosków i paraliżu decyzyjnego. Tymczasem są to dwa fundamentalnie różne stany, niosące ze sobą zupełnie inne wartości i zagrożenia.
Definicja Granic
Anonimowość to stan, w którym nikt nie wie, kim jesteś. Jesteś duchem. Nie masz historii, nie masz twarzy, nie masz imienia. Twoje czyny nie są przypisane do Ciebie. W tłumie zamaskowanych postaci nie można nikomu zaufać, bo nie wiemy, czy ta sama osoba nie założyła pięciu masek, by nas osaczyć. Anonimowość to ucieczka od tożsamości i – co kluczowe – ucieczka od odpowiedzialności. W świecie fizycznym odpowiednikiem anonimowości jest założenie kominiarki i usunięcie tablic rejestracyjnych z samochodu.
Prywatność to coś zupełnie innego. To prawo do kontroli nad własnymi danymi. To stan, w którym masz tożsamość, jesteś konkretną osobą, ale to Ty decydujesz, komu i w jakim zakresie tę tożsamość ujawniasz. To prawo do zamknięcia drzwi swojego domu, zasłonięcia okien, zachowania tajemnicy korespondencji. Prywatność to ochrona intymności, a nie ucieczka od odpowiedzialności za swoje czyny. W świecie fizycznym odpowiednikiem prywatności są ściany twojego mieszkania, koperta, w której wysyłasz list, czy zasłona w kabinie do głosowania.
Dlaczego musimy to rozdzielić?
Misją Open Digital Foundation nie jest likwidacja prywatności. Wręcz przeciwnie – naszym celem jest jej radykalne wzmocnienie poprzez oddzielenie jej od patologicznej anonimowości.
Zastanówmy się nad analogią z życia codziennego. Nie chodzimy po ulicach w kominiarkach (anonimowość). Jeśli ktoś to robi, wzbudza uzasadniony lęk, bo zazwyczaj oznacza to zamiar popełnienia przestępstwa. Jednak fakt, że chodzimy z odsłoniętą twarzą, nie oznacza, że każdy przechodzień ma prawo wiedzieć, co mamy w kieszeniach, o czym rozmawiamy z żoną czy na co chorujemy (prywatność).
Kiedy wchodzimy do banku, urzędu, a nawet biurowca, legitymujemy się. Potwierdzamy: „Tak, jestem Janem Kowalskim”. To buduje zaufanie. Bankier wie, że rozmawia z Janem Kowalskim, a nie z oszustem. Ale ten fakt wylegitymowania się nie daje bankierowi prawa do śledzenia nas w domu, podglądania przez dziurkę od klucza czy czytania naszych pamiętników.
W internecie pozwoliliśmy na absurdalną sytuację, w której „ludzie w kominiarkach” (anonimowi trole, boty) biegają po naszych cyfrowych „ulicach” (platformach społecznościowych), niszcząc witryny, atakując przechodniów i kradnąc naszą uwagę, a my bronimy ich prawa do noszenia tych kominiarek w imię… prywatności. To błąd logiczny i moralny. Broniąc anonimowości botów, niszczymy bezpieczeństwo i prywatność ludzi.
Metafora Przyłbicy
Nasza propozycja to zmiana metafory. Musimy zdjąć maski, ale założyć przyłbice.
Maska (anonimowość) służy do ukrywania się i ataku z ukrycia. Maska mówi: „Nie wiesz, kim jestem, więc mogę ci zrobić krzywdę i uciec”.
Przyłbica (prywatność chroniona prawem i nowoczesną kryptografią) służy do ochrony. Rycerz w przyłbicy jest zidentyfikowany – widać jego herb, wiadomo, że jest jeden i unikalny. Ale jego twarz jest chroniona przed ciosami, a jego myśli pozostają jego własnością.
W modelu „Intranetu Ludzi”, który proponujemy, użytkownik chodzi z podniesioną przyłbicą – jest otwarty, autentyczny, odpowiedzialny za swoje słowa. Ale w każdej chwili, gdy czuje zagrożenie, system kryptograficzny (jego zbroja) chroni jego wrażliwe dane przed niepowołanym wzrokiem korporacji czy rządu. To prywatność godna XXI wieku – prywatność silna, ale odpowiedzialna.
Rozdział III: Intranet Ludzi – Wizja Rozwiązania 1:1
Skoro diagnoza jest jasna – anonimowość niszczy sieć, a boty wypierają ludzi – to jakie jest lekarstwo? Odpowiedzią, nad którą pracują eksperci Open Digital Foundation wraz z partnerami ze świata nauki, jest koncepcja „Intranetu Ludzi”. To przestrzeń cyfrowa oparta na prostej, ale rewolucyjnej zasadzie: Jedna Osoba = Jedno Konto.
W tej wizji, aby uzyskać dostęp do sieci usług cyfrowych, użytkownik musi przejść jednorazowy proces weryfikacji. Proces ten nie pyta o to, jakie masz poglądy, ile zarabiasz, czy co lubisz kupować. Potwierdza on tylko jedną, fundamentalną rzecz: że jesteś unikalną, żywą istotą ludzką. Że nie jesteś botem. Że nie jesteś farmą trolli. Że nie jesteś duplikatem innej osoby.
To zmiana paradygmatu. Obecnie systemy pytają: „jakie masz hasło?”. My chcemy, by system pytał: „czy jesteś człowiekiem?”. W takim ekosystemie każdy głos w dyskusji ma wagę jednego człowieka. Farma trolli staje się bezużyteczna, bo jeden funkcjonariusz może mieć tylko jedno konto. Jeśli zostanie zablokowany za łamanie prawa (np. za groźby karalne), traci dostęp. Nie może w pięć sekund założyć nowego konta, bo nie ma „nowej tożsamości biologicznej”, którą mógłby zweryfikować. To przywraca realną stawkę za zachowanie online. Odpowiedzialność wraca do sieci.
Jak to działa? Technologia w służbie prywatności (ZKP)
W tym miejscu zazwyczaj pojawia się strach. Czy weryfikacja 1:1 nie oznacza stworzenia globalnego systemu inwigilacji? Czy nie budujemy cyfrowego obozu koncentracyjnego, gdzie Wielki Brat wie o nas wszystko? Czy muszę wysłać skan dowodu osobistego do Marka Zuckerberga?
Odpowiedź brzmi: Absolutnie NIE.
Właśnie tutaj leży innowacja, którą promuje nasza Fundacja. Rozwiązaniem nie jest oddanie danych korporacjom czy rządom. Rozwiązaniem jest matematyka. Wykorzystujemy technologię Zero-Knowledge Proofs (ZKP) – Dowodów z Wiedzą Zerową. Jest to kryptograficzny przełom, który pozwala udowodnić, że coś jest prawdą, nie ujawniając żadnych innych informacji na ten temat.9
Aby zrozumieć ZKP, posłużmy się analogią „Barmana i Dowodu Osobistego”.
Stary System (Obecny Świat):
Wyobraź sobie, że idziesz do baru i chcesz kupić piwo. Barman prosi o dowód tożsamości, by sprawdzić, czy masz 18 lat. Wyciągasz plastikowy dowód. Barman patrzy i widzi: Twoje zdjęcie, Twoje pełne imię i nazwisko, dokładną datę urodzenia (wie więc, kiedy masz urodziny), a często nawet Twój adres zamieszkania.
To jest nadmiar danych. Naruszasz swoją prywatność w ogromnym stopniu, tylko po to, by potwierdzić jeden prosty fakt (wiek > 18). Barman nie potrzebuje wiedzieć, gdzie mieszkasz, ale system zmusza Cię do ujawnienia tego.
Nowy System (ZKP / Intranet Ludzi):
Wchodzisz do baru w Intranecie Ludzi. Chcesz kupić piwo. Zamiast dowodu, przykładasz swój cyfrowy portfel (np. w telefonie). System wykonuje skomplikowaną operację matematyczną i wyświetla barmanowi tylko jeden komunikat: „TAK” (zielone światło).
Barman nie widzi Twojego nazwiska. Nie widzi Twojej daty urodzenia. Nie widzi Twojego adresu. Widzi tylko matematyczny dowód na to, że spełniasz warunek „wiek > 18”. Matematyka (kryptografia) gwarantuje mu w 100%, że nie kłamiesz i że dokument jest prawdziwy, ale nie pozwala mu dowiedzieć się o Tobie absolutnie niczego więcej.
Tak właśnie działa weryfikacja w systemie Fundacji.
- Użytkownik potwierdza swoją tożsamość (np. skanując dokument lub biometrię) w lokalnym, bezpiecznym procesie na swoim własnym urządzeniu. Dane te nigdy nie opuszczają jego telefonu w formie jawnej.
- Urządzenie generuje kryptograficzny „Certyfikat Człowieczeństwa” (Proof of Personhood) oparty na ZKP.
- Kiedy logujesz się do platformy społecznościowej, przesyłasz ten certyfikat.
- Platforma otrzymuje komunikat: „To jest unikalna osoba nr 84923485. Ta osoba jest prawdziwym człowiekiem i nie ma tu innego konta”.
- Platforma nie dostaje Twojego imienia, nazwiska, numeru PESEL ani zdjęcia.
Dzięki temu system wie, że jesteś człowiekiem, ale nie wie, którym człowiekiem z bazy danych obywatelskich. Możesz więc wciąż używać pseudonimu („MiłośnikKotów88”), możesz zachować swoją tożsamość w tajemnicy przed innymi użytkownikami, a nawet przed samą platformą. Ale nie jesteś anonimowy w tym sensie, że jesteś bezkarny. Jeśli złamiesz prawo (np. zaczniesz sprzedawać narkotyki lub grozić śmiercią), sąd – i tylko niezawisły sąd, a nie korporacja – może nakazać uchylenie tej matematycznej zasłony w ramach ściśle określonej procedury prawnej.
To jest istota rozwiązania: Maksimum prywatności dla uczciwych, brak anonimowości dla przestępców i botów.
Rozdział IV: Rozbrojenie Lęku. To nie jest Social Credit 2.0
Wielu krytyków, słysząc o cyfrowej tożsamości i weryfikacji, odruchowo przywołuje obraz dystopii – chińskiego Systemu Zaufania Społecznego (Social Credit System). Lęk ten jest zrozumiały, biorąc pod uwagę rosnące apetyty rządów na kontrolę. Jednak różnica między naszą propozycją a modelem chińskim jest fundamentalna. Leży ona w samej architekturze systemu.
W modelu chińskim (totalitarnym) państwo widzi wszystko i łączy wszystko. Jest to jeden centralny mózg, który spina Twoje zachowanie w sieci (co piszesz), Twoje finanse (co kupujesz), Twoje zachowanie na ulicy (kamery rozpoznające twarz) i Twoją kartotekę prawną. Wszystkie te dane trafiają do jednego worka. Jeśli napiszesz coś krytycznego o władzy, system obniża Twój „wynik” (score) i nagle nie możesz kupić biletu na pociąg. To jest panoptykon – więzienie, w którym strażnik widzi każdego więźnia w każdej chwili.
W modelu Open Digital Foundation (demokratycznym) kluczem jest SEPARACJA.
System zaprojektowany jest tak, aby nikt nie miał pełni wiedzy.
- Dostawca Tożsamości (ten, który sprawdza dokument/biometrię) wie, kim jesteś, ale dzięki ZKP nie wie, co robisz w sieci. Widzi tylko, że „Użytkownik X się zalogował”, ale nie wie gdzie, ani co tam napisał.
- Dostawca Usług (np. forum dyskusyjne) widzi, co piszesz, ale nie wie, kim jesteś w świecie rzeczywistym (widzi tylko, że jesteś unikalnym człowiekiem).
Nie ma jednego punktu, w którym te dane się łączą. Nie ma centralnej bazy „dobrych i złych obywateli”. Nie ma żadnego „scoringu” czy oceny zachowania. System odpowiada tylko na pytania binarne: Czy to człowiek? (Tak/Nie). Czy ma już konto? (Tak/Nie).
To architektura, która uniemożliwia budowę totalitaryzmu, ponieważ władza jest matematycznie rozproszona. W Intranecie Ludzi nie możesz być oceniany za poglądy, bo system nie wie, że te poglądy należą do Ciebie – dopóki nie złamiesz prawa w sposób, który uruchomi procedurę sądową.
Rozdział V: Czarne Skrzynki vs. Szklane Domy. Kontrast z Big Tech
Aby zrozumieć, dlaczego obecny internet jest tak toksyczny, musimy spojrzeć na tych, którzy go kontrolują. Dzisiejszą siecią rządzi garstka gigantów: Meta (Facebook, Instagram), Google, TikTok (ByteDance). Te platformy działają jak „czarne skrzynki”.
Ich kod źródłowy – czyli reguły, które decydują o tym, co widzimy w naszych telefonach – jest najpilniej strzeżoną tajemnicą handlową. Nikt – ani rządy, ani naukowcy, ani my, użytkownicy – nie wie dokładnie, dlaczego algorytm pokazał nam ten, a nie inny film. Dlaczego podsunął nam tę teorię spiskową? Dlaczego ukrył post naszego przyjaciela?
Wiemy jednak, jaki jest cel tych algorytmów. Nie jest nim prawda. Nie jest nim nasze dobro. Jest nim zysk poprzez zaangażowanie (engagement). Badania 12 potwierdzają, że algorytmy te są zoptymalizowane, by promować treści skrajne, polaryzujące i wywołujące gniew. Dlaczego? Bo gniew i strach to emocje, które najskuteczniej przykuwają naszą uwagę. Im dłużej patrzymy w ekran, tym więcej reklam zobaczymy. Jesteśmy profilowani w każdym milisekundowym ruchu myszką. Nasza uwaga jest towarem sprzedawanym reklamodawcom. W tym modelu człowiek nie jest klientem – jest produktem, surowcem, z którego wyciska się dane.15 Shoshana Zuboff nazwała to „kapitalizmem inwigilacji”.
Model Fundacji i „Intranetu Ludzi” to całkowite przeciwieństwo tego systemu wyzysku. Proponujemy przejście od czarnych skrzynek do „szklanych domów”.
- Open Source (Otwarty Kod): Kod całego systemu Intranetu Ludzi musi być jawny. Każda linijka oprogramowania, każdy algorytm decyzyjny jest dostępny publicznie.17 Każdy programista, student informatyki czy audytor z dowolnego miejsca na świecie może sprawdzić, jak działa system. Może zweryfikować, czy nie ma w nim „tylnych drzwi” (backdoors) dla służb specjalnych. Może sprawdzić, czy algorytm nie faworyzuje jednej opcji politycznej. Przejrzystość jest najlepszą szczepionką na manipulację.
- Władza Wiedzy (Rola Uniwersytetów): Kto ma trzymać klucze do tego systemu? Nie chcemy, by byli to miliarderzy z Doliny Krzemowej, bo dbają tylko o zysk. Nie chcemy, by byli to politycy, bo będą chcieli wygrać wybory.
Proponujemy model, w którym strażnikami kluczy kryptograficznych i audytorami algorytmów są niezależne uniwersytety.19 To koncepcja „Władzy Wiedzy”. Nauka, ze swoim etosem poszukiwania prawdy i weryfikowalności, jest najlepszym kandydatem do roli arbitra. Uniwersytety, jako instytucje zaufania publicznego o wielowiekowej tradycji, są najlepiej predestynowane do roli „cyfrowego trybunału konstytucyjnego”, który dba o to, by technologia służyła człowiekowi. Wyobraźmy sobie globalne konsorcjum uczelni – od MIT, przez Uniwersytet Warszawski, po Tokio – które wspólnie nadzorują kod, gwarantując, że nikt go nie zmienił po cichu. - Brak ukrytych celów: Ponieważ system jest non-profit i open-source, nie ma w nim motywacji do uzależniania użytkowników. Nie ma potrzeby „hakowania uwagi” 3, bo system nie zarabia na wyświetlaniu reklam. Celem jest dostarczenie bezpiecznej infrastruktury, a nie maksymalizacja czasu spędzonego przed ekranem.
To kontrast między ciemnym pokojem pełnym luster weneckich, w którym ktoś nas obserwuje (Big Tech), a szklanym domem, w którym widać każdą ścianę i każdy mechanizm (Intranet Ludzi). W tym drugim czujemy się bezpiecznie, bo wiemy, jak działa otoczenie.
Rozdział VI: Cyfrowy Dom. Wizja nowej przestrzeni
Czy to oznacza, że chcemy wyłączyć stary internet? Absolutnie nie. To byłoby niemożliwe i szkodliwe. Stary, dziki internet ma swoją wartość – jako archiwum, jako przestrzeń artystycznego eksperymentu, jako wentyl bezpieczeństwa. Niech sobie będzie.
My proponujemy budowę „Cyfrowego Domu” obok starego świata. Użyjmy metafory drogowej. Obecny internet to dzika, nieoświetlona droga w dżungli. Możesz nią jechać, ale ryzykujesz, że napadną cię bandyci, wpadniesz w dziurę albo zostaniesz oszukany przez fałszywe znaki drogowe. To droga dla poszukiwaczy przygód i ryzykantów.
Intranet Ludzi to nowoczesna, oświetlona autostrada z barierami ochronnymi. To „bezpieczny pas ruchu”. Jeśli chcesz po prostu szybko i bezpiecznie dotrzeć do celu, załatwić sprawę urzędową, porozmawiać z lekarzem, zrobić zakupy bez strachu o kradzież danych, czy pozwolić dziecku wyjść na wirtualne podwórko – wybierasz Intranet Ludzi.
Bezpieczeństwo Dzieci – Koniec ery strachu
To chyba najważniejszy argument moralny za zmianą. W dzisiejszym internecie puszczenie dziecka samego do sieci jest jak puszczenie go nocą do dzielnicy czerwonych latarni. Algorytmy bombardują je patotreściami, pedofile mogą udawać rówieśników, hejterzy niszczą ich psychikę.
W „Cyfrowym Domu” dziecko jest bezpieczne. Ponieważ każdy użytkownik jest zweryfikowany (choćby jako rodzic lub opiekun konta dziecka), pedofil nie może udawać 12-latka. System wie, kto jest dorosły, a kto nie. Oszust nie może podszyć się pod „koleżankę ze szkoły”. Algorytmy nie próbują wpędzić nastolatka w depresję czy anoreksję, promując szkodliwe wzorce, bo są audytowane przez uniwersytety i podlegają społecznej kontroli. To przestrzeń, w której rodzic może pozwolić dziecku na cyfrową samodzielność, nie martwiąc się, że za rogiem czai się wirtualny drapieżca. To powrót do idei „podwórka”, gdzie dzieci bawią się same, ale w bezpiecznym otoczeniu.
Koniec oszustw „na wnuczka” i phishingu
Plaga oszustw dotyka szczególnie seniorów. Fałszywe SMS-y „od kuriera”, wiadomości „mamo, zgubiłem telefon, przelej pieniądze”, fałszywe strony banków. W świecie 1:1 ten proceder traci rację bytu.
Kiedy w Intranecie Ludzi otrzymujesz wiadomość od „syna” czy „banku”, masz 100% kryptograficznej pewności, że to oni. Tożsamość nadawcy jest gwarantowana przez system. Nie da się podszyć pod instytucję. Nie da się udawać kogoś innego. A jeśli ktoś spróbuje oszustwa i zostanie na tym przyłapany – traci swoje jedyne konto i wypada z systemu. Koszt ataku staje się zaporowy. Oszust nie może już „strzelać na oślep” do miliona numerów, bo ryzykuje cyfrową śmiercią przy pierwszej próbie.
Nowa Kultura Debaty
Wyobraźmy sobie fora dyskusyjne i media społecznościowe, w których zniknął hejt. Nie dlatego, że jest cenzurowany przez moderatora, ale dlatego, że ludzie biorą odpowiedzialność za słowa. To powrót do kultury kawiarnianej czy klubowej. Możemy się spierać, możemy mieć różne zdania, możemy się kłócić o politykę – ale nie obrzucamy się błotem, nie życzymy sobie śmierci, nie grozimy gwałtem. Dlaczego? Bo nie jesteśmy anonimowym tłumem. Jesteśmy społecznością osób. Badania pokazują, że w środowiskach nieanonimowych (jak platforma Nextdoor w USA czy lokalne grupy sąsiedzkie) poziom agresji drastycznie spada.21 Ludzie przypominają sobie, że po drugiej stronie ekranu siedzi człowiek, a nie awatar. Odzyskujemy internet jako narzędzie dialogu, a nie wrzasku.
Rozdział VII: Odpowiedzialność to Wolność
Przez lata wmawiano nam, że anonimowość to najwyższa forma wolności. To nieprawda. Anonimowość to swawola. Wolność – ta prawdziwa, dojrzała wolność – wymaga odpowiedzialności. Filozofowie od wieków nauczali, że wolność bez odpowiedzialności prowadzi nieuchronnie do anarchii, a w konsekwencji do tyranii silniejszego. I to właśnie widzimy w dzisiejszym internecie rządzonym przez boty, trolle i korporacje: tyranię hałasu, tyranię kłamstwa, tyranię manipulacji.
Proponując model „jedna osoba = jedno konto”, oferujemy społeczeństwu nowy rodzaj wolności.
Oferujemy wolność od:
- Wolności od manipulacji i bycia sterowanym przez obce wywiady.
- Wolności od strachu przed agresją i nękaniem.
- Wolności od bycia towarem sprzedawanym reklamodawcom.
- Wolności od podejrzliwości – że ten, z kim rozmawiam, nie jest człowiekiem.
Ale oferujemy też wolność do:
- Wolności do bycia słyszanym – Twój głos nie ginie w szumie milionów botów. Jeden człowiek, jeden głos.
- Wolności do bezpiecznego rozwoju i edukacji.
- Wolności do budowania prawdziwych, głębokich relacji opartych na zaufaniu.
Wróćmy do naszej metafory: zdejmujemy maski, ale zakładamy przyłbice.
Maska służyła przestępcom do ukrywania się w mroku. Przyłbica służy rycerzom i obywatelom do ochrony w świetle dnia. W Intranecie Ludzi chodzimy z podniesioną przyłbicą – otwarci na innych, szczerzy, autentyczni. Widzimy swoje oczy. Ale w każdej chwili, gdy czujemy zagrożenie, system nas chroni – możemy opuścić przyłbicę, a nasza zbroja (kryptografia i prawo) nie pozwoli nas zranić.
To wizja internetu humanistycznego. Miejsca, gdzie technologia nie jest celem samym w sobie, nie jest bożkiem, któremu składamy w ofierze naszą prywatność i spokój, ale jest fundamentem, podłożem dla zdrowego społeczeństwa. Miejsca, gdzie słowo „użytkownik” znów staje się słowem „obywatel”.
Projekt ten jest ambitny. Być może najbardziej ambitny w historii cyfrowego świata od czasu powstania samego internetu. Wymaga odwagi, by przeciwstawić się obecnemu status quo. Wymaga zaufania do nauki i matematyki, a nie do haseł marketingowych Big Techu. Ale alternatywą jest dalsze pogrążanie się w chaosie, gdzie prawda jest nieodróżnialna od fałszu, a człowiek od maszyny. Gdzie nasze dzieci wychowują algorytmy, a nasze wybory wygrywają boty.
Open Digital Foundation wierzy, że zasługujemy na coś lepszego. Zasługujemy na prawdę. Zasługujemy na bezpieczeństwo. Zasługujemy na własny, cyfrowy dom. Czas go zbudować.
Źródła i bibliografia
- Imperva Threat Research. (2024). 2024 Bad Bot Report: The Rise of the Bad Bots. Raport analityczny wskazujący, że 49.6% (w innych ujęciach 51%) globalnego ruchu internetowego pochodzi od botów, a zjawisko to narasta wraz z rozwojem AI. 1
- Hickey, D., et al. (2025). Study finds persistent spike in hate speech on X. University of California, Berkeley. Badanie akademickie wykazujące, że na platformie X (Twitter) nawet 64% aktywności w pewnych okresach może nosić znamiona działań botów i inauthentic behavior. 23
- BotNot / Yofi.ai. (2024). Analizy rynkowe dotyczące skali fałszywych kont w e-commerce i mediach społecznościowych, szacujące udział fake userów na 25-33% dziennie. 3
- VSquare / OKO.press / Delfi Estonia. (2024). Leaked files from Putin’s troll factory. Międzynarodowe śledztwo dziennikarskie ujawniające dokumenty rosyjskiej agencji „Social Design Agency” (SDA), która w pierwszych miesiącach 2024 roku wygenerowała 33.9 miliona komentarzy, celując m.in. w Polskę, Niemcy i Francję. 4
- TikTok Transparency Report. (2024). Oficjalne dane platformy dotyczące usuwania fałszywych kont (171 milionów w Q1 2024). 3
- Suler, J. (2004). The Online Disinhibition Effect. CyberPsychology & Behavior. Fundamentalna praca naukowa z zakresu psychologii internetu, opisująca mechanizmy dysocjacyjnej anonimowości i ich wpływ na agresję. 6
- Santana, A. D. (2014). Virtuous or Vitriolic: The Effect of Anonymity on Civility in Online Newspaper Reader Comment Boards. Journalism Practice. Badanie empiryczne wykazujące, że 53% anonimowych komentarzy jest nieuprzejmych w porównaniu do 29% komentarzy nieanonimowych. 3
- World Economic Forum. (2024). Global Risks Report 2024. Raport klasyfikujący dezinformację napędzaną przez AI jako jedno z głównych zagrożeń dla globalnej stabilności w krótkim okresie. 3
- Chew, C., et al. (2021). Bots and Misinformation Spread on Social Media: Implications for COVID-19. Journal of Medical Internet Research. Badanie wskazujące, że do 66% kont dyskutujących o COVID-19 mogło być botami. 3
- Dellarocas, C. / World Economic Forum. (2025 – projections). The Economic Impact of Fake Reviews. Analizy ekonomiczne szacujące straty globalne z powodu fałszywych recenzji na poziomie 770 miliardów dolarów. 3
- Zuboff, S. (2019). The Age of Surveillance Capitalism. PublicAffairs. Kluczowa pozycja opisująca mechanizmy działania Big Tech, „czarne skrzynki” algorytmów i profilowanie behawioralne. 15
- Goldwasser, S., Micali, S., Rackoff, C. (1989). The Knowledge Complexity of Interactive Proof-Systems. Praca naukowa wprowadzająca koncepcję Zero-Knowledge Proofs, stanowiącą matematyczną podstawę dla ochrony prywatności w systemie Avalon. 11
- United Nations / UNDP. (2024). Digital Public Infrastructure (DPI) Playbook. Dokumenty promujące otwarte standardy, open-source i rolę sektora publicznego/naukowego w tworzeniu bezpiecznej infrastruktury cyfrowej. 20
- Kim, J., et al. (2022). Promoting Online Civility Through Platform Architecture. Journal of Online Trust and Safety. Badanie na przykładzie platformy Nextdoor pokazujące, że weryfikacja tożsamości i brak pełnej anonimowości zwiększają uprzejmość. 21
- Open Digital Foundation. (2025). Manifest Systemu Avalon oraz Plan Strategiczny. Wewnętrzne dokumenty programowe opisujące koncepcję Intranetu Ludzi, rolę uniwersytetów i model 1:1. 3
Cytowane prace
- 2025-Bad-Bot-Report.pdf – Thales CPL, otwierano: stycznia 13, 2026, https://cpl.thalesgroup.com/sites/default/files/content/campaigns/badbot/2025-Bad-Bot-Report.pdf
- 2024 Bad Bot Report | Resource Library – Imperva, otwierano: stycznia 13, 2026, https://www.imperva.com/resources/resource-library/reports/2024-bad-bot-report/
- Jedna osoba = jedno konto. Dlaczego anonimowość przestała działać.docx
- Demagog w mediach, otwierano: stycznia 13, 2026, https://demagog.org.pl/demagog-w-mediach/
- Leaked Files from Putin’s Troll Factory: How Russia Manipulated European Elections, otwierano: stycznia 13, 2026, https://vsquare.org/leaked-files-putin-troll-factory-russia-european-elections-factory-of-fakes/
- An Examination of the Impact of Social Media Anonymity and Intensity of Online Conflict and Aggressive Behavior, otwierano: stycznia 13, 2026, https://ramss.spcrd.org/index.php/ramss/article/download/457/478
- (PDF) The Online Disinhibition Effect – ResearchGate, otwierano: stycznia 13, 2026, https://www.researchgate.net/publication/8451443_The_Online_Disinhibition_Effect
- The Effect of Aggressor Anonymity in Online Hate Speech on Bystanders’ Intention to Intervene – Tilburg University, otwierano: stycznia 13, 2026, http://arno.uvt.nl/show.cgi?fid=182099
- Zero-knowledge proofs explained in 3 examples – Circularise, otwierano: stycznia 13, 2026, https://www.circularise.com/blogs/zero-knowledge-proofs-explained-in-3-examples
- What If You Could Walk Into a Bar and Prove You’re 21—Without sharing any personal information or identification? – The Curious Programmer, otwierano: stycznia 13, 2026, https://jasonroell.com/2025/07/03/what-if-you-could-walk-into-a-bar-and-prove-youre-21-without-sharing-any-personal-information-or-identification/
- Zero-knowledge proof – Wikipedia, otwierano: stycznia 13, 2026, https://en.wikipedia.org/wiki/Zero-knowledge_proof
- 2026 Planning: Algorithmic Polarization | Social Media Today, otwierano: stycznia 13, 2026, https://www.socialmediatoday.com/news/2026-planning-algorithmic-polarization/808810/
- How tech platforms fuel U.S. political polarization and what government can do about it | Brookings, otwierano: stycznia 13, 2026, https://www.brookings.edu/articles/how-tech-platforms-fuel-u-s-political-polarization-and-what-government-can-do-about-it/
- How TikTok’s Algorithm Shapes Culture and Identity | by Christang | Medium, otwierano: stycznia 13, 2026, https://medium.com/@christang0013/how-tiktoks-algorithm-shapes-culture-and-identity-fddb7a357468
- The Age of Surveillance Capitalism: The Fight for a Human Future at the New Frontier of Power – Book – Faculty & Research, otwierano: stycznia 13, 2026, https://www.hbs.edu/faculty/Pages/item.aspx?num=56791
- Aberystwyth University The Age of Surveillance Capitalism – A Review Essay, otwierano: stycznia 13, 2026, https://pure.aber.ac.uk/ws/files/30702597/Book_review_Whitehead_on_Zuboff.pdf
- Open Source vs. Closed Source: Pros, Cons, and Hybrid Insights – T3 Consultants, otwierano: stycznia 13, 2026, https://t3-consultants.com/open-source-vs-closed-source-models-weighing-the-pros-cons-and-hybrid-approaches/
- Evaluating Security: Open Source vs Proprietary Software – TiDB, otwierano: stycznia 13, 2026, https://www.pingcap.com/article/evaluating-security-open-source-vs-proprietary-software/
- Building the Case for a Digital Public Infrastructure for Education – ITU, otwierano: stycznia 13, 2026, https://www.itu.int/dms_pub/itu-s/opb/wp/S-WP-DPI.EDUCATION-2025-PDF-E.pdf
- Building Digital Infrastructure Through Open Source and Its Possibilities, otwierano: stycznia 13, 2026, https://unu.edu/article/building-digital-infrastructure-through-open-source-and-its-possibilities
- Promoting Online Civility Through Platform Architecture – ResearchGate, otwierano: stycznia 13, 2026, https://www.researchgate.net/publication/363755241_Promoting_Online_Civility_Through_Platform_Architecture
- Rozmawiasz z człowiekiem czy z botem? Szokujące dane o polskim internecie – RMF24, otwierano: stycznia 13, 2026, https://www.rmf24.pl/nauka/news-rozmawiasz-z-czlowiekiem-czy-z-botem-szokujace-dane-o-polski,nId,8052801
- Study finds persistent spike in hate speech on X – Berkeley News, otwierano: stycznia 13, 2026, https://news.berkeley.edu/2025/02/13/study-finds-persistent-spike-in-hate-speech-on-x/
- Czy jeden tweet może naprawdę zmienić Polskę? Szkolenie dla infuencerów w NASK, otwierano: stycznia 13, 2026, https://www.nask.pl/aktualnosci/czy-jeden-tweet-moze-naprawde-zmienic-polske-szkolenie-dla-infuencerow-w-nask
- The Age of Surveillance Capitalism – Wikipedia, otwierano: stycznia 13, 2026, https://en.wikipedia.org/wiki/The_Age_of_Surveillance_Capitalism
- Digital Public Infrastructure (DPI) – United Nations Development Programme, otwierano: stycznia 13, 2026, https://www.undp.org/digital/digital-public-infrastructure
Dodaj komentarz