Wprowadzenie
Dezinformacja w internecie często kojarzy się przede wszystkim z fałszywymi treściami – nieprawdziwymi informacjami, zmanipulowanymi zdjęciami czy filmami. Jednak źródłem problemu nie jest wyłącznie treść, lecz przede wszystkim sposób jej dystrybucji. W dobie mediów społecznościowych kłamstwo może obiec świat szybciej niż zdąży zostać sprostowane, głównie za sprawą botów, farm trolli i algorytmów promujących skrajne emocje. Ten esej pokazuje, że mechaniczne cenzurowanie treści (czyli ich usuwanie lub blokowanie) to strategia nieskuteczna w skali globalnej sieci. Zamiast tego potrzebujemy przebudowy architektury internetu – systemowych zmian, które ograniczą masowe promowanie szkodliwych treści u źródła. W szczególności przedstawiamy propozycję środowiska Avalon, opartego na jednym zweryfikowanym koncie na osobę, przejrzystych zasadach, otwartym kodzie i audytowalnych mechanizmach. Taka infrastruktura pozwala reagować na dezinformację i nadużycia bez uciekania się do arbitralnej cenzury.
W tekście uwzględniamy bieżący kontekst społeczno-prawny – m.in. fakt zawetowania przez prezydenta Polski ustawy przewidującej szybsze blokowanie niebezpiecznych treści (np. deepfake’ów, fałszywej nagości, pornografii zemsty, oszustw finansowych) przez państwowych urzędników. Analizujemy ten spór, pokazując, że nie jest to problem zero-jedynkowy: obawy przed cenzurą są zrozumiałe, ale brak skutecznych narzędzi przeciwdziałania dezinformacji i szkodliwym treściom również prowadzi do dramatycznych skutków. W kolejnych rozdziałach wyjaśniamy:
- Dlaczego cenzura jako strategia systemowa zawodzi – ze względu na skalę internetu, szybkość kopiowania treści, spory o definicje prawdy, częste błędy i nadużycia, a także efekt męczennika.
- Alternatywne podejścia oparte na architekturze odporności – jak skupienie się na źródłach informacji, reputacji nadawców, kontekście, wprowadzaniu „tarcia” (ograniczeń) dla viralowych zasięgów oraz odporności na boty może zredukować szkodliwą dezinformację.
- Avalon jako rozwiązanie systemowe – opisujemy środowisko Avalon, w którym obowiązuje jedno zweryfikowane konto na osobę, prywatność bez pełnej anonimowości, otwartość algorytmów, widoczny kontekst i reputacja oraz audytowalność decyzji. To podejście ma budować sieć odporniejszą na nadużycia.
- Reakcje Avalonu na sytuacje kryzysowe – jak taki system poradziłby sobie z deepfake’ami, generowaną przez SI nagością, pornografią zemsty czy oszustwami inwestycyjnymi.
- Odpowiedzi na wątpliwości – kto decyduje o prawdzie w takim systemie, czy weryfikacja to nie inwigilacja, co z ofiarami przemocy i sygnalistami potrzebującymi anonimowości.
- Konkluzje – to nie jest wojna światopoglądów, lecz problem techniczno-instytucjonalny. Avalon to próba zmiany zasad gry, by internet znów służył użytkownikom, a nie dezinformatorom.
1. Cenzura zawodzi wobec skali i mechanizmów internetu
W ciągu każdej minuty do internetu trafiają olbrzymie ilości nowych treści, co sprawia, że ich centralna moderacja staje się niewykonalna. Dla zilustrowania skali – na sam YouTube użytkownicy w każdej minucie przesyłają średnio ponad 360 godzin materiału wideo. Na Facebooku i Instagramie w pojedynczym kwartale globalnie publikowanych są setki miliardów postów, z czego mniej niż 1% zostaje usunięte jako naruszające zasady. Nawet jeśli tylko promil contentu to dezinformacje czy mowa nienawiści, w absolutnych liczbach są to miliony wpisów dziennie. Żadna armia moderatorów nie zdoła przejrzeć tego w czasie rzeczywistym, a algorytmy często albo przepuszczają szkodliwe treści, albo usuwają też treści nieszkodliwe omyłkowo. Co więcej, firmy takie jak Meta szacują, że około 4% kont aktywnych miesięcznie na Facebooku to konta fałszywe – przy ponad 3,5 mld użytkowników daje to około 140 milionów fałszywych profili, generujących ogromną część spamu i manipulacji.
Boty i farmy kont potrafią zalać platformy trefnymi treściami, tworząc iluzję poparcia społecznego. Jak opisuje zespół badawczy OSoMe z Uniwersytetu Indiana, kiedy tysiące fałszywych kont kontrolowanych przez koordynatorów jednocześnie promują jakiś przekaz, a platformowe algorytmy go wzmacniają, zwykli użytkownicy mogą ulec wrażeniu, że to dominująca opinia publiczna. W efekcie prawdziwe wpisy prawdziwych ludzi giną w zalewie sztucznie podbitego przekazu. Dezinformacja „wygrywa” nie dlatego, że jest bardziej przekonująca merytorycznie, lecz dlatego, że jest agresywnie pompowana systemowo – przez anonimowe konta i mechanizmy viralowe.
Cenzura rozumiana jako proste usuwanie treści nie radzi sobie z takimi zjawiskami z kilku powodów:
- Skalowalność i szybkość kopiowania: Nawet jeśli platforma usunie szkodliwy post czy film, kopie mogą pojawić się natychmiast na dziesiątkach innych kont i serwisów. Głośnym przykładem była transmisja zamachu w Christchurch w 2019 r. – w ciągu 24 godzin Facebook musiał usunąć 1,5 mln kopii nagrania z ataku, z czego aż 300 tys. zdążyło się pojawić i zostało ręcznie zgłoszonych, a 1,2 mln zostało automatycznie zablokowanych przy próbie publikacji. Technicznie niemożliwe jest trwałe „wytępienie” raz udostępnionej treści w sieci – usunięcie z jednego miejsca skutkuje pojawieniem się gdzie indziej niczym hydra odrastającą kolejne głowy.
- Spory o definicje i granice: Co dokładnie jest „niebezpieczną dezinformacją” czy „szkodliwą treścią”? Nie ma powszechnego konsensusu. Przykładowo, podczas pandemii COVID-19 trwały ostre dyskusje, które informacje o leczeniu uznać za fałszywe, a które mieszczą się w granicach debaty naukowej. Eksperci ostrzegają, że pojęcie „dezinformacji” jest niezwykle trudne do zdefiniowania w prawie, przez co łatwo dać władzy wykonawczej nadmierną swobodę decydowania, co jest prawdą, a co „fake newsem”. W raporcie wysokiego szczebla dla Komisji Europejskiej z 2018 r. jasno stwierdzono, że „każdej formy cenzury, publicznej czy prywatnej, należy wyraźnie unikać” jako metody walki z dezinformacją – właśnie z powodu groźby arbitralności i zacierania się granicy między walką z kłamstwem a tłumieniem niewygodnych opinii. Cenzurując „nieprawdę” można łatwo uciszyć mniejszościowe poglądy lub niewygodne głosy, jeśli odda się władzę definiowania prawdy w czyjeś ręce. Pojawia się pytanie: kto miałby być arbitrem prawdy? – nawet obiektywne błędy można interpretować różnie, a co dopiero kwestie światopoglądowe.
- Błędy i nadużycia moderacji: Historia platform internetowych pełna jest przypadków nadgorliwego lub błędnego usuwania treści, które wcale nie były szkodliwe. Gdy Facebook walczył z anty-szczepionkowymi mitami, ofiarą filtrów padły np. niewinne kampanie edukacyjne o zdrowiu reprodukcyjnym – algorytm uznał je omyłkowo za „treści nacechowane seksualnie”. Takie pomyłki nie tylko szkodzą niesłusznie ocenzurowanym, ale też podważają zaufanie społeczne do całego procesu moderacji. Ponadto zawsze istnieje ryzyko nadużyć władzy – rządy autorytarne pod pretekstem walki z „fałszywymi informacjami” wyłączają internet lub wsadzają krytyków do więzień. Penalizowanie głoszenia „nieprawdy” już teraz ma miejsce w niektórych krajach, ale organizacje międzynarodowe ostrzegają, że to grozi efektem mrożącym dla wolności słowa. Innymi słowy, walcząc z dezinformacją za pomocą cenzury, łatwo samemu stać się źródłem dezinformacji – przedstawiając prawdę jako kłamstwo i odwrotnie, wedle uznania cenzora.
- Efekt męczennika i Streisand: Paradoksalnie, próby cenzurowania treści często przynoszą skutek odwrotny – wzmacniają rozgłos wokół objętego cenzurą przekazu. Psychologicznie ludzie mogą nabrać przekonania, że skoro „władza to ucisza, to musi być w tym coś ważnego”. Zjawisko to znane jest od dawna – zakazane książki stają się bestsellerami, a próba ukrycia informacji tylko zwiększa zainteresowanie (tzw. efekt Streisand). Jak ujął to historyk Jacob Mchangama: „próby uciszenia idei często je wzmacniają”. We współczesnym internecie widzimy, że gdy jakaś osoba zostaje np. zbanowana na Twitterze czy Facebooku za szerzenie kontrowersyjnych treści, bywa przez swoją społeczność traktowana jak ofiara „cenzury systemu”, co tylko cementuje jej zwolenników i przenosi dyskusję w inne miejsca, często mniej kontrolowane.
Powyższe czynniki sprawiają, że poleganie wyłącznie na cenzurze (moderacji treści) przypomina walkę z hydrą – odcięcie jednej głowy powoduje odrośnięcie kolejnych, często jeszcze groźniejszych. Co gorsza, skupienie się tylko na treściach odwraca uwagę od prawdziwej przyczyny sukcesu dezinformacji: mechanizmów jej rozpowszechniania. Jak trafnie piszą eksperci EFF, „usuwanie całych kategorii treści niewiele daje wobec źródłowych problemów”, bo prawdziwym „megafonem” dla szkodliwych treści są części infrastruktury platform – algorytmy i funkcje, które decydują co wyświetlać użytkownikom. Innymi słowy, to nie pojedyńcze kłamstwo jest groźne, lecz system który sprawia, że kłamstwo rozchodzi się szerzej i szybciej niż prawda. W następnej części omówimy więc rozwiązania alternatywne wobec cenzury – takie, które wzmacniają odporność informacyjną sieci poprzez zmianę zasad dystrybucji informacji.
2. Architektura odporności: źródła, reputacja, kontekst i „tarcie” zamiast masowego blokowania
Skuteczna walka z dezinformacją wymaga podejścia systemowego, które uderza w jej architekturę dystrybucji, a nie tylko w treści końcowe. Eksperci coraz częściej proponują rozwiązania zwiększające odporność informacyjną platform, tak by prawda miała szansę przebić się naturalnie, a kłamstwo napotykało przeszkody zanim urośnie w siłę. Kilka kluczowych elementów takiej strategii to: wiarygodne źródła i reputacja, dostarczanie kontekstu odbiorcom, ograniczanie zasięgu poprzez tarcie oraz neutralizowanie botów i sztucznych kont.
Źródła i reputacja nadawców: W tradycyjnych mediach dużą rolę gra reputacja – np. artykuł w renomowanym dzienniku ma większą wiarygodność niż anonimowy pamflet. Podobną zasadę należy przenieść do świata platform społecznościowych. Zamiast traktować każdą informację jednakowo, system powinien uwzględniać jakość i wiarygodność źródła. W praktyce oznacza to większą transparentność co do pochodzenia treści (kto jest autorem, kto finansuje daną stronę, czy konto jest zweryfikowane) oraz mechanizmy oceny reputacji nadawców informacji. Już w 2018 r. ekspercka grupa przy Komisji Europejskiej rekomendowała zwiększenie transparentności w online’owych newsach – zwłaszcza ujawnianie źródeł finansowania informacji, tak by odbiorca wiedział, czy np. sensacyjny news nie jest częścią opłaconej kampanii. Podobnie, wiele badań sugeruje, że oznaczanie zaufanych źródeł i promowanie treści od nadawców mających ponadpartyjne, zróżnicowane audytorium może poprawić jakość debaty. Przykładowo, symulacje rankingu wiadomości według kryterium „źródła czytane przez odbiorców o różnych poglądach” pokazały, że dzięki temu użytkownicy widzą mniej treści skrajnych i lepszej jakości. Reputacja może być budowana na różne sposoby – od prostych ocen społeczności (jak na forach typu StackExchange), po zaawansowane rankingi wiarygodności kont (np. czy dane konto wcześniej szerzyło zweryfikowane kłamstwa, czy publikuje pod własnym nazwiskiem, ilu ma prawdziwych obserwujących itp.). Ważne jednak, by te mechanizmy były jawne i zrozumiałe. Odbiorca, widząc viralowy post, powinien mieć możliwość sprawdzenia „kim jest” źródło – czy to nowe konto bez historii, czy może znany ekspert, czy strona finansowana przez rząd, czy prywatny blog itp. Takie uwidocznienie kontekstu utrudnia działanie anonimowym fabrykom fake newsów. Badacze zauważają też, że algorytmy oparte wyłącznie na popularności reagują na sygnały angażowania, co bywa zgubne – np. wysoka liczba udostępnień bywa mylnie odbierana jako sygnał wiarygodności. Zamiast tego warto w algorytmach uwzględniać sygnały jakościowe, np. źródła przeszłych treści, zgodność ze sprawdzonymi faktami, zróżnicowanie odbiorców.
Kontekst i weryfikacja informacji: Zamiast usuwać czy blokować kontrowersyjne treści, platformy mogą dostarczać użytkownikom kontekst pozwalający ocenić prawdziwość przekazu. Przykładem są etykiety fact-checkingowe – oznaczenia przy poście, że np. informacja została uznana za fałszywą przez niezależnych weryfikatorów. Co ważne, takie dodanie etykiety nie jest cenzurą – treść pozostaje dostępna, ale odbiorca zyskuje dodatkową informację. Podobnie, system Community Notes (wcześniej Birdwatch) w serwisie X/Twitter pozwala użytkownikom wspólnie dodawać wyjaśnienia i sprostowania do wprowadzających w błąd tweetów. Badania sugerują, że tego rodzaju kontekst potrafi skutecznie zwiększyć wiedzę odbiorców i ograniczyć wpływ dezinformacji, zwłaszcza jeśli jest dostarczony szybko i w przejrzysty sposób. Innym aspektem kontekstu jest dostęp do szerszej perspektywy – np. platforma mogłaby wyświetlać pod kontrowersyjnym postem linki do sprawdzonych źródeł na ten temat lub pokazywać, jak dana treść jest odbierana w różnych grupach (aby wyjść z bańki informacyjnej). EFF proponuje wręcz, by dać użytkownikom kontrolę nad algorytmem – możliwość wyboru filtrów informacji od różnych dostawców (np. filtr „wiadomości naukowe” od biblioteki uniwersyteckiej, filtr „informacje lokalne” od lokalnej gazety itp.), zamiast zdawać się na jeden sekretny algorytm platformy. To zwiększa pluralizm i pozwala ludziom samodzielnie decydować, komu ufają w doborze treści.
„Tarcia” spowalniające viralowość: Jednym z powodów, dla których dezinformacja tak łatwo się rozprzestrzenia, jest brak jakichkolwiek barier w udostępnianiu treści. Wystarczy jedno kliknięcie, by podać dalej każdą sensację do setek znajomych. Rozwiązaniem może być wprowadzenie drobnych tarć (ang. friction) – dodatkowych kroków lub opóźnień, które skłonią użytkownika do zastanowienia się przed rozpowszechnieniem treści. Badania opublikowane w Nature pokazują, że nawet niewielkie opóźnienie czy prośba o refleksję znacząco zmniejsza skłonność do udostępniania fałszywych informacji. Przykładowo, w eksperymencie poproszenie uczestników o krótki namysł i wskazanie, czy uważają nagłówek za prawdziwy czy fałszywy, redukowało chęć dzielenia się nieprawdziwymi newsami, nie wpływając zarazem na dzielenie się treściami rzetelnymi. Inne pomysły „tarcia” to np. komunikaty ostrzegawcze („Uwaga: ta informacja pochodzi z niezweryfikowanego źródła, czy na pewno chcesz ją udostępnić?”), limity techniczne (np. ograniczenie liczby osób, do których można jednocześnie przekazać wiadomość – rozwiązanie zastosowane przez WhatsApp po serii śmiertelnych plotek w Indiach), czy drobne płatności lub punkty za możliwość bardzo szerokiego rozdystrybuowania treści (co zniechęca spammerów). Nawet tak prozaiczne rzeczy jak konieczność rozwiązania CAPTCHA przed masowym komentowaniem mogą spełnić rolę tarcia – utrudnią działanie botom i skryptom, a dla zwykłego użytkownika są tylko chwilową niewygodą. Ideą jest to, by uczynić rozpowszechnianie treści odrobinę mniej natychmiastowym, co daje czas na zastanowienie i weryfikację. Platformy długo dążyły do maksymalnego uproszczenia interakcji (udostępnij, polub, skomentuj jednym tapnięciem), ale dziś widzimy, że pewna dawka „bezpiecznego tarcia” może działać jak hamulec bezpieczeństwa – zapobiec wybuchowi dezinformacyjnej epidemii, zanim ta się rozpędzi.
Odporność na boty i fałszywe konta: Jak wspomniano, ogromną część manipulacji w sieci napędzają nieautentyczni aktorzy – boty, trollujące farmy i skoordynowane kampanie. Wzmocnienie odporności wymaga więc odcięcia lub przynajmniej utrudnienia działania tym sztucznym wzmacniaczom przekazu. Po pierwsze, konieczne są ciągłe ulepszanie wykrywania botów – i tu z pomocą przychodzi nauka. Już teraz zespoły badawcze tworzą zaawansowane algorytmy do analizy zachowań kont, wykrywające nienaturalne wzorce (np. setki postów dziennie 24/7, synchronizowane masowe udostępnienia) i oceniające wiarygodność kont. Przykładowo, OSoMe udostępniło narzędzia które potrafią z dużym prawdopodobieństwem wskazać, czy dane konto na Twitterze to bot, oraz wykryć całe sieci powiązanych fałszywych profili działających w zmowie. Platformy powinny korzystać z tych metod, by usuwać lub neutralizować boty (np. ograniczać zasięgi podejrzanych kont do czasu weryfikacji). Po drugie, warto rozważyć ograniczenie liczby kont na osobę i wprowadzenie elementów weryfikacji tożsamości. Obecnie nic nie stoi na przeszkodzie, by jedna grupa osób czy jedno państwo utworzyło setki tysięcy fikcyjnych kont i symulowało masowe poparcie lub atakowało przeciwników. Propozycje “jedno prawdziwe konto na osobę” pojawiają się już w dyskusjach publicznych – np. w Indonezji w 2025 r. politycy sugerowali taki wymóg jako sposób na ograniczenie oszustw i anonimowych kampanii nienawiści. Choć budzi to kontrowersje (zaraz omówimy kwestie prywatności), idea jest jasna: utrudnić tworzenie armii fikcyjnych ludzi. Jeśli każdy użytkownik musiałby potwierdzić swoją tożsamość (np. przez weryfikację dokumentu lub bankowości elektronicznej) i mógł mieć tylko jedno konto, trollowanie na masową skalę stałoby się o wiele trudniejsze. Oczywiście, nadal możliwe są np. przejęcia cudzych kont czy posługiwanie się czyjąś tożsamością, ale to już poważne przestępstwa, a nie „zabawa” w tysiąc anonów na forum. Nawet częściowe kroki – jak weryfikacja opcjonalna dająca konto jakiegoś wyższego poziomu zaufania – mogą pomóc odróżnić prawdziwych ludzi od botnetów. Wreszcie, elementem odporności jest dawanie użytkownikom narzędzi do samodzielnej oceny – np. możliwość sprawdzenia, czy profil komentujący nasz wpis powstał wczoraj i ma dziwny ciąg cyfr w nazwie (częsta cecha kont-botów) czy istnieje od lat i ma wiarygodną historię. Pewne platformy (jak Twitter) oznaczały automatycznie tweety pochodzące z podejrzanych źródeł (np. „to konto może być botem” albo „media państwowe”), co też stanowiło formę informowania odbiorców o możliwej manipulacji. Podsumowując: likwidacja pełnej anonimowości i jawna weryfikacja w sieci znacząco podniosłaby koszt i ryzyko prowadzenia zorganizowanych akcji dezinformacyjnych – a przecież o to chodzi, by dezinformacja nie opłacała się tak łatwo jak dziś.
Powyższe elementy – transparentność źródeł, reputacja, kontekst dla treści, mechanizmy spowalniające viralowe zasięgi oraz eliminacja botów – składają się na podejście ukierunkowane na architekturę odporności informacyjnej. Zamiast bawić się w niekończącą się grę „w kotka i myszkę” z każdym nowym fake newsem, tworzymy środowisko, w którym szerzenie dezinformacji jest trudniejsze, a wartościowe treści mają lepszą widoczność. W kolejnej sekcji pokażemy, jak te zasady zostały wkomponowane w projekt Avalon – propozycję fundamentalnej zmiany reguł funkcjonowania platform społecznościowych.
3. Avalon – nowe zasady internetu: identyfikacja, przejrzystość i audytowalność
Avalon to koncepcja środowiska internetowego (platformy społecznościowej lub wręcz ekosystemu platform) zaprojektowanego od podstaw tak, aby rozwiązać systemowo problemy, z którymi nie radzi sobie obecny model. Zamiast polegać na arbitralnej cenzurze, Avalon wprowadza nowe reguły gry, które przywracają kontrolę użytkownikom i społeczności, jednocześnie utrudniając działania złych aktorów. Kluczowe założenia Avalonu można streścić w kilku zasadach:
- Jedno zweryfikowane konto na osobę: Każdy uczestnik ekosystemu Avalon posiada jedno konto przypisane do rzeczywistej tożsamości (zweryfikowanej np. przez zaufany mechanizm). Nie ma armii anonimów – każdy profil odpowiada konkretnej osobie. Dzięki temu znika gleba dla botów i farm trolli; nikt nie może utworzyć setki fałszywych person. Co ważne, prywatność jest zachowana – realna tożsamość użytkownika nie musi być publicznie widoczna dla innych, ale jest znana systemowi (lub zewnętrznemu podmiotowi weryfikującemu) na potrzeby bezpieczeństwa. Taki model to właśnie prywatność bez anonimowości: chronimy dane osobowe przed masowym ujawnieniem, lecz jednocześnie każdy użytkownik ponosi odpowiedzialność za swoje działania, bo w razie poważnego nadużycia można dojść, kim jest. Ten element rozwiązuje ogrom problemów: drastycznie redukuje spam i trollowanie (skoro zbanowany użytkownik nie założy łatwo nowego konta), uniemożliwia rosyjskim czy innym farmom tworzenie iluzji poparcia społecznego, a także zapobiega np. podszywaniu się pod kogoś innego. Nawet platformy komercyjne zauważyły wartość takiego podejścia – Snapchat w regulaminie formalnie zabrania wielu kont na osobę, a Facebook od lat deklaruje politykę „realnych imion” (choć słabo egzekwowaną). Avalon podnosi poprzeczkę: jedna osoba = jedno konto jako niezbędna podstawa zaufania w sieci.
- Jasne zasady i otwarty kod: W Avalon zarówno regulamin społeczności, jak i algorytmy rządzące dystrybucją treści są przejrzyste i poddane publicznej kontroli. Kod platformy jest open source – każdy może zajrzeć, jak działa mechanizm promowania postów, jak wykrywane są boty, jakie sygnały decydują o widoczności treści. Dzięki temu unika się sytuacji, w której tajemniczy algorytm decyduje o czyimś losie w dyskusji publicznej. Jak zauważa EFF, dziś użytkownicy są „zakładnikami jednego algorytmu, który rządzi wszystkimi”, a platformy pozwalają co najwyżej na drobne jego personalizacje. Avalon odwraca ten paradygmat: algorytm (a raczej zasady działania systemu) należy do wspólnoty, jest jawny i modyfikowalny pod nadzorem społeczności. Użytkownicy mogą proponować poprawki, audytować czy nie ma stronniczości lub błędów. To trochę jak konstytucja i prawo – mają być spisane i widoczne, a nie uznaniowe. Przejrzystość dotyczy też zasad moderacji: katalog treści zabronionych jest jasno określony, powiązany z obowiązującym prawem i uzgodniony społecznie, a nie zmieniany ad hoc pod presją chwili. Dzięki otwartości kodu można również niezależnie badać wpływ mechanizmów Avalonu – np. naukowcy czy organizacje pozarządowe mogą analizować, czy algorytm nie wzmacnia jakichś uprzedzeń lub czy skutecznie ogranicza dezinformację. Takie niezależne audyty są kluczowe dla zaufania. Zwróćmy uwagę, że nawet obecnie badacze domagają się dostępu do danych platform, by móc ocenić ich efekty – w USA toczyły się batalie prawne o dostępność interfejsów programistycznych w imię transparentności. Avalon wbudowuje to od początku: transparentność i otwartość to fundament, nie przywilej.
- Widoczny kontekst i reputacja: Każde konto w Avalon ma pewną historię i reputację, które są jawne dla innych użytkowników w przystępnej formie. Jeśli ktoś zabiera głos w ważnej sprawie, inni mogą łatwo sprawdzić np. od jak dawna działa ten użytkownik, czy wcześniej jego wpisy były rzetelne, czy nie był karany za szerzenie nienawiści itp. Podobnie treści mogą być opatrzone informacjami kontekstowymi – np. przy udostępnianiu artykułu pojawi się ocena wiarygodności źródła (czy to znana gazeta, czy podejrzana strona) albo informacja, że inne osoby zweryfikowały już fakty z tego artykułu. Avalon premiuje wiarygodność: użytkownicy o ugruntowanej reputacji (zbudowanej przez długi czas przestrzegania zasad, potwierdzone kompetencje czy pozytywne oceny od innych) mają większy wpływ na kształt dyskusji, podczas gdy nowicjusze lub konta ze słabą reputacją muszą najpierw zyskać zaufanie. To analogiczne do świata offline – opinia eksperta lub szanowanego członka społeczności waży więcej niż anonimowego krzykacza z megafonem. W obecnych mediach społecznościowych bywa na odwrót – krzykacz z megafonem (bot z tysiącem duplikatów) potrafi przekrzyczeć eksperta. Avalon chce to zmienić. Przy tym kontekst to również zapewnienie, że decyzje moderacyjne są zrozumiałe – jeśli np. jakiś post zostaje ograniczony (np. oznaczony jako potencjalnie wprowadzający w błąd), użytkownicy widzą dlaczego – np. „Treść sprzeczna z ustaleniami WHO, sprawdzona przez niezależny fact-check X”. Takie podejście wzywały do życia chociażby Santa Clara Principles – zestaw zasad opracowanych przez organizacje broniące wolności słowa, wymagających, by platformy informowały użytkowników o powodach usunięcia treści i dawały możliwość odwołania. Avalon spełnia te postulaty – żadnego arbitralnego „post usunięty za naruszenie standardów” bez wyjaśnienia. Zamiast tego jawny kontekst: co zostało złamane, kiedy, przez kogo stwierdzone.
- Audytowalne i sprawiedliwe mechanizmy decyzyjne: W Avalon decyzje o moderacji treści czy użytkowników nie zapadają w ciemnym pokoju, lecz są podejmowane zgodnie z jawnymi procedurami i podlegają audytowi oraz odwołaniu. Każdy użytkownik, którego post zostanie usunięty lub konto ograniczone, ma prawo poznać uzasadnienie i skorzystać z ścieżki odwoławczej. Może to wyglądać np. tak: post został zablokowany automatycznie przez algorytm (z podaniem powodu, np. „wykryto obraz pornograficzny”), użytkownik może zgłosić odwołanie, wtedy sprawę weryfikuje niezależny moderator lub komisja społeczna, i decyzja zostaje albo cofnięta, albo potwierdzona z pełnym uzasadnieniem. Cały ten proces jest transparentny – statystyki decyzji, zapisy dyskusji moderacyjnych (anonimizowane) czy wytyczne są publicznie dostępne. Dzięki temu unika się sytuacji, gdzie użytkownik czuje się poszkodowany „bo algorytm go uciszył i nie wiadomo czemu”. Co więcej, zewnętrzni obserwatorzy mogą ocenić, czy moderacja nie jest stronnicza (np. czy jedna opcja polityczna nie jest częściej blokowana niż inna bez powodu). To wielka różnica w porównaniu z obecną sytuacją, gdzie np. Facebook usuwa treści wedle własnych zasad, często bez możliwości realnego odwołania – veto polskiego prezydenta Nawrockiego do ustawy implementującej DSA było motywowane m.in. sprzeciwem wobec takiej samowoli platform, gdzie „algorytm lub anonimowy moderator decyduje, kto może zabrać głos w przestrzeni publicznej – bez kontroli i odpowiedzialności”. Avalon naprawia to poprzez włączenie niezależnej kontroli i mechanizmów odwoławczych od samego początku. W praktyce, Avalon mógłby mieć np. Radę Zaufania – organ złożony z przedstawicieli społeczności, ekspertów prawnych i technicznych – który regularnie audytuje działania systemu (algorytmy, moderatorów) i publikuje raporty z zaleceniami. Taki samorząd użytkowników zapewnia, że władza nad internetem nie jest arbitralna, ale poddana mechanizmom checks and balances. W dobie obecnej, gdzie Big Tech sam jest sobie sędzią i egzekutorem regulaminu, to jakościowa zmiana. Zresztą nawet we wspomnianej zawetowanej ustawie w Polsce przewidziano większą kontrolę sądową nad blokowaniem treści i przejrzyste mechanizmy odwoławcze – Avalon realizuje podobne idee, tylko w ramach samoorganizacji społeczności internetowej.
Podsumowując, Avalon tworzy ekosystem, w którym uczciwi użytkownicy mogą czuć się bezpiecznie i sprawiedliwie traktowani, zaś ci, którzy chcą siać chaos i krzywdę – napotkają bariery nie do przejścia. Jedno konto na osobę eliminuje armię trolli; otwarty kod i jawne zasady gwarantują brak ukrytych manipulacji; reputacja i kontekst nadają informacjom właściwe ramy; audyt i odwołania chronią przed nadużyciami. To podejście infrastrukturalne, a nie tylko moderacyjne. Oczywiście żaden system nie będzie doskonały i Avalon też musiałby uczyć się na błędach, ale zasadniczo przenosi dyskusję o jakości internetu na wyższy poziom – z walki „czy ocenzurować post X” na pytanie „jak zbudować sieć, w której posty X nie stanowią już takiego problemu”. W kolejnej części przejdziemy od zasad do praktyki: zastanówmy się, jak Avalon poradziłby sobie z konkretnymi wyzwaniami, które dziś spędzają sen z powiek rodzicom, rządom i użytkownikom – od deepfake’ów po pornografię zemsty.
4. Sytuacje kryzysowe: deepfake’i, fałszywa nagość, pornografia zemsty, oszustwa – reakcja Avalon
Nowe technologie przyniosły nowe, często szokujące zagrożenia informacyjne. Deepfake’i – czyli hyperrealistycznie fałszowane nagrania audio/wideo – pozwalają wkładać w usta dowolnej osoby słowa, których nigdy nie wypowiedziała, albo tworzyć całkiem fikcyjne wydarzenia. Generatory obrazów AI potrafią przerobić zwykłe zdjęcie na fotografię nagiej osoby, co stało się narzędziem internetowej przemocy (np. wobec nastolatek). Pornografia zemsty (udostępnianie intymnych materiałów bez zgody) z niszowego zjawiska urosła do globalnej plagi, a w połączeniu z deepfake’ami staje się jeszcze łatwiejsza – ofiarą może paść każdy, wystarczy publiczne zdjęcie twarzy. Wreszcie oszustwa inwestycyjne i inne finansowe – od scamów „na wnuczka” po piramidy i fałszywe krypto – szerzą się viralowo w mediach społecznościowych. Jak w takim świecie mógłby pomóc Avalon?
Przede wszystkim, Avalon zmniejsza pole do anonimowej bezkarności, z której korzystają sprawcy tych czynów. Obecnie wielu twórców deepfake-porno czy rozsyłających pornografię zemsty pozostaje niewykrytych, ukrytych za pseudonimami na Discordzie czy forach. Są przypadki ujęcia sprawców – np. w Hiszpanii grupa nastolatków została skazana za tworzenie fałszywych nagich zdjęć koleżanek za pomocą aplikacji AI – ale często wymaga to żmudnego śledztwa, tropienia adresów IP, współpracy wielu firm. Gdyby jednak funkcjonował system, gdzie każdy użytkownik jest zweryfikowany, to od razu odstrasza wielu potencjalnych sprawców. Wiedząc, że nie można schować się za nowym kontem, taki 17-latek dwa razy by pomyślał, zanim uruchomiłby „deepfake’ową zemstę” na koleżance – bo miałby świadomość, że łatwo go namierzyć i pociągnąć do odpowiedzialności. W Avalon wrzucenie czyjegoś nagiego przerobionego zdjęcia to jawne złamanie zasad i prawa, a dzięki architekturze platformy ofierze łatwo zapewnić pomoc: treść może być błyskawicznie zablokowana (wykrywanie obrazów odbywa się automatycznie, na podstawie haszy obrazu i SI – podobnie jak dziś automatycznie wykrywa się np. pornografię dziecięcą), a konto sprawcy zamrożone. Sprawa może zostać przekazana do ścieżki prawnej (pamiętajmy – w Avalon tożsamość jest znana, więc materiał dowodowy jest). Dla porównania, w dzisiejszym internecie ofiara pornografii zemsty często walczy jak z wiatrakami: zgłasza do platform treści do usunięcia (trwa to długo, kopie krążą dalej), policja nie ma kogo ścigać, bo konta anonimowe i często zagraniczne.
Przyjrzyjmy się skali problemu, by zrozumieć, jak pilne są takie rozwiązania. Według najnowszych analiz, ponad 95% wszystkich deepfake’ów w sieci stanowią pornograficzne wizerunki kobiet tworzone bez ich zgody. Nastąpił eksplodujący wzrost – liczba deepfake’owych filmów w 2023 była o 550% większa niż w 2019. Ofiary opisują, że pojawienie się ich fałszywego nagiego filmu w sieci to dla nich „wyrok na całe życie”, niszczący reputację i poczucie bezpieczeństwa. Co gorsza, wykonanie takiego deepfake’a staje się banalnie proste – według raportu 2023 State of Deepfakes, obecnie wystarczy jedna zwykła fotografia twarzy i około 25 minut, by dowolną osobę „wygenerować” w minute-long filmie pornograficznym. Koszt? Praktycznie zero. Tak przerażająco niska bariera wejścia oznacza, że bez stanowczych mechanizmów, zjawisko może się wymknąć spod kontroli. Już teraz głośne są afery w szkołach – np. w Hiszpanii wspomniana grupa nastolatków, w Polsce również zdarzały się incydenty z przerabianiem zdjęć uczennic. Avalon oferuje środowisko, w którym takie zachowania mogą być natychmiast demaskowane i powstrzymywane. Automatyczne algorytmy porównujące obrazy wykryją charakterystyczne ślady generowania (np. brakujące fragmenty biżuterii, artefakty AI) – a jeśli nawet coś przemknie, poszkodowana osoba lub świadkowie mają gdzie to zgłosić i otrzymają szybką reakcję. Ważne jest też, że Avalon dba o kontekst i edukację użytkowników – przy wideo deepfake’owym można automatycznie umieścić ostrzeżenie: „Uwaga, to nagranie może być syntetyczne (podrobione)”. Już dziś są prace nad technologiami znakowania autentycznych materiałów (np. inicjatywa Content Authenticity Initiative), co Avalon mógłby wdrożyć – tzn. jeśli polityk udostępnia oficjalne wideo, to sygnowane kluczem, a jeśli pojawi się wersja deepfake, system ostrzeże, że brakuje autentycznego podpisu. Oczywiście nie wszystko da się wychwycić, ale reakcja w Avalon byłaby szybka, skoordynowana i – co kluczowe – bez kłótni ideologicznych. Nikt nie broni pornografii zemsty czy deepfake’ów w imię „wolności słowa” – to są jednoznaczne nadużycia, których nawet najbardziej liberalne podejścia nie usprawiedliwiają.
Podobnie z oszustwami inwestycyjnymi: dzisiaj zalewają one media społecznościowe w postaci reklam „cudownych inwestycji”, fałszywych profili udających celebrytów namawiających do krypto-schematu, czy komentarzy-botów pod postami giełdowymi. Avalon dzięki weryfikacji kont i mechanizmom reputacji może niemal wyeliminować ten proceder. Scam zwykle działa tak: anonim zakłada konto podszywające się np. pod Elona Muska, obiecuje rozdanie bitcoinów – ludzie dają się nabrać. W Avalon podszycie się pod Elona byłoby niemożliwe (bo Elon miałby swoje zweryfikowane konto, a próba użycia jego nazwiska przez kogoś innego byłaby od razu oznaczona). Co więcej, każdy użytkownik wiedziałby, że nie ma cudownych inwestycji, bo treści finansowe mogłyby być opatrzone kontekstem – np. „Uwaga: częsta metoda oszustwa. Nigdy nie wysyłaj pieniędzy nieznajomym.”. To jak pasy i poduszki bezpieczeństwa – nie zastąpią rozsądku kierowcy, ale chronią przed skutkami błędu. Avalon chroni użytkowników przed złowrogimi schematami poprzez filtrację takich treści (już sam brak anonimowości zmniejsza je radykalnie, bo mało który oszust poda swoje prawdziwe nazwisko) oraz system ostrzegawczy dla ewentualnych ofiar. W cytowanym wcześniej sporze politycznym w Polsce, minister cyfryzacji argumentował, że potrzebne są przepisy by chronić obywateli przed internetowymi oszustami – nazwał prezydenckie weto wręcz „klauzulą bezpieczeństwa dla pedofilów i oszustów” w sieci. To mocne słowa, które pokazują frustrację brakiem narzędzi. Avalon mógłby dostarczyć te narzędzia od strony technologicznej – systemowo utrudnić działalność oszustów i chronić potencjalne ofiary zanim padną ofiarą, a nie dopiero po fakcie.
Warto też zauważyć, że Avalon potrafiłby reagować proporcjonalnie do skali kryzysu. Wyobraźmy sobie sytuację nagłego zalewu deepfake’ów politycznych tuż przed wyborami (scenariusz, o którym wielu się obawia). W klasycznym internecie mielibyśmy chaos – część platform by usuwała, część nie, ludzie nie wiedzieliby co jest prawdą. W Avalon możliwe byłyby tryby alarmowe – szybkie oznaczanie wszystkich niezweryfikowanych nagrań wrażliwych osób jako podejrzane, wyświetlanie użytkownikom ostrzeżeń, uruchomienie sieci niezależnych weryfikatorów (coś w rodzaju wyborczej komisji fact-checkingowej) z uprawnieniem do pilnego prostowania fałszywych informacji. Ważne, że to wszystko odbywałoby się zgodnie z wcześniej ustalonym procesem, jawnie – nie na telefon polityka do CEO platformy, ale np. na podstawie protokołu uzgodnionego przez społeczność (coś jak odpowiednik procedury stanu wyjątkowego, tylko w informacyjnej sferze). Avalon pozwala na taką elastyczność, bo nie jest monolityczną firmą bojącą się skandalu czy spadku akcji – jest środowiskiem zorientowanym na dobro swoich użytkowników i integralność debaty.
Reasumując, w sytuacjach kryzysowych Avalon łączy to, co najlepsze z automatyki (szybkie wykrycie, blokada, ostrzeżenia) z tym, co najlepsze z ludzkiej oceny (procedury, odwołania, kontekst). I robi to bez odgórnej cenzury – bo tu nie chodzi o tłumienie legalnych opinii, tylko o powstrzymanie ewidentnych nadużyć: fałszerstw, naruszeń prywatności, przestępstw. System jest zaprojektowany, by nie tworzyć „nowego Ministerstwa Prawdy”, tylko zachować zdrowy internetowy ekosystem nawet pod presją nowych zagrożeń.
5. Wątpliwości i pytania: kto decyduje o prawdzie? Czy to nie inwigilacja? Co z anonimowością dla ofiar i sygnalistów?
Każda propozycja tak daleko idącej zmiany w funkcjonowaniu internetu budzi zrozumiałe pytania i obawy. Przyjrzyjmy się najczęściej podnoszonym wątpliwościom wobec modelu Avalon i spróbujmy na nie odpowiedzieć.
Kto decyduje, co jest prawdą, a co fałszem? – to fundamentalne pytanie, które pojawia się zawsze, gdy mówimy o przeciwdziałaniu dezinformacji. Krytycy obawiają się, że nawet w Avalon ktoś będzie musiał „oznaczyć” daną informację jako prawdziwą lub fałszywą, co może prowadzić do arbitralności i cenzury niewygodnych treści pod pretekstem walki z fake news. Odpowiedź leży w architekturze wielostopniowej weryfikacji i transparentności. Avalon nie zakłada istnienia jednego wszechwiedzącego cenzora, który na wejściu oznajmia: „to jest prawda, to kłamstwo”. Zamiast tego, stawia na kolektywną inteligencję społeczności wspartą niezależnymi autorytetami oraz dowodami. Wyobraźmy sobie, że ktoś publikuje kontrowersyjną informację – np. „Lek X całkowicie leczy COVID”. W Avalon proces mógłby wyglądać tak: system wykrywa, że to teza sprzeczna z dominującą wiedzą naukową, i automatycznie dodaje etykietę ostrzegawczą (np. „Ta informacja budzi wątpliwości, sprawdź źródła”). Jednocześnie weryfikatorzy społeczności (np. grupa lekarzy będących użytkownikami Avalon, albo zewnętrzna organizacja fact-check) dostają powiadomienie i mogą opracować notkę wyjaśniającą – np. „Brakuje dowodów na skuteczność leku X, badania pokazują co innego”. Ta notka zostaje dołączona do posta jako kontekst. Ostateczna decyzja, czy uwierzyć, należy do użytkowników – widzą oni zarówno oryginalny post, jak i opinię zweryfikowaną. Nikt nie „wycina” automatycznie oryginalnej wypowiedzi (chyba że stanowi bezpośrednie niebezpieczeństwo lub nielegalną treść, np. namowę do picia trucizny – tu prawo może wymagać reakcji). Chodzi o to, by prawda miała równy megafon co fałsz – obecnie fałsz krzyczy głośniej dzięki mechanizmom viralowym, Avalon równoważy szanse, ale nie ustanawia jednej Prawdy przez dekret. W istocie decyzję „co jest prawdą” podejmuje nadal każdy człowiek indywidualnie – Avalon dostarcza mu tylko więcej narzędzi i informacji, by mógł podjąć tę decyzję świadomie. Oczywiście, system reguł Avalonu definiuje pewne granice: np. co jest nielegalną treścią lub szkodliwą działalnością. Ale tu opieramy się na prawie i jasnych kryteriach – np. udostępnianie czyichś nagich zdjęć bez zgody jest przestępstwem, szerzenie pedofilskich treści jest zakazane – więc Avalon je blokuje tak samo, jak robić to powinna każda przestrzeń publiczna. To nie kwestia „prawdy lub fałszu” opinii, tylko faktu łamania cudzych praw. Natomiast w obszarze dezinformacji politycznej, medycznej itp. Avalon stawia na otwartą konfrontację źródeł i dowodów. Rola systemu to wydobyć te dowody na wierzch (poprzez kontekst, ułatwienia dla fact-checkingu, promowanie wiarygodnych źródeł), a nie chować czyjeś poglądy pod dywan.
Warto dodać, że dzięki otwartości kodu i procedur nawet proces weryfikacji w Avalon jest do wglądu. Jeśli powstanie mechanizm np. flagowania określonych treści jako potencjalnie fałszywych, będzie on publicznie znany – społeczność będzie mogła go kwestionować, ulepszać. Także skład ewentualnych paneli ekspertów (jeśli takie się założy do oceny niektórych sporów) byłby jawny i zróżnicowany. To przeciwieństwo „tajnej policji prawdy” – raczej odpowiednik ławy przysięgłych i biegłych ekspertów, gdzie transparentność jest najwyższą gwarancją bezstronności. Pytanie „kto decyduje co jest prawdą?” jest więc trochę źle postawione – w Avalon nikt pojedynczy nie „decyduje”, za to wielu pomaga dojść do prawdy, a wszyscy mają wgląd w proces. Jak ujął to specjalny sprawozdawca ONZ ds. wolności słowa, pojęcie „dezinformacji” jest z natury elastyczne i nie powinno być podstawą do ogólnych zakazów prawnych. Avalon respektuje tę zasadę – nie próbuje zakazywać mówienia czegokolwiek tylko dlatego, że większość uznaje to za błędne, zamiast tego wprowadza struktury, które sprawiają, że błąd zostaje naprostowany zanim wyrządzi masowe szkody.
Czy weryfikacja to nie koniec prywatności i anonimowości? – druga istotna obawa dotyczy wymogu „jedno zweryfikowane konto na osobę”. Krytycy pytają: czyż to nie orwellowska wizja, gdzie każdy użytkownik jest przypisany do tożsamości niczym numer PESEL i śledzony? Co z wolnością bycia anonimowym w sieci, która nieraz chroni przed reperkusjami (np. dla osób LGBT w nietolerancyjnych społecznościach, dysydentów politycznych, ofiar przemocy domowej szukających pomocy incognito)? To bardzo ważne kwestie. Avalon stara się pogodzić odpowiedzialność z prywatnością. Po pierwsze, weryfikacja w Avalon nie oznacza, że twoje nazwisko i adres będą wisieć przy każdym komentarzu. Można zachować pseudonim, jeśli ktoś sobie życzy – z tą różnicą, że system (lub wyznaczony zaufany podmiot) zna twoją tożsamość, aby zapobiec nadużyciom. To podobnie jak działają niektóre platformy finansowe: mogę mieć pseudonim w grze online, ale wypłacając pieniądze i tak muszę mieć zweryfikowane konto bankowe. W Avalon można więc być dla innych „JanKowalski87”, ale przy rejestracji potwierdzasz np. dokumentem swoją tożsamość. Nikt postronny nie ma dostępu do tych danych, są one chronione (np. szyfrowane, rozproszone), a używa się ich wyłącznie w sytuacjach koniecznych (np. przy łamaniu prawa – analogia: bank też zna nasze dane, ale nie ujawnia transakcji publicznie, chyba że uprawnione organy ścigania wystąpią o to w przypadku przestępstwa).
Po drugie, Avalon może wprowadzić mechanizmy ograniczonej anonimowości kontekstowej. Przykładowo, sygnalista w firmie lub ofiara molestowania, która boi się ujawnić publicznie, mogłaby skorzystać z trybu chronionego – jej post pojawia się anonimowo dla innych użytkowników, ale np. oznaczony jako pochodzący od „zweryfikowanego użytkownika w trybie ochronnym”. Społeczność może zdecydować, że takie posty podlegają szczególnej ostrożności (bo nie znamy tożsamości nadawcy), ale nie są zabronione. Co ważne, gdyby ktoś próbował nadużyć ten tryb, weryfikacja stoi na straży – np. jedna osoba nie może generować setek „anonimowych” głosów. W świecie offline również przewiduje się ochronę tożsamości świadków w procesach czy dziennikarską klauzulę anonimowości źródła – Avalon jak najbardziej może mieć analogiczne rozwiązania. Celem nie jest inwigilacja obywateli, lecz uniemożliwienie inwigilowania ich przez armię trolli i botów. Dzisiaj bowiem paradoksalnie nasza prywatność bywa naruszona bardziej przez anonimowych agresorów (np. ktoś zakłada fejkowe konto, by publikować obrzydliwe rzeczy na nasz temat, co niszczy nam reputację i prywatność), niż przez rządowe obserwacje. Avalon chroni zwykłego użytkownika przed takim atakiem, jednocześnie nie zwiększając uprawnień nadzoru władz – bo platforma nie przekazuje tych danych byle komu. Wręcz przeciwnie, dzięki decentralizacji i open-source’owi można uniknąć sytuacji masowego szpiegowania – społeczność widzi, co się dzieje z danymi. Jeśli Avalon byłby naprawdę otwartym projektem, to z pewnością powstałyby niezależne straże ochrony danych, dopilnowujące, by weryfikacja nie przerodziła się w „wielkiego brata”. Wreszcie, warto zaznaczyć, że pewne formy anonimowości zawsze pozostaną – np. czytelnik może przeglądać treści Avalonu bez logowania (czyli anonimowo) o ile autorzy udostępnią je publicznie. Ale do aktywnego udziału – tworzenia treści, komentowania – potrzebna jest minimalna dawka odpowiedzialności. To trochę jak w klubie dyskusyjnym: można przyjść posłuchać anonimowo z tyłu sali, ale żeby zabrać głos, trzeba się przedstawić choćby prowadzącemu. Taki kompromis między wolnością a odpowiedzialnością wydaje się rozsądny.
Co z ofiarami przemocy, mniejszościami i sygnalistami, którzy potrzebują anonimowości dla bezpieczeństwa? – ten aspekt warty jest osobnego podkreślenia, bo Avalon krytykowany powierzchownie mógłby wydawać się zagrożeniem dla tych osób, którym anonimowość umożliwia mówienie o krzywdzie czy nieprawidłowościach. Ale przy dobrze zaprojektowanych zasadach Avalon może być wręcz bezpieczniejszą przystanią dla ofiar i sygnalistów niż dzisiejszy internet. Dlaczego? Po pierwsze, obecny anonimowy internet wcale nie jest taki przyjazny dla ofiar – ofiary przemocy często są zaszczuwane przez anonimowych oprawców lub świadków, brakuje mechanizmów reakcji. W Avalon każdy użytkownik (w tym ofiara) ma większą kontrolę: może np. ograniczyć kto widzi jej posty (skoro jest weryfikacja, łatwo stworzyć filtry „tylko osoby z realnym imieniem i reputacją mogą komentować”, co wyeliminuje bandę przypadkowych hejterów). Po drugie, sygnaliści – np. pracownik ujawniający korupcję – woleliby często mieć gwarancję, że ich głos dotrze do właściwych ludzi, a nie utonie w zalewie trollingu lub nie zostanie wykasowany przez „nieznane siły”. Avalon daje narzędzia jak kanały zaufania: np. specjalny protokół dla sygnalistów, gdzie ich tożsamość może być zakodowana i ujawniona tylko pod pewnymi warunkami, a informacja trafia do wybranych dziennikarzy czy organizacji weryfikujących. To bardziej kwestia aplikacji nadbudowanych nad Avalonem, ale kluczowe jest, że fundament – czyli jedno konto na osobę, prywatne a jednak prawdziwe – pozwala budować takie mechanizmy w sposób odpowiedzialny. Dla przykładu, sygnalista mógłby w Avalon wysłać anonimowo (dla ogółu) wiadomość, która zostanie uwierzytelniona przez system jako pochodząca od „pracownika firmy X (zweryfikowano zatrudnienie, ale nie ujawniamy imienia)”. Mamy wtedy większe zaufanie do takiej informacji niż do anonima na forum, a jednocześnie chronimy osobę przed ujawnieniem publicznym.
Wszystkie te rozwiązania wymagają mądrego wyważenia i zapewne dopracowania w praktyce. Avalon to pewien ideał, do którego trzeba dążyć z rozwagą, by nie wylać dziecka z kąpielą. Jednak argument „to będzie inwigilacja” wydaje się nie trafiać celu – bo inwigilacja to potajemna, niekontrolowana obserwacja, a Avalon jest zaprzeczeniem potajemności: wszystko jest jawne, pod kontrolą społeczności. W takim systemie trudniej o nadużycia niż w świecie, gdzie rządy mogą potajemnie podglądać anonimową komunikację (co i tak robią np. włamując się lub masowo zbierając metadane). Avalon wręcz zwiększa bezpieczeństwo zwykłych ludzi, bo przejrzystość zmusza każdego – i władze, i platformę, i użytkowników – do odpowiedzialności za swoje działania.
6. Konkluzja: Zmieniamy zasady gry, nie walczymy z poglądami
Walka z dezinformacją często bywa przedstawiana jako konflikt światopoglądowy: jedna strona chce coś ocenzurować, bo uznaje za nieprawdę, druga broni wolności słowa i pluralizmu opinii. W efekcie spory o moderację treści grzęzną w impasie – każdy przykład usunięcia kontrowersyjnego materiału wywołuje kontrargument o cenzurze i tłumieniu debaty. Jednak analiza, którą przedstawiliśmy, prowadzi do wniosku, że to nie jest właściwe ujęcie problemu. Dezinformacja nie jest po prostu „czyjąś inną opinią” – często to efekt celowych nadużyć systemu informacyjnego, luk w architekturze internetu, które pozwalają kłamstwu rozprzestrzeniać się szybciej niż prawda. Dlatego potrzebujemy rozwiązań techniczno-instytucjonalnych, a nie ideologicznych.
Avalon jest propozycją takiego rozwiązania: to próba zmiany zasad gry, aby uczciwa, konstruktywna wymiana informacji znów miała przewagę nad manipulacją i nienawiścią. Nie chodzi o to, by wprowadzić „rządowego cenzora” czy stworzyć utopijną bańkę bez sporów – spory będą zawsze, ale toczą się fair, jeśli nie są zakłócane przez fałszywy doping ze strony botów czy jeśli obie strony mają dostęp do faktów. Cenzura systemowa przegrywa, bo walczy z objawami – Avalon chce leczyć przyczyny: brak weryfikacji, brak odpowiedzialności, algorytmy nastawione wyłącznie na zysk z emocji.
Niedawne wydarzenia w Polsce i na świecie pokazały napięcie między dwiema skrajnościami: z jednej strony lęk przed cenzurą (przykład weta prezydenta Nawrockiego, porównującego rządowe pomysły do Orwella), z drugiej frustracja brakiem działania wobec realnych krzywd (głos ministra mówiącego o „wstydzie”, że pedofile i oszuści mogą spać spokojnie online). To napięcie da się rozładować tylko poprzez nowe podejście, które zagwarantuje wolność słowa, ale zarazem pozbawi jej pasożytów możliwości nadużycia tej wolności.
Możemy wyobrazić sobie internet, w którym nie walczymy już z ludźmi o poglądy, lecz wspólnie – jako społeczność użytkowników – walczymy z wadami systemu, które dziś te poglądy wypaczają. W Avalonie, jeśli pojawia się sporny temat, to narzędzia platformy pomagają nam dociec prawdy (lub przynajmniej rozumieć różne perspektywy), zamiast eskalować konflikt. Nie trzeba banować każdej teorii spiskowej – wystarczy, że nie dostanie sztucznego dopalacza, a obok niej pojawi się spokojne sprostowanie i dyskusja ludzi o wiarygodnych profilach. To jakościowo inna wizja internetu: bardziej jak uporządkowane forum obywatelskie niż jak dziki bazar krzyków.
Oczywiście, Avalon nie rozwiąże magicznie wszelkich problemów – pozostaną różnice interesów, propagandy rządowe, bańki informacyjne. Ale daje narzędzia, by sobie z nimi radzić bardziej przejrzyście i demokratycznie. Tak jak demokracja nie polega na uciszaniu oponentów, tylko na ustanowieniu procedur i instytucji, które cywilizują spór – tak Avalon chce uczynić z internetu demokratyczną przestrzeń z prawdziwego zdarzenia, gdzie prawa jednostki są chronione, a nadużycia ograniczane.
Podsumowując, dezinformacja to nie „problem głupich ludzi, którzy wierzą w bzdury”, lecz problem wadliwych mechanizmów, które te bzdury rozdmuchują ponad miarę. Lekarstwem nie jest więcej cenzury, ale mądrzejsza infrastruktura informacji. Jeśli nie zmienimy architektury naszych cyfrowych platform, będziemy skazani na wieczną wojnę wyniszczającą z kolejnymi falami fake newsów, panik moralnych i oszustw. Avalon jest jedną z odważnych prób odpowiedzi na to wyzwanie – zaproszeniem do zaprojektowania internetu na nowo, z wartościami przejrzystości, odpowiedzialności i bezpieczeństwa w rdzeniu. To zaproszenie do świata, gdzie prawda i wolność słowa wzajemnie się wspierają, zamiast wchodzić w konflikt. Czy uda się wcielić tę wizję w życie? To zależy od nas – od presji społecznej, decyzji legislacyjnych, rozwoju technologii. Ale jedno wydaje się pewne: dalsza przyszłość wolnego internetu wymaga takiej zmiany paradygmatu. Avalon to początek tej drogi – droga ku internetowi, który służy ludziom, a nie dezinformacji.
Bibliografia
- Jillian C. York, David Greene, Gennie Gebhart – Censorship Can’t Be The Only Answer to Disinformation Online, Electronic Frontier Foundation (2019)
- Zgromadzenie ekspertów wysokiego szczebla EC – A Multi-Dimensional Approach to Disinformation, European Commission (2018) – zalecenie unikania cenzury i promowania transparentności źródeł
- Verfassungsblog – Prison for Fake News, analiza prawna (2024) – omówienie stanowiska UE/ONZ ws. penalizacji „fake news”
- OSoMe, Indiana University – Defending citizens from online manipulation – that’s not censorship (2025)
- Nature (npj Complexity) – Perspective on friction interventions to curb misinformation (2024)
- The Guardian – Facebook removed 1.5m videos of New Zealand terror attack in first 24 hours (2019)
- Social Media Today – Meta Content Removals and Fake Accounts Report (2025)
- SEO.AI – How Many Videos Are on YouTube? (2025) – statystyki uploadu treści
- Future of Free Speech – How Censorship Turns Ordinary Men into Martyrs – wywiad z Jacobem Mchangamą (2025)
- SCMP – Indonesia’s plan: one account per person (2025)
- Oko.press – Prezydent wetuje blokowanie nielegalnych treści w internecie (09.01.2026)
- Ministerstwo Cyfryzacji (Gov.pl) – Weto Prezydenta osłabia prawa użytkowników internetu (09.01.2026)
- Euronews – Generative AI fueling spread of deepfake pornography (2023)
- The Guardian – Spanish teenager investigated for AI-generated nudes (2025)
- PBS NewsHour – Women face new sexual harassment with deepfake pornography (2023) – 96% deepfake’ów to pornografia niekonsensualna (w rozmowie z N. Jankowicz)
- ACM/IEEE – Non-consensual Synthetic Intimate Imagery: Prevalence (2023) – badanie zjawiska deepfake porn.
- MIT Press (misinfotr.review) – Small digital frictions reduce sharing of misinformation (2021)
- Santa Clara Principles on Transparency and Accountability in Content Moderation (2018)
Dodaj komentarz