I. Wstęp
Przełom lat 2025 i 2026 przeszedł do historii jako moment fundamentalnego zerwania z doktryną laissez-faire w nadzorze nad przestrzenią cyfrową. Obserwujemy globalny odwrót od nieskutecznej samoregulacji platform Big Tech na rzecz twardego interwencjonizmu państwowego, motywowanego pogłębiającym się kryzysem zdrowia psychicznego młodzieży. Niniejszy raport analizuje trzy dominujące modele tej transformacji: anglosaski model prohibicji (Australia), europejski model suwerenności cywilnej (m.in. Francja, Polska) oraz azjatycki model technokratycznej kontroli (Chiny).
Kluczowe wnioski :
- Koniec ery samoregulacji: Rządy przestały polegać na dobrowolnych deklaracjach platform, wprowadzając rygorystyczne systemy weryfikacji wieku (Age Assurance) oparte na tożsamości cyfrowej (np. mObywatel, EUDI Wallet).
- Ryzyko „Splinternetu”: Fragmentacja przepisów krajowych tworzy „regulacyjny patchwork”, co wymusza na globalnych graczach dostosowywanie algorytmów do lokalnych jurysdykcji, ale grozi też wykluczeniem cyfrowym użytkowników w najbardziej restrykcyjnych regionach.
- Paradygmat „Safety by Design”: Tradycyjna ochrona danych (RODO) ewoluuje w stronę ochrony dobrostanu fizycznego i psychicznego, wymuszając zmiany w samej architekturze wyboru (np. eliminację „nieskończonego scrollowania” dla nieletnich).
- Koncepcja Avalon: Open Digital Foundation postuluje przejście od polityki zakazów do budowy „bezpiecznych przystani” – publicznych mediów społecznościowych wolnych od mechanizmów uzależniających i profilowania reklamowego.
II. Wstęp: Ewolucja mediów społecznościowych i upadek samoregulacji
W ciągu ostatniej dekady media społecznościowe ewoluowały z narzędzi służących do podtrzymywania relacji w potężne ekosystemy oparte na ekonomii uwagi. Przez lata dominującym modelem nadzoru była samoregulacja – wiara, że platformy takie jak Meta, TikTok czy Snapchat są w stanie samodzielnie moderować treści i chronić nieletnich. Jednak rok 2026 przyniósł ostateczne potwierdzenie, że ten model zawiódł.
Upadek „Cyfrowej Niewinności”
Głównym katalizatorem zmian stały się alarmujące dane dotyczące zdrowia psychicznego. Badania organizacji takich jak UNICEF oraz krajowych rad ds. zdrowia wskazują na bezpośrednią korelację między intensywnym użytkowaniem platform a wzrostem stanów lękowych, depresji oraz zaburzeń snu u dzieci. Przykładowo, w Danii minister Caroline Stage Olsen określiła obecne narażenie dzieci na przemoc i treści szkodliwe w sieci jako „zbyt wielkie ryzyko”, którego rządy nie mogą już ignorować.
Dlaczego samoregulacja nie zadziałała?
Problem nie leży wyłącznie w braku dobrej woli korporacji, ale w ich fundamencie biznesowym. Mechanizmy takie jak:
- Algorytmy behawioralne: Projektowane w celu maksymalizacji zaangażowania (engagement), często promują treści kontrowersyjne lub szkodliwe, aby zatrzymać użytkownika przed ekranem.
- Architektura uzależniająca: Wykorzystanie mechanizmów dopaminowych (lajki, powiadomienia, nieskończone przewijanie), które u dzieci z jeszcze nie w pełni wykształconym układem hamowania w korze przedczołowej prowadzą do patologicznego przywiązania.
- Fasadowa weryfikacja wieku: Przez lata „bariery wiekowe” ograniczały się do prostych deklaracji typu „mam 13 lat”, co było powszechnie obchodzone przez dzieci.
W obliczu tych faktów, państwa na całym świecie zaczęły postrzegać media społecznościowe nie jako neutralne usługi, ale jako środowiska wysokiego ryzyka. Obecna transformacja regulacyjna to proces odzyskiwania suwerenności nad cyfrowym środowiskiem dorastania młodego pokolenia. Jak stwierdził premier Hiszpanii Pedro Sánchez: „media społecznościowe stały się państwem upadłym”, co wymusza na regulatorach wprowadzenie realnych, technologicznych granic.
III. Analiza Globalnych Trendów Regulacyjnych: Od „Kliknij i Wejdź” do Paszportu Wieku
Rok 2026 przyniósł ostateczne odejście od uniwersalnego, wolnego internetu dla wszystkich. Mapa regulacyjna świata uległa fragmentacji, tworząc zróżnicowane standardy bezpieczeństwa, które klasyfikujemy w trzech głównych modelach: prohibicyjnym, opartym na ryzyku oraz totalnym.
1. Australia: Radykalny Eksperyment i Precedens Finansowy
Australia stała się globalnym poligonem doświadczalnym dla najbardziej restrykcyjnych przepisów. Federalny zakaz korzystania z mediów społecznościowych dla osób poniżej 16. roku życia to nie tylko deklaracja, ale twardy system egzekwowania:
- Odpowiedzialność platform: To na gigantach technologicznych spoczywa obowiązek udowodnienia, że podjęli „rozsądne kroki” w celu weryfikacji wieku.
- Drakońskie kary: Ustawa przewiduje grzywny do 50 mln AUD za systemowe uchybienia.
- Testy technologii: Rząd australijski sfinansował szeroko zakrojone testy technologii biometrycznych (estymacja wieku na podstawie skanu twarzy), odchodząc od konieczności przesyłania skanów paszportów.
2. Unia Europejska: Model Suwerenności i „EUDI Wallet”
Europa, opierając się na fundamencie aktu o usługach cyfrowych (DSA) oraz AI Act, wdraża model ochrony poprzez tożsamość cyfrową. Kluczowe inicjatywy krajowe to:
- Francja: Wprowadzenie granicy 15 lat z obowiązkiem weryfikacji tożsamości. Francuski regulator (Arcom) promuje tzw. „cyfrowe przerwy” (digital detox) w szkołach, które mają stać się standardem w całym roku szkolnym 2026/27.
- Hiszpania: Wyznaczenie granicy na poziomie 16 lat. Rząd Pedro Sáncheza kładzie nacisk na walkę z treściami generowanymi przez AI (deepfake pornografia), które dotykają małoletnich.
- Polska i e-ID: Wykorzystanie aplikacji mObywatel jako bezpiecznego pośrednika. Użytkownik nie udostępnia platformie danych osobowych, a jedynie „token” potwierdzający ukończenie wymaganego wieku (tzw. Zero-Knowledge Proof).
3. Wielka Brytania: Online Safety Act i „Duty of Care”
Brytyjskie podejście skupia się na koncepcji „należytej staranności” (duty of care). Regulator Ofcom otrzymał uprawnienia do:
- Wymuszania zmiany algorytmów, które „agresywnie” promują treści pro-anorektyczne lub o charakterze samookaleczeń.
- Wprowadzania „godzin policyjnych” dla kont nieletnich (blokada powiadomień w godzinach nocnych).
- Nakładania kar na kadrę zarządzającą platform (odpowiedzialność osobista), co jest unikalnym rozwiązaniem w skali globalnej.
4. USA: Batalia o Pierwszą Poprawkę
W Stanach Zjednoczonych walka o bezpieczeństwo dzieci toczy się głównie na sali sądowej. Dyskusje wokół KOSA (Kids Online Safety Act) i COPPA 2.0 zderzają się z silnym lobbingiem organizacji takich jak NetChoice, które argumentują, że weryfikacja wieku narusza Pierwszą Poprawkę do Konstytucji (wolność słowa).
- Stany vs. Federalni: Podczas gdy Kongres pozostaje w klinczu, stany takie jak Floryda i Arkansas wdrażają własne zakazy, co prowadzi do „bałaganu jurysdykcyjnego” i niepewności prawnej dla platform.
5. Chiny: Technokratyczna Dyscyplina
Chiński model „Minor Mode” jest najbardziej zaawansowany technicznie i najbardziej restrykcyjny:
- Limity czasowe: System operacyjny smartfona automatycznie blokuje dostęp do sieci po przekroczeniu limitu (np. 40 minut dziennie dla dzieci poniżej 8 lat).
- Curfew (Godzina policyjna): Całkowity zakaz dostępu do usług internetowych między 22:00 a 6:00 rano.
- Selekcja treści: Algorytmy są odgórnie ustawione na promowanie treści edukacyjnych, patriotycznych i prospołecznych, całkowicie wycinając „rozrywkę niskiej jakości”.
Porównanie podejść: Tabela syntetyczna
| Model | Główny cel | Granica wieku | Metoda weryfikacji | Kluczowy instrument |
| Australijski (Prohibicja) | Całkowita ochrona przed SM | 16 lat | Biometria / ID | Kary finansowe (50m AUD) |
| Europejski (Ryzyko) | Suwerenność i prywatność | 15-16 lat | Portfele tożsamości (e-ID) | DSA / AI Act |
| Brytyjski (Prewencja) | Bezpieczeństwo treści | 13 lat+ | Estymacja wieku AI | Ofcom / Duty of Care |
| Amerykański (Sądowy) | Ochrona danych i wolność | Zależna od stanu | Deklaratywna / Sądowa | KOSA / COPPA |
| Chiński (Totalny) | Dyscyplina i edukacja | Stopniowalna | Systemowa (OS level) | Minor Mode |
Analiza Open Digital Foundation: Obserwowany trend pokazuje, że świat odchodzi od „sztywnych zakazów” na rzecz „zarządzania ryzykiem algorytmicznym”. Jednak to właśnie weryfikacja wieku staje się nowym punktem zapalnym w debacie o prywatności.
IV. Zagrożenia w Ekosystemie: Architektura Wyboru i Mechanizmy Uzależniające
Fundamentem kryzysu, który doprowadził do fali regulacji w latach 2025–2026, jest konflikt interesów między modelem biznesowym Big Tech a dobrostanem użytkownika. Platformy operują w ramach ekonomii uwagi, gdzie główną walutą jest czas spędzony przed ekranem, co wymusza stosowanie inżynierii behawioralnej nakierowanej na maksymalizację zaangażowania.
1. Algorytmy Rekomendacyjne: „Fabryki Zaangażowania”
Tradycyjne wyświetlanie treści chronologicznych zostało zastąpione przez algorytmy oparte na uczeniu maszynowym, które profilują użytkownika w czasie rzeczywistym.
- Engagement-bait: Algorytmy promują treści sensacyjne, polaryzujące lub wywołujące silne emocje, ponieważ statystycznie generują one najwięcej interakcji.
- Bańki informacyjne i radykalizacja: U dzieci, których mechanizmy krytycznego myślenia wciąż się kształtują, algorytmy mogą szybko zawęzić pole widzenia do treści szkodliwych, np. promujących drastyczne diety, nierealistyczne wzorce urody czy zabiegi medycyny estetycznej.
- Brak kontroli nad wejściem: Dotychczasowe systemy pozwalały nieletnim na swobodne poruszanie się w ekosystemie bez nadzoru, co Premier Australii określił jako przestrzeń, której „dzieci nie powinny nawigować samotnie”.
2. Dark Patterns i Pętla Dopaminowa
Współczesne interfejsy wykorzystują tzw. dark patterns – techniki projektowania, które manipulują użytkownikiem, by podejmował decyzje niekoniecznie dla niego korzystne.
- Nieskończone przewijanie (Infinite Scroll): Eliminuje naturalne „punkty stopu”, co prowadzi do zjawiska doom-scrollingu, szczególnie niebezpiecznego w godzinach nocnych.
- Mechanizmy dopaminowe: Lajki, wyświetlenia i zmienne nagrody (intermittent reinforcement) działają na układ nagrody w mózgu podobnie jak gry hazardowe. U dzieci, u których kora przedczołowa odpowiadająca za kontrolę impulsów nie jest w pełni rozwinięta, prowadzi to do patologicznego przywiązania.
- Powiadomienia typu „Push”: Systematyczne przerywanie koncentracji wymusza ciągłą gotowość cyfrową, co bezpośrednio koreluje ze spadkiem wyników w nauce i zaburzeniami snu.
3. Case Study: Inicjatywa „Instagram Teen Accounts”
W odpowiedzi na rosnącą presję regulacyjną i przesłuchania przed Senatem USA , Meta wprowadziła w październiku 2025 roku model „Teen Accounts”. Choć jest to krok w stronę Safety by Design, eksperci pozostają sceptyczni co do jego skuteczności.
| Funkcjonalność | Mechanizm Ochronny | Ograniczenia i Krytyka |
| Standard PG-13 | Filtrowanie treści drastycznych i szkodliwych (diety, przemoc). | Algorytmy filtrowania często nie nadążają za nowymi trendami i slangiem młodzieżowym. |
| Prywatność domyślna | Konta są automatycznie prywatne, blokada wiadomości od nieznajomych. | Możliwość łatwego obejścia poprzez podanie fałszywej daty urodzenia przy braku twardej weryfikacji. |
| Nadzór rodzicielski | Zmiana ustawień wymaga zgody opiekuna (parental permission). | Przerzuca odpowiedzialność na rodziców, którzy często nie mają kompetencji cyfrowych. |
| Wyciszenie nocne | Automatyczne blokowanie powiadomień w nocy. | Rozwiązanie „zbyt małe i zbyt późne” w obliczu skali uzależnienia. |
4. Skutki Długofalowe: Zdrowie Psychiczne i Kapitał Społeczny
Dane z 2026 roku potwierdzają, że nadmierna ekspozycja na algorytmy behawioralne nie jest problemem jedynie technologicznym, ale społecznym:
- Kryzys zdrowia psychicznego: Bezpośrednia korelacja między czasem spędzonym w SM a wzrostem stanów lękowych i depresji u nastolatków.
- Cyberprzemoc: Anonimowość i szybkość rozprzestrzeniania się treści ułatwiają nękanie rówieśnicze, przed którym dzieci mają ograniczoną możliwość ucieczki w świecie online.
- Erozja uwagi: Młodzież traci zdolność do głębokiej koncentracji (deep work), co wpływa na ich przyszłe szanse na rynku pracy.
Analiza Open Digital Foundation: Transformacja regulacyjna 2025/26 to próba wymuszenia na technologii powrotu do roli służebnej. Jednak same zakazy mogą zepchnąć młodzież do „cyfrowego podziemia” (VPN, niszowe fora), dlatego kluczowe staje się wdrożenie bezpiecznych metod weryfikacji wieku przy zachowaniu prywatności.
V. Rola Technologii w Rozwiązaniu Problemu: Od Inwigilacji do Anonimowej Weryfikacji
Skuteczność nowych regulacji zależy od przejścia z fasadowych „oświadczeń o wieku” do wiarygodnych systemów Age Assurance. Kluczowym wyzwaniem jest stworzenie bariery, która zatrzyma nieletnich, ale nie zmusi dorosłych do przekazywania wrażliwych danych biometrycznych lub skanów dowodów osobistych prywatnym korporacjom.
1. Age Assurance vs. Age Verification: Subtelna, ale kluczowa różnica
W raportach fundacji rozróżniamy dwa podejścia, które rządy testują w 2026 roku:
- Age Verification (Weryfikacja): Twarde potwierdzenie tożsamości na podstawie dokumentu (paszport, ID). Jest precyzyjne, ale niesie ogromne ryzyko wycieku danych i tworzenia cyfrowych śladów.
- Age Estimation (Estymacja): Wykorzystanie AI (np. technologia Yoti) do skanowania cech twarzy użytkownika w celu określenia przedziału wiekowego. Proces odbywa się lokalnie na urządzeniu, a obraz jest natychmiast usuwany. To podejście dominuje w testach w Australii i Wielkiej Brytanii.
2. Przełom kryptograficzny: Zero-Knowledge Proof (ZKP)
Fundamentem „złotego standardu”, który promujemy, jest technologia Dowodu z Wiedzą Zerową (ZKP). Pozwala ona udowodnić prawdziwość stwierdzenia (np. „mam ukończone 16 lat”) bez ujawniania jakichkolwiek innych informacji (daty urodzenia, imienia, PESEL-u).
Jak to działa w praktyce (Model mObywatel / EUDI Wallet):
- Użytkownik posiada cyfrowy portfel tożsamości zweryfikowany przez państwo (np. mObywatel).
- Platforma (np. Instagram) wysyła zapytanie: „Czy użytkownik ma >16 lat?”.
- Aplikacja mObywatel generuje kryptograficzny dowód (token), który mówi jedynie: „Tak” lub „Nie”.
- Platforma otrzymuje potwierdzenie, ale nie zna tożsamości użytkownika. Nie może powiązać konta w social mediach z realnym dokumentem tożsamości w swojej bazie danych.
To rozwiązanie eliminuje ryzyko masowego profilowania obywateli przez Big Tech, jednocześnie dając państwu pewność, że prawo jest przestrzegane.
3. „Safety by Design” – Architektura Odpowiedzialności
Technologia musi wspierać bezpieczeństwo nie tylko na etapie logowania, ale w całym procesie użytkowania:
- Default-to-Private: Automatyczne ustawianie kont nieletnich jako prywatnych, z ukrytą lokalizacją i zablokowanymi wiadomościami od osób spoza kręgu znajomych.
- Interoperacyjne Limity: Koncepcja „wspólnego licznika czasu” – jeśli dziecko wykorzysta limit 2 godzin na TikToku, nie może „przesiąść się” na Instagrama, ponieważ system operacyjny (iOS/Android) zarządza budżetem czasu na poziomie urządzenia (model zbliżony do chińskiego Minor Mode, ale zarządzany przez rodzica, a nie partię).
- Algorytmiczna Przejrzystość: Wymuszanie na platformach udostępniania kodu źródłowego algorytmów rekomendacyjnych dla audytorów zewnętrznych (zgodnie z wymogami DSA), aby wykrywać mechanizmy celowo uzależniające.
Analiza Open Digital Foundation: Wdrażanie systemów weryfikacji wieku musi być transparentne. Proponujemy, aby bramki weryfikacyjne były zarządzane przez zaufane strony trzecie (Trust Frameworks) lub instytucje publiczne, a nie przez same platformy społecznościowe, co zapobiegnie dalszej koncentracji danych w rękach gigantów z Doliny Krzemowej.
VI. Rekomendacje: „Złoty Standard” i Wizja Systemu Avalon
W obliczu cyfrowego kryzysu Open Digital Foundation postuluje przejście od defensywnej polityki zakazów do ofensywnej strategii budowy alternatywnej infrastruktury. Kluczem do sukcesu nie jest mnożenie lokalnych barier, ale stworzenie Jednonego Europejskiego Standardu Bezpieczeństwa Cyfrowego, który umożliwi wdrożenie rozwiązań takich jak projekt Avalon.
1. Postulat Unifikacji: Koniec z „Regulacyjnym Chaosem”
Obecna sytuacja, w której Francja, Hiszpania czy Polska wprowadzają własne warianty weryfikacji wieku, jest nieefektywna ekonomicznie i prawnie.
- Jedna Wersja dla Europy: Fundacja rekomenduje przyjęcie wspólnego zbioru zasad na poziomie UE (wykraczających poza DSA), co pozwoliłoby na rozwój systemów takich jak Avalon w jednej, skalowalnej wersji dla 450 mln obywateli.
- Redukcja Kosztów: Harmonizacja prawa drastycznie obniża bariery wejścia dla innowacyjnych projektów non-profit i sektora publicznego, które obecnie nie są w stanie udźwignąć kosztów „legalistycznego labiryntu” w każdym kraju z osobna.
2. System Avalon: „Bezpieczna Przystań” w Sieci
Avalon to nie tylko aplikacja, to wizja Internetu 2.0 (Intranetu Ludzi) – zweryfikowanego ekosystemu usług społecznych, który opiera się na zaufaniu, a nie na zysku z reklam. Kluczowe filary Avalonu jako „Złotego Standardu”:
- Tożsamość bez inwigilacji: Dzięki technologii Zero-Knowledge Proof (ZKP), Avalon pozwala na pełną weryfikację tego, że „każdy człowiek w systemie jest prawdziwy”, bez konieczności gromadzenia i procesowania jego wrażliwych danych przez korporacje.
- Ekosystem wolny od toksyn: System jest z założenia wolny od reklam, szpiegowania (spy-free) i algorytmów uzależniających. To przestrzeń, w której szkoła, zdrowie, praca i płatności działają w jednym, bezpiecznym środowisku.
- Open Source i Demokratyczne Zarządzanie: Kod systemu jest jawny i poddawany społecznemu audytowi (review). Decyzje o rozwoju platformy podejmuje społeczność w procesach transparentnych głosowań, co eliminuje dyktat prywatnych zarządów spółek technologicznych.
3. Rekomendacje dla Legislatorów (Model „Public Service Internet”)
Państwo nie powinno być tylko „nocnym stróżem” nakładającym kary, ale fundatorem bezpiecznej infrastruktury:
- Inwestycje w Cyfrowe Dobra Wspólne: Zamiast dotować jedynie prywatne start-upy, rządy powinny finansować rozwój otwartych protokołów i systemów takich jak Avalon, traktując je jako użyteczność publiczną (na wzór dróg czy wodociągów).
- Edukacja jako Fundament: Zakazy są skuteczne tylko wtedy, gdy towarzyszy im nauka krytycznego myślenia i zrozumienia algorytmów. Avalon przewiduje systematyczne kształcenie obywateli, by stali się odporni na manipulację.
4. Rekomendacje dla Biznesu: Etos „Safety by Design”
Dla podmiotów komercyjnych Avalon i postulaty Fundacji stanowią wyzwanie do zmiany paradygmatu:
- Interoperacyjność: Przejście na otwarte standardy wymiany danych, które pozwolą użytkownikom na łatwe przenoszenie swojej cyfrowei tożsamości między systemami bez utraty prywatności.
- Transparentność Algorytmiczna: Dobrowolne otwieranie kodów źródłowych algorytmów rekomendacyjnych dla niezależnych instytutów badawczych w celu potwierdzenia ich neutralności wobec psychiki dziecka.
VII. Podsumowanie i wnioski na przyszłość: W stronę „Cyfrowego Odrodzenia”
Transformacja regulacyjna lat 2025–2026, którą szczegółowo opisaliśmy w niniejszym raporcie, nie jest jedynie przejściowym trendem politycznym. To fundamentalna korekta cywilizacyjna. Po dekadzie nieskrępowanego eksperymentu społecznego, jakim było oddanie przestrzeni publicznej pod kontrolę algorytmów nastawionych na zysk, państwa odzyskują sprawczość w imieniu swoich najmłodszych obywateli.
1. Widmo „Splinternetu” vs. Potęga Unifikacji
Największym zagrożeniem dla sukcesu obecnych reform jest ich niespójność. Jeśli Europa nie wypracuje Jednolitego Standardu Bezpieczeństwa Cyfrowego, grozi nam scenariusz „Splinternetu” – rozkawałkowanej sieci, w której poziom ochrony dziecka zależy od kodu pocztowego.
- Efekt Skali: Tylko zunifikowany rynek 450 milionów konsumentów ma realną siłę negocjacyjną wobec gigantów z Doliny Krzemowej.
- Efektywność Innowacji: Harmonizacja prawa pozwoli na wdrożenie systemów takich jak projekt Avalon w jednej, optymalnej wersji, co drastycznie obniży koszty i przyspieszy ich adopcję w szkołach i domach w całej UE.
2. Przyszłość Pokolenia Alfa: Odporność zamiast Izolacji
Samo wprowadzanie zakazów (prohibicja) jest rozwiązaniem doraźnym, lecz niewystarczającym. Przyszłość ochrony dzieci w sieci musi opierać się na dwóch równoległych filarach:
- Twarda Technologia: Wdrażanie systemów weryfikacji wieku opartych na Zero-Knowledge Proof (ZKP), które chronią prywatność, eliminując jednocześnie anonimową szkodliwość.
- Nowy Model Biznesowy: Wspieranie „Public Service Internet” – mediów społecznościowych, które nie muszą monetyzować uwagi użytkownika, a zatem nie mają interesu w stosowaniu uzależniających dark patterns.
3. Wnioski końcowe: Czy uratujemy cyfrową przestrzeń?
Stoimy przed historyczną szansą na „Cyfrowe Odrodzenie”. Przejście od modelu platformy-pułapki do modelu platformy-usługi społecznej wymaga jednak odwagi legislacyjnej i inwestycji w infrastrukturę publiczną.
Działania poszczególnych krajów (Francji, Hiszpanii czy Polski) są cennymi poligonami doświadczalnymi, ale to Bruksela musi stać się centrum dowodzenia w walce o bezpieczeństwo nieletnich. Musimy przestać pytać, jak zakazać dzieciom wstępu do toksycznego internetu, a zacząć budować dom – bezpieczną przystań, w której technologia służy rozwojowi, a nie eksploatacji. Budowa zintegrowanego, zweryfikowanego ekosystemu usług społecznych to jedyna droga do odzyskania cyfrowej suwerenności przez obywateli Unii Europejskiej.