Otwartość i transparentność — dlaczego kod musi być jawny
Wprowadzenie
Na stronie Problem internetu opisujemy, jak prywatne platformy przejęły funkcję infrastruktury publicznej, pozostając jednocześnie nieprzejrzyste i nierozliczalne. Na stronie Europejska Superaplikacja przedstawiamy ekosystem, który ma to zmienić, i wspominamy, że jego kod będzie otwarty. Ten dokument odpowiada na pytanie, które naturalnie się nasuwa: dlaczego otwartość kodu to nie jest tylko wybór techniczny, ale konieczność.
Argument jest prosty i nie wymaga wiedzy informatycznej. Jeśli infrastruktura cyfrowa obsługuje 450 milionów obywateli, jeśli przez nią przechodzą ich rozmowy, zakupy, sprawy urzędowe i dane medyczne, to obywatele mają prawo wiedzieć, jak ta infrastruktura działa. Nie dlatego, że każdy będzie czytał kod źródłowy. Dlatego, że każdy powinien mieć taką możliwość. Jawność kodu to nie oczekiwanie wobec obywatela. To gwarancja, którą obywatel otrzymuje.
Na stronie Tożsamość i zaufanie w sieci tłumaczymy, dlaczego w Europejskiej Superaplikacji każde konto musi być powiązane z prawdziwą osobą. Ten tekst uzasadnia drugą stronę tej samej monety: dlaczego sam system musi być przejrzysty. Weryfikacja tożsamości chroni obywateli przed botami i oszustami. Jawność kodu chroni obywateli przed samym systemem.
1. Problem „czarnej skrzynki”
Zamknięty kod źródłowy oznacza, że nikt z zewnątrz nie może sprawdzić, jak działa dany system. Użytkownik musi wierzyć twórcy na słowo: że algorytm jest uczciwy, że dane są bezpieczne, że system robi to, co obiecuje. To nie jest abstrakcyjny problem filozoficzny. To problem, który wielokrotnie doprowadził do realnych szkód na masową skalę.
Volkswagen: oprogramowanie, które kłamało
We wrześniu 2015 roku amerykańska Agencja Ochrony Środowiska (EPA) ujawniła, że Volkswagen instalował w silnikach Diesla oprogramowanie zaprojektowane wyłącznie w jednym celu: oszukiwanie testów emisji spalin1. Tzw. defeat device wykrywał, kiedy samochód jest testowany w laboratorium, i włączał pełną kontrolę emisji. Na normalnej drodze kontrola się wyłączała, a samochód emitował do czterdziestu razy więcej tlenków azotu niż pozwalały normy2.
Oszustwo trwało od 2009 roku i objęło około 11 milionów pojazdów na całym świecie3. Volkswagen nie przyznał się dobrowolnie. Wykrycie zawdzięczamy badaczom z West Virginia University, którzy w 2013 roku na zlecenie International Council on Clean Transportation postanowili zmierzyć emisje w warunkach drogowych, a nie laboratoryjnych4. Dopiero wtedy okazało się, że wyniki odbiegają drastycznie od deklaracji producenta.
Gdyby oprogramowanie sterujące silnikiem było jawne, oszustwo byłoby widoczne natychmiast. Każdy inżynier mógłby przeczytać kod i zobaczyć, że system rozpoznaje warunki testowe i zmienia swoje zachowanie. Volkswagen mógł oszukiwać przez sześć lat wyłącznie dlatego, że kod był zamknięty. Badania MIT szacują, że nadmiarowe emisje z tych pojazdów doprowadzą do około 1200 przedwczesnych zgonów w samej Europie5.
Facebook: algorytm, który promował gniew
W październiku 2021 roku Frances Haugen, była pracownica Facebooka, przekazała Kongresowi Stanów Zjednoczonych i mediom tysiące wewnętrznych dokumentów firmy6. Dokumenty ujawniły, że Facebook od lat wiedział o problemach, które jego algorytm powodował, i świadomie decydował się ich nie rozwiązywać.
Wewnętrzne badania firmy wykazały, że algorytm rankingowy Facebooka systematycznie promował treści wywołujące silne emocje, w szczególności gniew i oburzenie, ponieważ takie treści generowały więcej reakcji, komentarzy i udostępnień. Jeden z wewnętrznych raportów wskazywał wprost, że zmiana algorytmu w 2018 roku, mająca teoretycznie promować „sensowne interakcje społeczne”, w praktyce faworyzowała treści prowokujące konflikty7. Inne dokumenty pokazały, że firma wiedziała o negatywnym wpływie Instagrama na zdrowie psychiczne nastolatek i nie podjęła skutecznych działań.
Przez lata nikt spoza firmy nie mógł tego sprawdzić. Algorytm Facebooka to klasyczna „czarna skrzynka”: dane wchodzą, wyniki wychodzą, ale nikt nie wie, co dzieje się w środku. Zewnętrzni badacze mogli jedynie obserwować skutki i stawiać hipotezy. Dopiero sygnalistka, która złamała korporacyjne zasady poufności i naraziła się na konsekwencje prawne, ujawniła to, co jawny kod ujawniłby bez ryzyka i bez dramaturgii.
Holandia: algorytm, który niszczył rodziny
W styczniu 2021 roku rząd premiera Marka Ruttego podał się do dymisji w wyniku skandalu, który w Holandii znany jest jako Toeslagenaffaire8. Przez ponad dekadę holenderski urząd skarbowy (Belastingdienst) używał algorytmu do wykrywania oszustw w systemie zasiłków na opiekę nad dziećmi. Algorytm okazał się dyskryminujący: jednym z kryteriów ryzyka było posiadanie podwójnego obywatelstwa lub „obcobrzmiące” nazwisko9.
Około 26 tysięcy rodzin zostało fałszywie oskarżonych o wyłudzanie zasiłków10. Zmuszono je do zwrotu kwot sięgających dziesiątek tysięcy euro, bez możliwości rozłożenia spłat na raty. Rodziny, które nie mogły spłacić fałszywych długów, traciły domy. Ponad tysiąc dzieci zostało odebranych rodzicom przez opiekę społeczną11. System działał latami, ponieważ algorytm był „czarną skrzynką”: urzędnicy, którzy z niego korzystali, nie mieli wglądu w to, jakie kryteria decydują o oznaczeniu kogoś jako oszusta12.
Holenderski organ ochrony danych (Autoriteit Persoonsgegevens) po latach dochodzeń potwierdził, że system był dyskryminujący13. Amnesty International w raporcie „Xenophobic Machines” opisała cały mechanizm jako przykład tego, jak nieprzejrzyste algorytmy mogą naruszać prawa podstawowe na skalę masową14.
Wzorzec: szkoda wynika z braku jawności
Te trzy przypadki pochodzą z różnych dziedzin: motoryzacja, media społecznościowe, administracja publiczna. Łączy je jeden wzorzec. W każdym z nich szkoda nie wynikała z tego, że system był wadliwy „przypadkiem”. Wynikała z tego, że nikt z zewnątrz nie mógł sprawdzić, jak system działa.
Volkswagen oszukiwał, bo nikt nie mógł przeczytać kodu silnika. Facebook promował gniew, bo nikt nie mógł zajrzeć do algorytmu. Holenderski urząd skarbowy dyskryminował mniejszości, bo nikt nie mógł zobaczyć kryteriów ryzyka.
Zamknięty kod nie oznacza bezpieczeństwa. Oznacza ukrywanie. A ukrywanie w systemach obsługujących miliony ludzi to nie jest zabezpieczenie. To ryzyko.
2. Czym jest i czym nie jest open source
Termin „open source” budzi wiele nieporozumień. Zanim przejdziemy do argumentów za jego stosowaniem w infrastrukturze publicznej, warto rozwiać trzy najczęstsze mity.
Mit pierwszy: open source to chaos
Niektórzy wyobrażają sobie open source jako cyfrowy odpowiednik anarchii: każdy może pisać, co chce, nikt nie kontroluje jakości, nikt za nic nie odpowiada. To obraz całkowicie oderwany od rzeczywistości.
Projekty open source mają precyzyjnie zdefiniowane struktury zarządzania, procesy recenzji kodu i hierarchie decyzyjne. Linux, który napędza 100% z pięciuset najpotężniejszych superkomputerów na świecie15, jest zarządzany przez ściśle określoną hierarchię opiekunów (maintainers), z Linusem Torvaldsem na czele. Każda zmiana w kodzie jądra przechodzi wieloetapową recenzję. Żaden fragment kodu nie trafia do systemu bez akceptacji osoby odpowiedzialnej za dany moduł.
Apache Software Foundation, która zarządza jednymi z najważniejszych projektów serwerowych na świecie, działa w oparciu o formalny model meritokracji: prawo do podejmowania decyzji zdobywa się wyłącznie poprzez demonstrację kompetencji i zaangażowania16. Fundacja Mozilla, twórca przeglądarki Firefox, jest organizacją non-profit z transparentnym budżetem, publicznym systemem śledzenia błędów i otwartymi procesami decyzyjnymi.
Open source to nie brak kontroli. To kontrola sprawowana w sposób jawny, a nie za zamkniętymi drzwiami.
Mit drugi: open source to „za darmo”, czyli gorsze
Kojarzenie „darmowości” z niską jakością to zrozumiały odruch, ale w przypadku open source jest mylący. „Otwartość” w open source odnosi się do kodu źródłowego, nie do ceny. Projekty open source mogą być finansowane na wiele sposobów: przez fundacje, granty rządowe, kontrakty korporacyjne, usługi wsparcia technicznego.
Red Hat, największa firma zajmująca się rozwojem i wsparciem Linuksa w środowiskach korporacyjnych, została w 2019 roku przejęta przez IBM za 34 miliardy dolarów17. To nie jest transakcja, którą przeprowadza się dla „darmowego i gorszego” produktu. Firmy takie jak Google, Meta, Microsoft i Amazon inwestują miliardy dolarów rocznie w rozwój projektów open source, ponieważ stanowią one fundament ich własnej infrastruktury.
Analogia jest prosta. Publiczne prawo jest jawne. Każdy może je przeczytać, zacytować, zakwestionować. Nikt nie twierdzi, że jawność prawa oznacza niską jakość legislacji. Jawność jest warunkiem jakości, bo poddaje prawo publicznej kontroli. Z kodem jest tak samo.
Mit trzeci: open source to mniejsze bezpieczeństwo
Intuicja podpowiada, że jeśli kod jest jawny, to hakerzy łatwiej znajdą w nim luki. Ta intuicja jest zrozumiała, ale błędna. Model zamknięty opiera bezpieczeństwo na założeniu, że atakujący nie zna kodu. To założenie ma swoją nazwę w kryptografii: „bezpieczeństwo przez ukrycie” (security through obscurity), i od dziesięcioleci jest uważane za niewystarczające18.
W praktyce atakujący dysponują narzędziami do analizy zamkniętego kodu (inżynieria wsteczna, fuzzing, analiza dynamiczna). Ukrycie kodu utrudnia atak, ale jeszcze bardziej utrudnia obronę: jeśli luka istnieje w zamkniętym systemie, to jedyni ludzie, którzy mogą ją znaleźć i naprawić, to pracownicy jednej firmy. W systemie otwartym tę samą lukę może znaleźć każdy kompetentny specjalista na świecie.
Słynna luka Heartbleed w bibliotece OpenSSL, odkryta w 2014 roku, bywa przytaczana jako dowód na słabość open source19. Ale wniosek z Heartbleed jest odwrotny. Luka została znaleziona i naprawiona w ciągu kilku dni od publicznego ujawnienia. Społeczność zareagowała natychmiast, a wielkie firmy technologiczne powołały Core Infrastructure Initiative, przeznaczając miliony dolarów na audyt bezpieczeństwa kluczowych projektów otwartych. W zamkniętym systemie porównywalna luka mogłaby istnieć latami, a użytkownicy nigdy by się o niej nie dowiedzieli, dopóki ktoś jej nie wykorzystał.
Analogia: jawny lek kontra tajny lek
Wyobraź sobie dwa leki. Jeden ma jawny skład, przebadany w niezależnych laboratoriach, opublikowany w recenzowanych czasopismach naukowych. Drugi to tajemniczy preparat: producent zapewnia, że jest bezpieczny i skuteczny, ale nie ujawnia składu. Mówi: „zaufajcie nam”.
Który lek budzi większe zaufanie? Który wolałbyś podać swojemu dziecku?
Jawny kod źródłowy działa jak jawny skład leku. Nie oznacza, że każdy pacjent musi rozumieć farmakologię. Oznacza, że niezależni eksperci mogą sprawdzić skład, zweryfikować bezpieczeństwo i zaalarmować opinię publiczną, jeśli coś jest nie tak. To nie jest przywilej. To standard, którego oczekujemy od systemów wpływających na nasze zdrowie i życie.
Infrastruktura cyfrowa obsługująca setki milionów ludzi zasługuje na co najmniej taki sam standard jawności jak lek, który bierzemy na ból głowy.
3. Open source jako infrastruktura publiczna
Infrastruktura publiczna w świecie fizycznym opiera się na zasadzie jawności. Normy budowlane są publiczne. Przepisy drogowe są jawne. Metody naukowe muszą być powtarzalne. Certyfikaty bezpieczeństwa podlegają niezależnym inspekcjom. Nikt nie zaakceptowałby mostu, którego projekt jest „tajemnicą handlową” firmy budowlanej. Nikt nie zgodziłby się na prawo, którego treści nie można przeczytać.
A jednak dokładnie tak funkcjonuje większość infrastruktury cyfrowej, na której opieramy swoje codzienne życie. Komunikatory, przez które rozmawiamy, działają na zamkniętym kodzie. Algorytmy, które decydują, jakie informacje docierają do nas w mediach, są tajne. Systemy, które przetwarzają nasze dane medyczne, podatkowe i finansowe, są czarnymi skrzynkami. Akceptujemy to nie dlatego, że jest to rozsądne, ale dlatego, że przywykliśmy.
Analogie z istniejącą infrastrukturą
Drogi i mosty. Specyfikacje techniczne dróg i mostów są dokumentami publicznymi. Każdy inżynier może je przejrzeć, każdy obywatel może złożyć wniosek o dostęp do projektu budowlanego. Niezależni inspektorzy regularnie sprawdzają stan konstrukcji. Nie wyobrażamy sobie, żeby firma budowlana powiedziała: „most jest bezpieczny, zaufajcie nam, ale projektu nie pokażemy”.
System prawny. Prawo musi być jawne, żeby mogło obowiązywać. Obywatel musi mieć możliwość przeczytania przepisu, który go dotyczy. Prawnicy mogą go zakwestionować, sędziowie zinterpretować, dziennikarze opisać. Gdyby prawo było tajne, nikt nie mógłby sprawdzić, czy jest stosowane sprawiedliwie. To samo dotyczy algorytmów, które w coraz większym stopniu pełnią rolę prawa: decydują, kto zobaczy jaką informację, kto dostanie kredyt, kto zostanie uznany za podejrzanego.
Nauka. Metoda naukowa opiera się na powtarzalności i jawności. Naukowiec publikuje nie tylko wyniki, ale także metodologię, dane i sposób analizy. Inni badacze mogą powtórzyć eksperyment i sprawdzić, czy dojdą do tych samych wniosków. To nie jest przypadkowy element nauki. To jej fundament. Wynik, którego nie da się zweryfikować, nie jest wynikiem naukowym.
Budownictwo. Każdy budynek musi spełniać normy konstrukcyjne. Niezależni inspektorzy sprawdzają, czy materiały odpowiadają specyfikacjom, czy instalacje elektryczne są bezpieczne, czy konstrukcja wytrzyma przewidywane obciążenia. Mieszkaniec bloku nie musi rozumieć inżynierii budowlanej. Ale korzysta z tego, że ktoś kompetentny może sprawdzić, czy budynek nie spadnie mu na głowę.
We wszystkich tych przykładach jawność nie jest ozdobnikiem. Jest mechanizmem bezpieczeństwa. Infrastruktura cyfrowa obsługująca setki milionów ludzi zasługuje na co najmniej taki sam standard jawności jak most czy budynek.
Open source w praktyce: kto już to robi
Open source nie jest eksperymentem myślowym. Jest fundamentem, na którym stoi współczesna infrastruktura cyfrowa. Oto cztery przykłady, z których Europa może i powinna czerpać.
Linux: niewidzialny fundament. System operacyjny Linux napędza 100% z pięciuset najpotężniejszych superkomputerów na świecie15. Obsługuje ponad 90% infrastruktury chmurowej Amazon Web Services, Google Cloud i Microsoft Azure20. System Android, działający na miliardach smartfonów, jest oparty na jądrze Linux. Większość serwerów internetowych, na których działają strony, z których korzystasz każdego dnia, działa na Linuksie. To najbardziej rozpowszechniony system operacyjny w historii, i jest open source.
Schleswig-Holstein: europejski precedens. Niemiecki land Schleswig-Holstein w 2024 roku podjął decyzję o migracji ponad 30 tysięcy komputerów administracji publicznej z Microsoft Office na LibreOffice i z Windows na Linux21. Do końca 2025 roku na blisko 80% stanowisk pracy w urzędach Microsoft Office został już odinstalowany22. Land oszczędza ponad 15 milionów euro rocznie na opłatach licencyjnych i inwestuje te środki w rozwój własnych kompetencji IT23. Digitalisierungsminister Dirk Schrödter wyjaśnił motywację wprost: chodzi o zapewnienie, że administracja publiczna zachowuje kontrolę nad swoimi rozwiązaniami informatycznymi i jest w stanie działać niezależnie od decyzji pojedynczych dostawców. Nie jest to projekt izolowany. Austriackie siły zbrojne (Bundesheer) przeszły na LibreOffice w 2025 roku. Dania rozpoczęła analogiczną migrację. Włoskie Ministerstwo Obrony zrobiło to wcześniej.
CERN: od World Wide Web do ROOT. Europejska Organizacja Badań Jądrowych (CERN) jest nie tylko miejscem, w którym Tim Berners-Lee stworzył World Wide Web. CERN od dziesięcioleci tworzy i udostępnia oprogramowanie open source, w tym framework ROOT, używany przez fizyków na całym świecie do analizy danych. Sam World Wide Web, z którego teraz korzystasz czytając ten tekst, został udostępniony światu jako otwarta technologia bez opłat licencyjnych. CERN pokazał, że publiczne finansowanie badań i otwartość ich wyników mogą zmienić świat.
Program EuroHPC. Europejski program budowy superkomputerów EuroHPC Joint Undertaking finansuje rozwój infrastruktury obliczeniowej w oparciu o zasadę otwartości. Superkomputery takie jak LUMI w Finlandii, Leonardo we Włoszech czy MareNostrum w Hiszpanii działają na Linuksie i korzystają z otwartego oprogramowania. Europa już wie, jak budować krytyczną infrastrukturę cyfrową na otwartym kodzie. Trzeba teraz zastosować tę samą logikę do infrastruktury, z której obywatele korzystają każdego dnia.
4. Jak działa audyt w praktyce
Najczęstszym zarzutem wobec jawnego kodu jest pozornie rozsądne pytanie: „Kto to w ogóle czyta? Przecież zwykły obywatel nie przeczyta kodu źródłowego”. To prawda. I nie musi.
Zwykły obywatel nie czyta też norm budowlanych, raportów z inspekcji mostów ani wyników badań klinicznych leków. Ale korzysta z tego, że ktoś kompetentny je czyta: inżynierowie, inspektorzy, farmaceuci, niezależni eksperci. Jawność kodu nie oznacza oczekiwania, że każdy go przeczyta. Oznacza gwarancję, że każdy może.
Jak wygląda nadzór nad kodem w praktyce
Projekty open source wypracowały przez dziesięciolecia sprawdzone modele nadzoru. Nie są one identyczne, ale łączy je wspólna zasada: każda zmiana w kodzie podlega niezależnej recenzji przed włączeniem do systemu.
Model jądra Linux. Linux jest zarządzany przez hierarchię opiekunów (maintainers), z których każdy odpowiada za określony podsystem. Kiedy ktoś proponuje zmianę w kodzie, wysyła ją do odpowiedniego opiekuna. Ten recenzuje zmianę, zgłasza uwagi, prosi o poprawki lub odrzuca. Dopiero po akceptacji opiekuna zmiana trafia wyżej w hierarchii. Na szczycie stoi Linus Torvalds, który osobiście zatwierdza ostateczne wersje jądra. Cały proces jest publiczny: każda dyskusja, każda recenzja, każda decyzja jest archiwizowana na listach mailingowych dostępnych dla każdego24.
Model fundacji Apache. Apache Software Foundation zarządza ponad 350 projektami open source, w tym serwerem Apache HTTP, bazą danych Cassandra i frameworkiem Hadoop. Fundacja stosuje model meritokracji: prawa do podejmowania decyzji zdobywa się wyłącznie poprzez demonstrację kompetencji. Nowi kontrybutorzy zaczynają od zgłaszania drobnych poprawek. Z czasem, jeśli ich praca jest konsekwentnie dobra, uzyskują status „committera” (prawo do samodzielnego wprowadzania zmian), a potem „członka projektu” (prawo do głosowania w kluczowych decyzjach)16. To system, w którym autorytet wynika z wiedzy, nie z hierarchii korporacyjnej.
Model Mozilli. Fundacja Mozilla, twórca Firefoksa, jest organizacją non-profit. Jej budżet jest publiczny. System śledzenia błędów (Bugzilla) jest dostępny dla każdego. Każdy może zgłosić błąd, zaproponować poprawkę, prześledzić historię zmian. Procesy decyzyjne dotyczące kierunku rozwoju produktu są dokumentowane i publicznie dostępne.
Bug bounty: nagrody za znajdowanie błędów
Jawność kodu umożliwia jeszcze jeden mechanizm bezpieczeństwa, który w zamkniętych systemach jest trudny do zrealizowania: programy nagród za znajdowanie błędów (bug bounty). Idea jest prosta: organizacja oferuje nagrodę finansową każdemu, kto znajdzie i odpowiedzialnie zgłosi lukę w zabezpieczeniach.
Google, Mozilla, Microsoft i dziesiątki innych firm prowadzą programy bug bounty. Google w ramach swoich programów wypłacił od 2010 roku ponad 50 milionów dolarów za zgłoszone luki25. To nie jest filantropia. To rachunek ekonomiczny: taniej jest zapłacić badaczowi za znalezienie luki, niż radzić sobie ze skutkami jej wykorzystania przez przestępców.
W systemie zamkniętym bug bounty jest ograniczone: badacz musi analizować skompilowany program bez dostępu do kodu źródłowego. W systemie otwartym bariera wejścia jest niższa, więcej oczu przegląda kod, a luki są znajdowane szybciej. To jest praktyczna realizacja tzw. prawa Linusa: „przy wystarczającej liczbie oczu żaden błąd nie ukryje się długo”.
Kto patrzy, skoro „nikt nie czyta kodu”?
W praktyce kod otwartych projektów o znaczeniu infrastrukturalnym jest czytany i analizowany przez wiele grup:
Firmy, które opierają na nim swoją działalność. Google, Amazon, Meta i tysiące mniejszych firm używają Linuksa, a ich inżynierowie regularnie przeglądają kod, poprawiają błędy i zgłaszają luki. Robią to nie z altruizmu, ale dlatego, że bezpieczeństwo kodu, na którym budują swoje usługi, jest ich żywotnym interesem.
Badacze akademiccy, którzy analizują systemy w ramach swoich prac naukowych. Tysiące publikacji akademickich rocznie dotyczy bezpieczeństwa i jakości projektów open source.
Niezależni audytorzy bezpieczeństwa, którzy prowadzą profesjonalne przeglądy kodu na zlecenie firm i instytucji. W modelu zamkniętym audytor musi uzyskać specjalne pozwolenie producenta. W modelu otwartym może zacząć pracę natychmiast.
Rządy i instytucje regulacyjne, które coraz częściej wymagają jawnego kodu w systemach krytycznych. Europejski Akt o Sztucznej Inteligencji (AI Act) nakłada wymogi przejrzystości na systemy AI wysokiego ryzyka.
Pasjonaci i aktywiści, którzy z własnej inicjatywy analizują oprogramowanie i ujawniają problemy. To właśnie niezależni badacze wykryli oszustwo Volkswagena. W systemie otwartym nie musieliby polegać na pomiarach fizycznych, wystarczyłoby przeczytać kod.
Obywatel nie musi czytać kodu. Ale musi mieć pewność, że ktoś go czyta. Jawność kodu jest warunkiem koniecznym tej pewności. W systemie zamkniętym masz tylko jedno zabezpieczenie: słowo producenta. W systemie otwartym masz tysiące niezależnych par oczu.
5. Model transparentności Europejskiej Superaplikacji
Na stronie Europejska Superaplikacja opisujemy ekosystem, jego usługi i model zarządzania. W tym rozdziale wyjaśniamy, co konkretnie oznacza „jawność” w kontekście tego projektu. Bo jawny kod to dopiero początek. Pełna transparentność obejmuje co najmniej cztery warstwy.
Warstwa pierwsza: jawny kod źródłowy
Cały kod Europejskiej Superaplikacji jest publikowany jako open source na publicznym repozytorium. Każdy może go pobrać, przeczytać, skompilować i uruchomić samodzielnie. Każda zmiana w kodzie jest publicznie widoczna, z opisem tego, co zmieniono, dlaczego i kto zatwierdził zmianę.
To oznacza, że niezależni eksperci mogą w każdej chwili sprawdzić: czy komunikator naprawdę szyfruje wiadomości end-to-end (czy może ma tylne drzwi). Czy system przechowywania danych naprawdę trzyma dane tam, gdzie deklaruje (czy może kopiuje je gdzieś indziej). Czy algorytm weryfikacji tożsamości naprawdę nie zbiera niepotrzebnych informacji (jak opisujemy na stronie Tożsamość i zaufanie w sieci).
Kontrast z obecnym modelem jest ostry. Kiedy Meta twierdzi, że WhatsApp stosuje szyfrowanie end-to-end, musimy jej wierzyć na słowo. Nikt z zewnątrz nie może otworzyć kodu i to zweryfikować. Kiedy Europejska Superaplikacja to deklaruje, każdy może to sprawdzić.
Warstwa druga: jawne algorytmy rankingowe
Jednym z najpoważniejszych problemów współczesnych platform jest nieprzejrzystość algorytmów, które decydują o tym, co widzisz. Facebook nie powie ci, dlaczego wyświetla dany post wysoko w twoim feedzie. YouTube nie wyjaśni, dlaczego zasugerował ci ten konkretny film. TikTok nie ujawni, jak działa algorytm „For You”.
Europejska Superaplikacja działa inaczej. Algorytmy rankingowe są jawne. Każdy użytkownik może zobaczyć, jakie kryteria decydują o kolejności wyświetlanych treści. Co więcej, użytkownik ma realne narzędzia do kontroli: może wybrać chronologiczny porządek wyświetlania, może ustawić własne priorytety, może wyłączyć algorytmiczne sugestie. To nie jest slogan marketingowy. To architektura systemu.
Akt o Usługach Cyfrowych (Digital Services Act) Unii Europejskiej już teraz nakłada na największe platformy obowiązek ujawniania parametrów systemów rekomendacyjnych i udostępniania opcji nieprofilowanego wyświetlania treści26. Europejska Superaplikacja nie czeka na egzekwowanie tych wymogów wobec zagranicznych korporacji. Buduje transparentność od fundamentów.
Warstwa trzecia: publiczne raporty moderacji
Każda platforma moderuje treści. Pytanie brzmi: czy robi to w sposób jawny i rozliczalny, czy za zamkniętymi drzwiami.
Europejska Superaplikacja publikuje regularne raporty moderacji: ile treści usunięto, za co, jakim mechanizmem (automatyczna detekcja czy decyzja człowieka), ile odwołań złożono i ile z nich uwzględniono. Zasady moderacji są publiczne i jasno sformułowane. Każdy użytkownik, którego treść została usunięta, otrzymuje konkretne wyjaśnienie i ma możliwość odwołania się.
Porównajmy to z obecną praktyką platform. W 2022 roku Google automatycznie zablokował konto użytkownika, który przesłał do chmury zdjęcia chorego dziecka, ponieważ algorytm zakwalifikował je jako nielegalne. Mimo że policja oczyściła użytkownika z zarzutów, Google odmówił przywrócenia konta27. Użytkownik stracił dostęp do lat zgromadzonych danych, bez skutecznej ścieżki odwoławczej.
W transparentnym systemie taka sytuacja jest niemożliwa, ponieważ zasady działania są jawne, procesy decyzyjne audytowalne, a obywatel ma zagwarantowane prawo do odwołania, które nie jest pustą formalnością.
Warstwa czwarta: logi dostępu do danych
Na stronie Tożsamość i zaufanie w sieci opisujemy estoński model e-ID, w którym obywatel widzi, kto i kiedy sprawdzał jego dane. Europejska Superaplikacja stosuje ten sam model. Każdy dostęp do twoich danych jest rejestrowany w logu, do którego masz wgląd.
Jeśli urząd sprawdził twoje dane, widzisz to. Jeśli administrator systemu miał dostęp do twojego konta, widzisz to. Jeśli algorytm przetworzył twoje dane w celu wygenerowania rekomendacji, widzisz to. I co najważniejsze, jeśli uważasz, że dostęp był nieuzasadniony, masz ścieżkę prawną do zakwestionowania go.
To odwrócenie obecnego modelu. Dziś platformy wiedzą o tobie wszystko, a ty nie wiesz o nich nic. Europejska Superaplikacja odwraca ten stosunek: ty kontrolujesz swoje dane i widzisz, kto do nich sięga. System wie o tobie tylko to, co jest niezbędne do świadczenia usługi, a ty wiesz o systemie wszystko, co jest niezbędne do zaufania mu.
6. Nowy kontrakt społeczny: od „zaufaj nam” do „sprawdź sam”
Przez trzydzieści lat relacja między obywatelem a technologią opierała się na jednym modelu: „zaufaj nam”. Zaufaj, że nie naduży jemy twoich danych. Zaufaj, że algorytm jest uczciwy. Zaufaj, że twoje wiadomości są zaszyfrowane. Zaufaj, że twoje dzieci są bezpieczne.
Model „zaufaj nam” nie sprawdził się. Nie dlatego, że wszyscy twórcy technologii są nieuczciwi. Dlatego, że zaufanie bez możliwości weryfikacji to nie zaufanie. To naiwność. A naiwność w systemach obsługujących miliardy ludzi prowadzi do szkód na masową skalę.
Stary model: ślepe zaufanie
W starym modelu twoja relacja z platformą wygląda tak: dostajesz usługę za darmo, w zamian oddajesz dane, a firma zapewnia, że obchodzi się z nimi odpowiedzialnie. Nie masz żadnych narzędzi do sprawdzenia, czy to prawda. Nie widzisz, co firma robi z twoimi danymi. Nie wiesz, jak działa algorytm. Nie masz skutecznej ścieżki odwoławczej, jeśli coś pójdzie nie tak. A regulamin, który zaakceptowałeś nie czytając (bo ma 50 stron drobnym drukiem), daje firmie prawo do zmiany zasad w dowolnym momencie.
To nie jest partnerstwo. To asymetria: firma wie o tobie wszystko, ty nie wiesz o firmie nic.
Nowy model: weryfikowalne zaufanie
Europejska Superaplikacja proponuje inny kontrakt. Nie mówi „zaufaj nam”. Mówi „sprawdź sam”. Kod jest jawny, więc możesz (ty lub ekspert, któremu ufasz) zobaczyć, jak system działa. Algorytmy rankingowe są publiczne, więc wiesz, dlaczego widzisz to, co widzisz. Raporty moderacji są dostępne, więc możesz sprawdzić, jak system podejmuje decyzje. Logi dostępu do twoich danych są dla ciebie widoczne, więc wiesz, kto i kiedy miał do nich dostęp. Zarządzanie jest otwarte, więc wiesz, kto podejmuje decyzje o rozwoju systemu i na jakiej podstawie.
Zaufanie w tym modelu nie jest ślepe. Jest zbudowane na weryfikowalnych dowodach. To nie jest utopia. To standard, który stosujemy w każdej innej dziedzinie życia publicznego.
Zmiana paradygmatu
Ta zmiana jest analogiczna do historycznych przejść, które społeczeństwa już przeszły.
Od absolutyzmu do konstytucjonalizmu. Przez wieki władza królewska opierała się na modelu „zaufaj nam”: król rządzi, bo tak. Konstytucja nie zniszczyła władzy. Uczyniła ją rozliczalną. Władza musiała działać w ramach jawnych reguł, które obywatele mogli przeczytać i na które mogli się powołać. Jawny kod źródłowy robi z technologią to samo, co konstytucja zrobiła z władzą: nie eliminuje jej, ale poddaje ją weryfikowalnym regułom.
Od tajnych procesów do jawnych sądów. Przez wieki wyroki zapadały za zamkniętymi drzwiami. Wprowadzenie jawności postępowań sądowych nie osłabiło wymiaru sprawiedliwości. Wzmocniło zaufanie do niego, bo obywatele mogli zobaczyć, jak i dlaczego zapadają decyzje. Jawne algorytmy pełnią tę samą funkcję: nie osłabiają systemu, ale poddają go publicznemu nadzorowi.
Od danych na słowo do audytu finansowego. Przez wieki firmy mogły deklarować dowolne wyniki finansowe. Wprowadzenie obowiązkowego audytu finansowego i standardów sprawozdawczości nie zniszczyło przedsiębiorczości. Stworzyło warunki, w których inwestorzy mogą podejmować decyzje na podstawie wiarygodnych informacji. Publiczny audyt kodu to odpowiednik audytu finansowego w świecie cyfrowym.
We wszystkich tych przypadkach jawność nie była ograniczeniem. Była warunkiem zaufania.
Podsumowanie
Zamknięty kod to nie zabezpieczenie. To przywilej: przywilej ukrywania, jak naprawdę działają systemy, od których zależy życie setek milionów ludzi. Volkswagen ukrywał oszustwo w oprogramowaniu silnika. Facebook ukrywał wiedzę o szkodliwości swojego algorytmu. Holenderski urząd skarbowy ukrywał dyskryminacyjne kryteria w systemie zasiłków. W każdym z tych przypadków jawność mogłaby zapobiec szkodom, zanim się wydarzyły.
Europejska Superaplikacja opiera się na odwrotnej zasadzie. Kod jest jawny, bo infrastruktura publiczna musi być rozliczalna. Algorytmy są publiczne, bo obywatel ma prawo wiedzieć, dlaczego widzi to, co widzi. Raporty moderacji są dostępne, bo decyzje dotyczące wolności wypowiedzi nie mogą zapadać za zamkniętymi drzwiami. Logi dostępu do danych są widoczne, bo twoje dane to twoja sprawa.
To nie jest idealizm. To standard, który stosujemy w budownictwie, medycynie, prawie i nauce. Czas zastosować go tam, gdzie jest najbardziej potrzebny: w infrastrukturze cyfrowej, która definiuje sposób, w jaki żyjemy, pracujemy i komunikujemy się ze światem.
Przeczytaj więcej
- Problem internetu — pełna diagnoza: jak algorytmy, boty i gospodarka uwagi zmieniły sieć
- Europejska Superaplikacja — jak działa proponowany ekosystem
- Finansowanie — kto za to zapłaci: konkretne kwoty, źródła, fazy
- Tożsamość i zaufanie w sieci — dlaczego jedna osoba to jedno konto
- Europa na cyfrowym rozdrożu — kontekst geopolityczny
Przypisy
Footnotes
- U.S. Environmental Protection Agency, Notice of Violation of the Clean Air Act, 18 września 2015. EPA stwierdziła, że Volkswagen instalował w silnikach Diesla oprogramowanie (tzw. defeat device) obchodzące normy emisji spalin. ↩
- EPA, „Learn About Volkswagen Violations”, 2015. Pojazdy z silnikami 2.0 TDI emitowały do 40 razy więcej tlenków azotu (NOx) niż pozwalały normy, a pojazdy z silnikami 3.0 TDI — do 9 razy więcej. ↩
- Volkswagen AG, komunikat z 22 września 2015. Firma przyznała, że oprogramowanie typu defeat device zostało zainstalowane w około 11 milionach pojazdów na całym świecie, w modelach produkowanych od 2009 do 2015 roku. ↩
- International Council on Clean Transportation (ICCT), 2014. Badania zlecone przez ICCT i przeprowadzone przez West Virginia University Center for Alternative Fuels Engines and Emissions ujawniły drastyczne rozbieżności między laboratoryjnymi a drogowymi pomiarami emisji pojazdów Volkswagena. ↩
- Guillaume P. Chossière et al., „Public Health Impacts of Excess NOx Emissions from Volkswagen Diesel Passenger Vehicles in Germany”, Environmental Research Letters, 2017; Steven Barrett et al., „Impact of the Volkswagen Emissions Control Defeat Device on U.S. Public Health”, Environmental Research Letters, 2015. Badacze z MIT i Harvard szacują łącznie ok. 1200 przedwczesnych zgonów w Europie i ok. 60 w USA związanych z nadmiarowymi emisjami NOx z pojazdów Volkswagena. ↩
- Frances Haugen, zeznania przed Senacką Komisją ds. Handlu, Nauki i Transportu (U.S. Senate Committee on Commerce, Science, and Transportation), 5 października 2021 roku. Haugen przekazała Kongresowi i mediom (za pośrednictwem konsorcjum dziennikarskiego) tysiące wewnętrznych dokumentów Facebooka, znanych jako „The Facebook Files” i „The Facebook Papers”. ↩
- Jeff Horwitz, „The Facebook Files”, The Wall Street Journal, seria artykułów opublikowanych od września 2021. Na podstawie dokumentów przekazanych przez Frances Haugen. Wewnętrzne raporty Facebooka wskazywały, że zmiana algorytmu z 2018 roku (Meaningful Social Interactions) w praktyce promowała treści prowokujące gniew i polaryzację, ponieważ takie treści generowały więcej interakcji. ↩
- Parlementaire ondervragingscommissie Kinderopvangtoeslag (POK), „Ongekend onrecht” (Bezprecedensowa niesprawiedliwość), raport końcowy, 17 grudnia 2020. Komisja parlamentarna ustaliła, że tysiące rodzin padło ofiarą instytucjonalnej niesprawiedliwości ze strony holenderskiego urzędu skarbowego. Rząd Marka Ruttego podał się do dymisji 15 stycznia 2021 roku. ↩
- Europejski Parlament, pytanie ustne O-000028/2022 do Komisji Europejskiej, 25 maja 2022. Dokument potwierdza, że holenderski rząd oficjalnie przyznał, iż instytucjonalny rasizm w urzędzie skarbowym był jedną z przyczyn skandalu. Algorytm wykorzystywał podwójne obywatelstwo i „obcobrzmiące” nazwiska jako wskaźniki ryzyka oszustwa. ↩
- Holenderski rząd szacuje liczbę poszkodowanych rodzin na ok. 26 000, choć niektóre źródła (m.in. raport Dienst Toeslagen z 2024 r.) podają liczbę do 35 000. ↩
- DutchNews.nl, „Over 1,100 children of childcare benefit victims taken into care”, październik 2021. Według późniejszych ustaleń liczba dzieci odebranych poszkodowanym rodzinom mogła przekroczyć 2000. ↩
- Amnesty International, „Xenophobic Machines: Discrimination through Unregulated Use of Algorithms in the Dutch Childcare Benefits Scandal”, październik 2021. Raport szczegółowo opisuje, jak algorytm funkcjonował jako „czarna skrzynka” (black box system), do której urzędnicy nie mieli wglądu, oraz jak brak przejrzystości uniemożliwił wykrycie dyskryminacji przez lata. ↩
- Autoriteit Persoonsgegevens (AP), raport z dochodzenia w sprawie dyskryminacji w systemie zasiłków, 2020. Organ ochrony danych potwierdził dyskryminacyjny charakter praktyk urzędu skarbowego, choć w pierwszym raporcie nie zakwalifikował ich jako „profilowanie etniczne”. Późniejsze ustalenia rządu z 2022 roku potwierdziły element rasizmu instytucjonalnego. ↩
- Amnesty International, „Xenophobic Machines”, op. cit. Raport rekomenduje m.in. zakaz stosowania „czarnych skrzynek” algorytmicznych (black box systems) w kontekstach wysokiego ryzyka, takich jak systemy zabezpieczeń społecznych. ↩
- TOP500, lista z listopada 2024. Linux napędza 100% z pięciuset najpotężniejszych superkomputerów na świecie. Pełna dominacja Linuksa w tej kategorii utrzymuje się nieprzerwanie od listopada 2017 roku. ↩ ↩2
- Apache Software Foundation, „How the ASF Works”, dokumentacja publiczna. Opis modelu zarządzania opartego na meritokracji, z systemem ról (contributor → committer → PMC member) i publicznymi procesami głosowania. ↩ ↩2
- IBM, komunikat prasowy, 9 lipca 2019. IBM sfinalizował przejęcie Red Hat za kwotę ok. 34 miliardów dolarów. Była to wówczas największa transakcja w historii branży oprogramowania. ↩
- Zasada Kerckhoffsa (1883) — fundamentalna zasada kryptografii sformułowana przez Augusta Kerckhoffsa, głosząca, że bezpieczeństwo systemu kryptograficznego powinno opierać się wyłącznie na tajności klucza, nie na tajności algorytmu. Współczesne rozwinięcie: National Institute of Standards and Technology (NIST) regularnie podkreśla, że bezpieczeństwo przez ukrycie (security through obscurity) nie jest wystarczającym mechanizmem ochrony. ↩
- CVE-2014-0160 (Heartbleed), ujawniona 7 kwietnia 2014 roku. Luka w bibliotece OpenSSL (wersje 1.0.1 do 1.0.1f) pozwalała na odczyt fragmentów pamięci serwera, w tym kluczy prywatnych i danych użytkowników. Szacuje się, że w momencie ujawnienia luka dotyczyła ok. 17% serwerów internetowych zabezpieczonych SSL. Poprawka została opublikowana tego samego dnia. ↩
- Dane z raportów branżowych za 2024–2025 rok. Według m.in. analiz Canonical (2025) i danych Microsoft (2025), ponad 60% maszyn wirtualnych w Azure działa na Linuksie, a w AWS i Google Cloud udział ten przekracza 90%. Łącznie Linux obsługuje ok. 49% globalnych obciążeń chmurowych (Q2 2025). ↩
- Schleswig-Holstein, komunikat prasowy Staatskanzlei, 3 kwietnia 2024. Kabinet podjął decyzję o flächendeckende Einführung (powszechnym wprowadzeniu) LibreOffice jako standardowej aplikacji biurowej na ponad 30 000 stanowiskach pracy w administracji landowej, jako pierwszy krok w kierunku pełnej migracji na Linux. ↩
- Schleswig-Holstein, komunikat prasowy Staatskanzlei, 4 grudnia 2025. Digitalisierungsminister Dirk Schrödter ogłosił, że na blisko 80% stanowisk pracy (z wyłączeniem administracji podatkowej) Microsoft Office został już odinstalowany lub trwa proces deinstalacji. Nowa stopa licencjonowania Microsoftu spadła poniżej 10%. ↩
- Tamże. Land oszczędza ponad 15 milionów euro rocznie na opłatach licencyjnych za oprogramowanie Microsoft. Jednorazowe koszty migracji w 2026 roku oszacowano na 9 milionów euro. ↩
- Linux Kernel Mailing List (LKML), publicznie dostępna pod adresem lkml.org. Wszystkie dyskusje, recenzje kodu i decyzje dotyczące jądra Linux są archiwizowane i dostępne dla każdego. ↩
- Google Security Blog, raporty roczne programu Vulnerability Reward Program (VRP). Łączna kwota wypłaconych nagród od 2010 roku przekracza 50 milionów dolarów (stan na 2024 rok). ↩
- Rozporządzenie Parlamentu Europejskiego i Rady (UE) 2022/2065 z dnia 19 października 2022 r. w sprawie jednolitego rynku usług cyfrowych (Digital Services Act, DSA). Art. 27 nakłada na dostawców platform internetowych obowiązek zapewnienia użytkownikom informacji o głównych parametrach systemów rekomendacyjnych oraz udostępnienia co najmniej jednej opcji niezależnej od profilowania. ↩
- Artykuł New York Times, „A Dad Took Photos of His Naked Toddler for the Doctor. Google Flagged Him as a Criminal”, 21 sierpnia 2022. Przypadek mężczyzny z San Francisco, którego konto Google zostało trwale zablokowane po tym, jak algorytm automatycznie zakwalifikował zdjęcia chorego dziecka jako materiały przedstawiające wykorzystywanie nieletnich. Mimo oczyszczenia przez policję Google odmówił przywrócenia konta. ↩