Nie chodzi o to, czy AI jest „dobra”. Ważniejsze są zasady, które sprawią, że człowiek nie przegra z algorytmem.
Wyobraź sobie taką sytuację: składasz wniosek o ważne świadczenie, a system komputerowy go odrzuca. Albo automatyczny program przydziela Cię na koniec kolejki do lekarza. Na dodatek oznacza Twój przypadek jako „podejrzany” – i nikt nie umie powiedzieć, dlaczego. Urzędnik rozkłada ręce: „tak wyliczył system”. Bezradność i złość mieszają się ze strachem, bo decyzja wpływa na Twoje życie. Taka historia może przytrafić się każdemu z nas. Jeśli decyzja algorytmu decyduje o Twoim losie, musisz mieć prawo ją sprawdzić, zrozumieć, zakwestionować i naprawić błąd.
AI jako pomoc vs AI jako filtr decyzji
Sztuczna inteligencja może w administracji działać dwojako. Pierwszy scenariusz: AI jako pomocnik. Na przykład asystent dla lekarza czy urzędnika – podpowiada, sugeruje, analizuje dane, ale człowiek podejmuje ostateczną decyzję. To jak dodatkowe „oczy i uszy”, które mogą wychwycić szczegóły, jednak odpowiedzialność pozostaje po stronie człowieka. Dzięki temu lekarz szybciej zauważy chorobę na zdjęciu rentgenowskim, a urzędnik sprawniej przejrzy setki podań, wciąż samodzielnie wybierając, komu przyznać pomoc.
Drugi scenariusz: AI jako filtr decyzji. To sytuacja, w której algorytm staje się automatyczną bramką – decyduje za ludzi albo praktycznie przesądza sprawę, zanim ktokolwiek z personelu spojrzy na przypadek. Na przykład program automatycznie odrzuca Twój wniosek o zasiłek lub kredyt, bo profil uznał za „ryzykowny”. Urzędnik już nic nie weryfikuje – dostajesz odpowiedź „negatywną” z systemu i koniec. W tym wariancie człowiek jest sprowadzony do obserwatora, a algorytm pełni rolę sędziego. Ta różnica – między AI, które pomaga, a AI, które wyręcza i osądza – jest kluczowa. Od niej zależy, czy nowe technologie faktycznie nam służą, czy raczej my służymy decyzjom algorytmu.
5 zasad bezpiecznego AI
Skoro AI coraz częściej wpływa na nasze sprawy publiczne, potrzebujemy jasnych i twardych reguł. Oto pięć prostych zasad, które sprawią, że sztuczna inteligencja w urzędach będzie bezpieczna dla ludzi – zilustrowanych krótkimi przykładami z życia.
Zasada 1: AI nie może być jedynym sędzią
Żadna ważna decyzja nie może zależeć wyłącznie od algorytmu. Tam, gdzie stawką są ludzkie losy – zdrowie, wolność, świadczenia, oceny w szkole – ostateczną odpowiedzialność musi ponosić człowiek. To znaczy, że jeśli nawet system AI coś rekomenduje, to człowiek podejmuje decyzję i może ją zmienić. Dlaczego to takie ważne? Bo algorytmy się mylą – a gdy nie ma człowieka w roli hamulcowego, błąd idzie w świat bez korekty. Przykładów niestety nie brakuje. W amerykańskim stanie Michigan automatyczny system do wykrywania nadużyć bez żadnej weryfikacji oskarżył ponad 20 000 osób o wyłudzenie zasiłku, podczas gdy 93% tych oskarżeń okazało się zupełnie bezpodstawnych. Wiele rodzin popadło przez to w długi i problemy, zanim w końcu po latach włączono do procesu urzędników, którzy zaczęli sprawdzać te decyzje. Człowiek nie może abdykować – AI powinna być narzędziem, a nie nieomylnym automatem wydającym wyroki.
Zasada 2: Masz prawo zapytać „dlaczego?” – i dostać odpowiedź
Jeśli algorytm uczestniczy w decyzji, obywatel musi móc zrozumieć, jak do tego doszło. Nie wystarczy usłyszeć: „taki jest wynik systemu” albo magiczne „tak wyszło z algorytmu”. Powiedzmy, że automatyczny system odmówił Ci przyznania świadczenia. Masz prawo dowiedzieć się na jakich przesłankach oparto tę decyzję: które dane i jakie reguły do tego doprowadziły. I to nie w formie matematycznego bełkotu, tylko zrozumiałego wyjaśnienia dla normalnego człowieka. Wyobraźmy sobie, że dostajemy list: „Pański wniosek został odrzucony, ponieważ system uznał, że posiada Pan dochód powyżej kryterium” – i dalej wyjaśnienie, skąd ta informacja i jak ją zweryfikować albo sprostować. Tak powinno być. Niestety, wiele dzisiejszych czarnych skrzynek na to nie pozwala. Bywa, że nawet urzędnicy nadzorujący system nie wiedzą, czemu algorytm tak policzył. Dlatego przejrzystość jest kluczowa: każdy, kogo dotyczy decyzja oparta o AI, powinien mieć prawo zajrzeć „do środka” – otrzymać prosty opis logiki lub czynników, które wpłynęły na rozstrzygnięcie. Bez tego czujemy się bezradni wobec * „widzi-mi-się”* maszyny.
Zasada 3: Musi istnieć realne odwołanie
Prawo do odwołania to fundament sprawiedliwości. Jeśli decyzja (choćby podjęta przez AI) jest krzywdząca lub błędna, obywatel musi mieć skuteczną ścieżkę jej zakwestionowania. „Skuteczna” oznacza, że odwołanie rozpatrzy kompetentna osoba lub instytucja w realnym terminie, a nie że nasz wniosek wpada do elektronicznego kosza. Niestety i tu rzeczywistość potrafi rozczarować. Wspomniany system z Michigan wysyłał automatyczne decyzje o rzekomych oszustwach, a ludzie często nawet nie wiedzieli, jak mogą się od nich odwołać – dostawali ogromne kary finansowe, zajęcia kont, a procedura była tak zawiła, że część poszkodowanych poddała się z braku sił. Tak być nie może. Każdy algorytm w instytucji publicznej musi mieć „wbudowane” drugie oko – tj. procedurę odwoławczą: jasną, dostępną i skuteczną. Na końcu zawsze powinna być możliwość rozmowy z człowiekiem, który może naprawić błąd systemu. Odwołanie nie może być pozorne; obywatel powinien czuć, że ma kto naprawić niesprawiedliwość, a nie że pisze prośby „do ściany”.
Zasada 4: Decyzje muszą zostawiać ślad
Każda decyzja podjęta z pomocą AI powinna być zarejestrowana i udokumentowana – tak, aby dało się potem sprawdzić: co się stało, kiedy, na jakiej podstawie. To tak zwany ślad audytowy – log zdarzeń. Dzięki niemu w razie sporu czy kontroli można prześledzić działanie systemu: jakie dane wprowadzono, jaki wynik dał algorytm, kto to zatwierdził. Taki rejestr to podstawa odpowiedzialności. Jeśli obawiasz się, że zostałeś potraktowany stronniczo, ślad audytowy umożliwi ekspertom weryfikację – czy np. nie zadziałały jakieś uprzedzenia w modelu. Wyobraźmy sobie radar policyjny bez żadnego zapisu pomiaru prędkości – policjant mówi, że jechałeś 100 km/h, ale nie ma na to wydruku ani zdjęcia. Nie do pomyślenia, prawda? A w systemach AI często brak takiego „wydruku” decyzji. To duży błąd. Dobrze zaprojektowane rozwiązanie loguje swoje operacje – żeby w przyszłości można je było sprawdzić i zrozumieć. Co ważne, ten obowiązek dotyczy też firm dostarczających AI: system używany przez państwo nie może być całkiem sekretną „czarną skrzynką” bez dziennika aktywności. Jeżeli algorytm decyduje o ludziach, musi po sobie zostawiać trop, którym podążą audytorzy lub sąd.
Zasada 5: Społeczna kontrola i audytowalność
W demokracji żadne narzędzie władzy nie powinno działać poza społeczną kontrolą. Dlatego systemy AI używane publicznie muszą być audytowalne – czyli dające się niezależnie sprawdzić. Idealnie, gdyby były otwarte (open source), aby eksperci, media czy organizacje watchdog mogły je prześwietlić i przetestować. Jeśli z jakiegoś powodu kod musi pozostać zamknięty (np. dla bezpieczeństwa), to i tak powinna istnieć procedura dopuszczenia niezależnych audytorów, którzy w imieniu społeczeństwa zajrzą do środka. Ważne jest też, by istniały jasne zasady aktualizacji takich systemów – obywatele powinni wiedzieć, że np. zmiana algorytmu scoringowego podlega zatwierdzeniu i poinformowaniu, a nie że reguły gry zmienią się z dnia na dzień potajemnie. Ta zasada sprowadza się do jednego: transparentność. Administracja nie może zasłaniać się stwierdzeniem „to własność firmy, nie wiemy jak działa”. Wręcz przeciwnie – powinna preferować rozwiązania transparentne i weryfikowalne. Eksperci od zarządzania algorytmami w sektorze publicznym podkreślają, że instytucje powinny wybierać interpretowalne modele zamiast „czarnych skrzynek”, bo tylko zrozumiałe algorytmy pozwolą urzędnikom zachować nadzór i rozliczać się przed obywatelami. Krótko mówiąc: dajmy pierwszeństwo takim technologiom, które można prześwietlić, zamiast tym, które każą nam wierzyć „na słowo” producentowi.
Zasada 0: AI musi się przedstawić
Na koniec tej listy – zasada numer 0, podstawowa, choć często pomijana: gdy rozmawiasz z AI, powinieneś o tym wiedzieć. Sztuczna inteligencja nie powinna podszywać się pod człowieka. Jeśli czatbot udaje urzędnika albo automat telefoniczny mówi głosem miłej pani, masz prawo być uprzedzony, że to maszyna. W życiu codziennym brak takiej informacji to nie tylko kwestia dobrego wychowania, ale i bezpieczeństwa. AI udające człowieka może manipulować – np. wzbudzać większe zaufanie i wyciągać od nas dane lub zgody. Może też emocjonalnie uzależniać (wyobraź sobie np. wirtualnego „doradcę”, z którym ktoś starszy rozmawia myśląc, że to życzliwy człowiek). W usługach publicznych ta zasada powinna być żelaznym standardem. Obywatel ma mieć jasność, kiedy komunikuje się z maszyną, a nie człowiekiem – i możliwość zażądania kontaktu z prawdziwym urzędnikiem, jeśli sprawa jest poważna. Na świecie pojawiają się już przepisy wymuszające taką przejrzystość. Unia Europejska w nowym prawie o AI wprost nakazuje, by systemy wchodzące w interakcje z człowiekiem informowały go wyraźnie, że są sztuczną inteligencją. Podobnie Chiny wdrażają regulacje, które wymagają specjalnego oznaczania wszelkich treści generowanych przez AI – od tekstu, przez obraz, po głos – tak by odbiorcy nie byli wprowadzani w błąd. Skoro nawet światowe mocarstwa to rozumieją, trzymajmy się i my zdrowego rozsądku: AI może pomagać, ale nie może udawać człowieka.
EU AI Act w 60 sekund
W kontekście zasad warto wiedzieć, że nadchodzi nowa „konstytucja AI” w Europie. Akt o sztucznej inteligencji UE (AI Act) – bo o nim mowa – to pierwsze na świecie tak kompleksowe prawo dotyczące AI. Jego filozofia jest prosta: im większy wpływ systemu AI na ludzkie życie, tym większe wymagania i zabezpieczenia. Podejście to nazywa się „oparte na ryzyku”. Prawo definiuje kategorie ryzyka – od minimalnego po nieakceptowalne – i nakłada surowe obowiązki na tzw. systemy wysokiego ryzyka (np. te używane w rekrutacji, ocenie kredytowej, edukacji, egzekwowaniu prawa, służbie zdrowia itp.). Dla takich AI przewidziano obowiązkowe testy, certyfikacje, dokumentację, a także nadzór człowieka. Deweloperzy będą musieli m.in. oceniać i minimalizować ryzyko dyskryminacji, zapewnić możliwość wyjaśnienia działania systemu oraz stworzyć mechanizmy zgłaszania błędów. Unia chce w ten sposób zapewnić, że AI będzie „godna zaufania” i zgodna z prawami podstawowymi obywateli. To trochę jak homologacja w motoryzacji: zanim dopuścisz pojazd na drogi, musi przejść testy zderzeniowe i spełnić normy bezpieczeństwa. Tutaj „pojazdem” jest algorytm decydujący o człowieku. Co ważne, AI Act przewiduje też ograniczoną odpowiedzialność dla lżejszych przypadków – np. chatboty nie będą musiały spełniać aż tak rygorystycznych norm, ale wprowadzono dla nich wymóg transparentności (czyli wspomnianą zasadę 0). Na drugi biegun prawo wyrzuca praktyki skrajnie nieakceptowalne – np. socjalny scoring obywateli czy masową inwigilację biometryczną – i po prostu ich zakazuje. Akt o AI został uchwalony w 2024 r. i stopniowo wchodzi w życie: najważniejsze obowiązki wejdą od 2026 r.. W sektorze publicznym będzie on oznaczał niemałą rewolucję – ale celem jest odbudowa zaufania i zagwarantowanie obywatelom ich praw w dobie algorytmów.
Czemu Big Tech nie powinien być domyślnym dostawcą dla państwa
Wiele rządów, widząc postęp AI, może ulec pokusie: skoro Big Tech (wielkie firmy technologiczne) mają najlepsze algorytmy, kupmy od nich gotowe rozwiązania i wdrożmy u nas. Na pierwszy rzut oka to proste – po co budować coś od zera, skoro globalna korporacja oferuje „cudowną maszynkę” do usprawnienia urzędu? Problem w tym, że cele Big Tech często rozmijają się z celami administracji publicznej. Giganci nastawieni są na masową skalę, zysk i szybkość. Ich algorytmy to często zamknięte, komercyjne produkty, do których państwo nie ma pełnego dostępu. To trochę tak, jakby wymiar sprawiedliwości kupił czarną skrzynkę od prywatnej firmy i orzekał wyroki na podstawie jej wskazań, nie wiedząc dokładnie, jak ona działa. Brzmi groźnie? Bo jest groźne. Po pierwsze, korzystając z „gotowca” od Big Tech, rząd staje się zależny od zewnętrznego dostawcy – to tzw. vendor lock-in, czyli cyfrowe uzależnienie od jednego dostawcy. Firma może dyktować warunki, podnosić ceny, a nawet wycofać usługę, a państwo ma wtedy związane ręce. Po drugie, odpowiedzialność się rozmywa: gdy coś pójdzie nie tak, firma powie „to tylko narzędzie, wina użycia”, a urzędnicy powiedzą „to algorytm firmy, my nie wiemy jak on działa”. Obywatel zostaje z niczym. Po trzecie, brak przejrzystości: wielkie koncerny często zasłaniają się tajemnicą handlową i nie ujawnią kodu ani kryteriów działania swojego AI. W efekcie państwo traci kontrolę – używa mechanizmu, którego nie może w pełni skontrolować czy zmodyfikować. Po czwarte, sprzeczność bodźców: Big Tech optymalizuje pod kątem globalnym, nie zawsze licząc się z lokalnym prawem czy wartościami. Ich model może świetnie działać na rynku reklamy, ale w administracji ważniejsza jest jawność i równe traktowanie niż maksymalizacja kliknięć. Dlatego coraz więcej ekspertów mówi wprost: publiczne AI powinno być suwerenne i otwarte. Państwo potrzebuje rozwiązań, nad którymi ma realną pieczę – takich, które można dostosować do przepisów i które ktoś u nas rozumie. Nawet amerykańskie instytucje zauważają, że dziś urzędy kupują AI jak zwykłe oprogramowanie, kierując się głównie ceną i obietnicami dostawcy – zamiast wymagać np. dowodów na jakość danych, brak stronniczości czy dokumentację działania. To się musi zmienić. W sprawach publicznych nie chodzi o to, by mieć najnowszy gadżet z Doliny Krzemowej – chodzi o zaufanie obywateli. A na to pracuje się poprzez odpowiedzialność, przejrzystość i możliwość kontroli. Jeśli prywatna firma nie chce tego zapewnić, jej produkt nie powinien decydować o wydawaniu naszych praw czy pieniędzy.
Standardy i dobre praktyki – po ludzku o technicznym rygorze
Skoro wiemy już, czego chcemy od AI (zasady odpowiedzialności), warto zapytać jak to osiągnąć w praktyce. Tutaj wkraczają rozmaite standardy i procedury, które brzmią technicznie, ale ich sens jest prosty: sprawić, by algorytmy nam nie „odjechały” w szkodliwą stronę. W świecie idealnym wygląda to tak: zanim system AI zostanie wdrożony, przechodzi gruntowne testy – sprawdza się, czy działa poprawnie dla różnych grup ludzi, czy nie dyskryminuje, czy wyniki są wiarygodne. Robi się coś w rodzaju symulacji i próbnego audytu: np. puszcza się algorytm na stare dane i patrzy, czy jego decyzje pokrywają się z tym, co zrobiliby doświadczeni pracownicy. Analizuje się ryzyko – czyli potencjalne skutki uboczne: „czy nasz chatbot może kogoś wprowadzić w błąd medycznie?”, „czy system oceniający wnioski kredytowe nie faworyzuje nieświadomie jakiejś grupy?”. Takie oceny wpływu (w tym na prawa człowieka) stają się coraz częstsze na Zachodzie, zwłaszcza przy projektach publicznych. Gdy system już ruszy, monitoruje się go na bieżąco – czyli regularnie sprawdza, czy nadal działa tak, jak powinien. Dane się zmieniają, ludzie potrafią próbować go oszukać; model AI może z czasem tracić dokładność. Dlatego ciągłe monitorowanie i okresowe audyty po wdrożeniu są niezbędne. Można to porównać do przeglądów technicznych w samochodzie – nawet najlepszy pojazd co rok idzie na stację kontroli. Jeśli coś zaczyna szwankować (np. algorytm częściej się myli lub ktoś odkrył nowy sposób, żeby go obejść), powinna zadziałać procedura alarmowa: naprawa albo nawet wstrzymanie działania do czasu poprawek. Ważnym elementem jest zarządzanie zmianą: jeśli do systemu AI wprowadzana jest aktualizacja lub zmiana parametrów, nie robi się tego po cichu z dnia na dzień. Najpierw zmiana powinna być przetestowana, zatwierdzona i udokumentowana – byśmy znów wiedzieli, co się zmieniło i dlaczego. Wspominałem wcześniej o „red-teamingu” – to właśnie jedna z praktyk: zatrudnia się specjalistów, którzy próbują system zhakować albo oszukać (tak jak „czerwony zespół” symuluje przeciwnika). Lepiej, żeby lukę w AI znaleźli nasi testerzy niż sprytni oszuści na żywym organizmie, prawda? Wreszcie, kultura organizacyjna też ma znaczenie: urzędnicy powinni być szkoleni, jak korzystać z AI odpowiedzialnie, a nie bezrefleksyjnie. Podsumowując, wdrożenie AI to nie jednorazowe kliknięcie „Install” i zapomnienie. To ciągły proces dbania o jakość i zgodność. Dobrze oddaje to amerykańska koncepcja “AI risk management” – zarządzania ryzykiem AI. Instytucje takie jak NIST zalecają, by traktować algorytm jako coś, co wymaga stałego nadzoru, mierzenia wyników, dokumentowania i doskonalenia. Brzmi to wszystko przyziemnie, ale na końcu dnia chodzi o jedno: żeby obywatel mógł zaufać, że ktoś tego „sztucznego urzędnika” pilnuje i w porę wychwyci, jeśli zacznie on wariować.
Jak wybierać technologie, którym ufamy?
Skoro już wiemy, czego wymagać od AI w usługach publicznych, warto to przekuć na kilka prostych pytań. Takich, które każdy decydent i każdy użytkownik powinien zadać przed zaakceptowaniem nowego systemu. Oto przykładowa lista kontrolna:
- Kto bierze odpowiedzialność, gdy system się pomyli? – (Czy jest konkretny urzędnik lub instytucja, która wtedy interweniuje i przyznaje się do błędu?)
- Czy otrzymam zrozumiałe wyjaśnienie decyzji AI? – (Zamiast technicznego żargonu lub „tak wyszło”, czy będzie normalne wytłumaczenie?)
- Czy istnieje realna możliwość odwołania i poprawy błędu? – (Czy mój sprzeciw rozpatrzy człowiek w sensownym terminie, a nie automat bez odpowiedzi?)
- Co system loguje i kto może to skontrolować? – (Czy działania AI są zapisywane i dostępne dla audytora – np. rzecznika praw obywatelskich lub kontrolera?)
- Czy system można niezależnie skontrolować lub audytować? – (Najlepiej, gdy kod jest otwarty lub przynajmniej dostępny do wglądu dla ekspertów zewnętrznych.)
- Jak chronione są dane i czy system nie zbiera ich więcej, niż to konieczne? – (Minimalizacja danych to podstawa – im mniej trzymamy w systemie, tym mniejsze ryzyko naruszenia prywatności.)
- Czy wiem (jako obywatel), kiedy mam do czynienia z AI, a kiedy z człowiekiem? – (Patrz Zasada 0: systemy muszą się przedstawiać.)
- Czy są obszary, w których tego systemu nie należy używać? – (Nawet świetny algorytm może nie nadawać się do wszystkiego – np. do decyzji czysto etycznych czy takich, gdzie brak danych może wypaczyć wynik.)
Takie pytania można mnożyć, ale idea jest jasna: technologia, której ufamy, to technologia „przepytana” i sprawdzona pod kątem odpowiedzialności. Jeśli w którymś z tych punktów system oblewa egzamin – trzeba poważnie się zastanowić, czy w ogóle go wdrażać.
Otwarte i audytowalne fundamenty (Avalon jako przykład)
Na horyzoncie widać pewną pozytywną zmianę podejścia: zamiast adaptować na siłę narzędzia Big Tech do publicznych potrzeb, coraz częściej mówi się o budowaniu własnych, otwartych rozwiązań dla państwa. Chodzi o to, by infrastruktura AI była od podstaw projektowana pod kątem reguł odpowiedzialności, o których mówiliśmy. W praktyce oznacza to preferowanie otwartego oprogramowania, otwartych modeli – bo te łatwiej poddać kontroli i audytowi społeczności. Jeśli kod jest dostępny, niezależni eksperci mogą go sprawdzić, znaleźć błędy czy uprzedzenia zanim wyrządzą krzywdę. Otwarty kod to także większa stabilność – nawet gdy dostawca przestanie wspierać produkt, społeczność lub rząd mogą go rozwijać dalej (unikamy vendor lock-in). Oczywiście open source to nie panaceum – ale daje solidne podstawy zaufania: przejrzystość, możliwość weryfikacji, brak ukrytych „niespodzianek”. Jeśli AI ma działać dla ludzi, a nie tylko dla zysku, to logiczne, że jej fundament musi być pod kontrolą społeczną. Pewnym wzorem takiego podejścia jest inicjatywa Avalon – platforma architektury AI projektowana od początku właśnie z myślą o audytowalności, transparentności i jasnych zasadach odpowiedzialności. W Avalonie założono, że każda decyzja algorytmu jest śledzona, każdy moduł może być sprawdzony przez niezależny podmiot, a zmiany w systemie są rygorystycznie zarządzane i jawne. To przykład, że można tworzyć rozwiązania, gdzie technologia służy obywatelom na ich warunkach, a nie odwrotnie. Kluczem jest tu architektura zaufania: otwarta, kontrolowalna, nasza. Oby więcej takich projektów – bo one pokazują, że da się mieć nowoczesne AI, które nie jest czarną skrzynką, lecz przejrzystym narzędziem.
Zakończenie – stawiamy człowieka na pierwszym miejscu
Podsumowując ten spokojny przewodnik: w sprawach publicznych nie wybieramy „najsprytniejszego algorytmu”. Wybieramy system, w którym człowiek ma swoje prawa i gwarancje. Sztuczna inteligencja w urzędach może być ogromnym wsparciem – przyspieszyć procedury, wyłapać błędy, ułatwić dostęp do informacji. Jednak bez zasad odpowiedzialności stanie się zagrożeniem, a nie pomocą. Dlatego dopominajmy się tych reguł: jeśli czegoś nie da się sprawdzić, nie powinno decydować o naszym życiu. Każdy z nas może kiedyś znaleźć się po drugiej stronie decyzji algorytmu – i wtedy doceni, że istnieje możliwość zadania pytania „dlaczego?”, odwołania się do człowieka, czy skontrolowania, czy wszystko poszło tak, jak powinno. Technologia ma służyć ludziom, a nie ich oceniać bez apeliacji. Dopilnujmy, żeby tak właśnie było – poprzez mądre przepisy, otwarte standardy i zdrowy rozsądek w korzystaniu z AI. Ostatecznie to my – społeczeństwo – powinniśmy mieć ostatnie słowo, nawet w erze algorytmów.
Źródła i lektury:
- Unijny Akt o Sztucznej Inteligencji (AI Act) – streszczenie zasad i podejścia opartego na ryzyku
- Bird & Bird: Nowe chińskie przepisy o oznaczaniu treści generowanych przez AI (porównanie z regulacjami UE)
- Raport Don’t let governments buy AI systems that ignore human rights – przykłady nadużyć AI w sektorze publicznym (USA, Niderlandy, UK) i rekomendacje dot. zamówień publicznych
- Holenderski skandal z zasiłkami: algorytm oznaczył 20 tys. rodziców jako oszustów (raport Autoriteit Persoonsgegevens)
- The Guardian: Michigan’s MiDAS – automatyczny system, który niesłusznie oskarżył 20–40 tys. osób o wyłudzenie zasiłku
- AlgorithmWatch: SyRI – jak aktywiści wywalczyli zakaz algorytmu anty-fraudowego w Holandii (wyrok sądu ws. braku transparentności i naruszenia prywatności)
- Busuioc (2020), Accountable Artificial Intelligence – analiza wyzwań odpowiedzialności algorytmicznej w sektorze publicznym, rekomendacja preferowania modeli interpretable vs black-box
- NIST AI Risk Management Framework 1.0 (2023) – ramy zarządzania ryzykiem AI, zasady zaufanej AI (m.in. bezpieczeństwo, transparentność, możliwość wyjaśnienia, sprawiedliwość)
- OECD AI Principles (2019) – wytyczne dla odpowiedzialnej AI (m.in. dobro społeczne, prawa człowieka, transparentność, odpowiedzialność)
- Open Digital Foundation – Avalon: podejście do architektury AI dla sektora publicznego oparte na audytowalności i otwartym kodzie
Dodaj komentarz