Niniejszy dokument nie jest przewodnikiem po kodzie dla garstki inżynierów oprogramowania. To cyfrowa bariera ochronna dla każdego z nas. Mowa o regulacji UE dotyczącej sztucznej inteligencji, która zadecyduje, czy zdobędziemy idealną posadę, czy instytucja finansowa udzieli nam pożyczki hipotecznej oraz w jakim stopniu możemy wierzyć w to, co widzimy, przeglądając sieć w pojeździe komunikacji miejskiej. Wyjaśniamy dlaczego tak jest.
W środkach masowego przekazu lub na platformach społecznościowych niewiele się mówi i pisze o AI Act, pomimo że stanowi on pierwszy na świecie tak wszechstronny zestaw norm regulujących sztuczną inteligencję (AI). To rozporządzenie unijne w sprawie sztucznej inteligencji, które wejdzie w życie już od 2 sierpnia 2026 r. i wpłynie na każdego, np. osoby starającej się o pracę, potencjalnego kandydata do zwolnienia lub pożyczkobiorcę.
Dr Dota Szymborska, prelegentka z Uniwersytetu WSB Merito, argumentuje, że to nie jest kolejna biurokratyczna abstrakcja, stworzona w brukselskich biurach. AI Act wprowadza bowiem fundamentalną regułę, która oddziaływa na wszystkich. Ta reguła brzmi: im poważniejsze ryzyko dla jednostki, tym bardziej restrykcyjne zasady musi spełniać technologia.
Ekspertka tłumaczy, jakie ryzyko ma na myśli i jakie reguły dotyczące urzędów, zatrudnienia, banków i platform społecznościowych. Na konkretnych przypadkach ukazuje, jak prawo zadziała w rzeczywistości.
Zobacz też: Polskie przedsiębiorstwa nadal z rezerwą podchodzą do AI
Dlaczego wizja z “Black Mirror” nie stanie się europejską normą?
Podstawą AI Act jest tzw. piramida zagrożeń.
— Prawo dzieli systemy sztucznej inteligencji na cztery kategorie: od ryzyka niedopuszczalnego [całkowicie zakazane — przyp. red.], przez wysokie i ograniczone, aż po minimalne. Zacznijmy od wierzchołka piramidy — technologii tak niebezpiecznych, że w Unii Europejskiej otrzymały czerwoną kartkę — objaśnia dr Szymborska.
Aby pojąć, o co chodzi, warto przypomnieć sobie jeden z epizodów serialu “Black Mirror” o tytule “Nosedive” (“Na dno”). Społeczeństwo funkcjonuje w nim wokół aplikacji, gdzie ludzie permanentnie oceniają się nawzajem. Główna postać, po serii pechowych incydentów, traci swoje “punkty”, co w konsekwencji pozbawia ją możliwości wynajęcia przyzwoitego mieszkania czy zakupu biletu lotniczego.
To, co w 2016 r. oglądaliśmy jako futurystyczną fikcję, w niektórych rejonach świata urzeczywistnia się — systemy oceny obywatelskiej (tzw. social scoring) funkcjonują na przykład w Chinach (na szczęście dla obywateli nie funkcjonują — jeszcze — na tak szeroką skalę). W Europie taki scenariusz nie nastąpi.
— Gwarantuje nam to artykuł 5 AI Act, który wymienia zakazane praktyki w dziedzinie sztucznej inteligencji. Zgodnie z ustępem 1 lit. c), absolutnie zabrania się wykorzystywania AI do oceny i kategoryzowania zachowań społecznych — ostateczny, wiążący tekst AI Act wynegocjowany przez Parlament Europejski rozszerzył ten zakaz również na podmioty prywatne. To istotna zmiana z perspektywy obywateli — oznacza to, że banki, firmy ubezpieczeniowe czy prywatne przedsiębiorstwa także mają bezwzględny zakaz tworzenia systemów “social scoringu”. Żaden “cyfrowy wynik” nie uniemożliwi nam dostępu do urzędu, lekarza czy placówki edukacyjnej — klarownie wyjaśnia dr Dota Szymborska.
Na tym lista zakazów się nie kończy. Art. 5 ust. 1 lit. f delegalizuje systemy rozpoznawania emocji w miejscach pracy i instytucjach oświatowych.
— Oznacza to definitywny koniec z wizją algorytmów, które mogłyby zwolnić pracownika wyłącznie dlatego, że kamera przemysłowa doszła do wniosku, że wygląda na strudzonego lub znudzonego. W skrócie nasze emocje pozostają nadal naszą prywatną sprawą — mówi ekspertka.
Czytaj też: Sztuczna inteligencja uwikłała “tajemniczy rynek” w sidła. Zamrożone środki finansowe
Algorytm w firmie i w banku — systemy “wysokiego ryzyka”
Istnieją również systemy, które są całkowicie legalne i bardzo użyteczne, jednak mają istotny wpływ na nasze życie. AI Act określa je mianem systemów wysokiego ryzyka i poddaje dokładnej analizie (artykuł 6 oraz szczegółowy Załącznik III).
W AI Act znajdziemy opisane m.in. technologie wykorzystywane w procesie zatrudnienia (rekrutacja) i udzielaniu dostępu do podstawowych usług (jak kredyty bankowe).
Dlaczego to takie istotne?
— Spójrzmy na głośny skandal z Holandii — tzw. Toeslagenaffaire, czyli aferę zasiłkową. Używany przez tamtejszy urząd skarbowy model samouczący się do profilowania wnioskodawców o dodatki na dzieci w wyniku błędów i zakorzenionych uprzedzeń fałszywie oskarżył dziesiątki tysięcy niewinnych rodzin, często o podwójnym obywatelstwie, o wyłudzanie świadczeń. Ludzie byli zmuszeni zwracać ogromne kwoty, tracili dorobek życia, a wszystko z powodu “czarnej skrzynki”, której decyzji nikt nie potrafił uzasadnić — opowiada ekspertka.
AI Act mówi wyraźnie: to się nie powtórzy.
— Od teraz modele decydujące o odrzuceniu CV lub wniosku kredytowego będą musiały być transparentne i zasilane danymi wolnymi od dyskryminacji. Najważniejszy jest jednak artykuł 14. Wprowadza on wymóg nadzoru człowieka [human oversight — przyp. red.]. Bank lub pracodawca nie będzie mógł już bezsilnie rozłożyć rąk i stwierdzić: “Odrzuciliśmy wniosek, bo tak nakazał komputer, nie wiemy, dlaczego”. Ostateczna odpowiedzialność i kontrola zawsze musi spoczywać w rękach człowieka — mówi dr Dota Szymborska.
Wirtualna rzeczywistość i dezinformacja — kto stworzył ten tekst?
Większość z nas nie zaciąga codziennie kredytu, ale regularnie czyta lub ogląda treści cyfrowe. Tu, jak mówi dr Dota Szymborska, wchodzimy w obszar ograniczonego ryzyka.
Nawałnica nieprawdziwych informacji generowanych przez AI to już nasza rzeczywistość. Doświadczyliśmy tego podczas niedawnych wyborów na Słowacji (wrzesień 2023 r.), gdzie w kluczowym momencie kampanii w sieci pojawiło się spreparowane nagranie audio (deepfake) kompromitujące jednego z kandydatów.
Regularnie natykamy się również na fałszywe reklamy z głosami znanych dziennikarzy zachęcających do podejrzanych inwestycji, a na infoliniach denerwujemy się, prowadząc rozmowy z botami, które udają prawdziwych konsultantów.
— Tutaj z pomocą przychodzi artykuł 50 AI Act, który nakłada obowiązki w kwestii przejrzystości. Zyskujemy dzięki niemu fundamentalne “prawo do informacji”. Jeśli dzwonisz na infolinię lub piszesz na czacie i po drugiej stronie “znajduje się” sztuczna inteligencja, system musi cię o tym niezwłocznie poinformować — mówi ekspertka.
Podobnie jest z treściami w sieci: obrazy, dźwięki i wideo wytworzone przez AI (w tym wspomniane deepfake’i) muszą być wyraźnie oznaczone czy to znakiem wodnym, czy stosowną etykietą. — Prawo ma nas zabezpieczać przed cyfrową iluzją, w której przestajemy rozróżniać prawdę od fałszu — podkreśla wykładowczyni Uniwersytetu WSB Merito
Ochrona obywatela czy knebel na europejskie innowacje?
Nie brakuje jednak krytycznych uwag dotyczących AI Act. Przedstawiciele biznesu oraz europejskie firmy technologiczne — takie jak francuski Mistral AI czy niemiecki Aleph Alpha — od dłuższego czasu sygnalizowały, że Unia i AI Act spowolnią postęp nowych technologii.
Ich zdaniem, plątanina przepisów, wymogi surowych certyfikacji, kosztowne audyty techniczne mogą spowodować, że młode europejskie start-upy po prostu upadną, uciekną do USA, pozostawiając Europę na końcu globalnego wyścigu technologicznego.
Czy mają rację? — Z punktu widzenia etyki odpowiedź jest jednoznaczna: innowacje technologiczne nie mogą rozwijać się kosztem podstawowych praw człowieka. Podobnie jak było to w przypadku RODO, które początkowo wywoływało panikę wśród firm, a dziś stanowi globalny standard w zakresie ochrony prywatności, Unia Europejska liczy na tzw. efekt Brukseli — podkreśla dr Dota Szymborska.
Jej zdaniem firmy z Doliny Krzemowej czy z Chin, chcąc sprzedawać swoje produkty na dochodowym europejskim rynku, i tak będą musiały dostosować się do naszych norm.
— W perspektywie długoterminowej, zaufanie konsumentów [tzw. Trustworthy AI — przyp. red.] może stać się największą zaletą konkurencyjną i najważniejszym produktem eksportowym Europy — ocenia ekspertka.
Prawa “przeciętnego obywatela” w wirtualnym świecie
Dlatego w opinii dr Doty Szymborskiej AI Act nie wstrzyma rozwoju sztucznej inteligencji, nie zablokuje innowacji ani nie “wyłączy” serwerów.
— Jego zamiarem jest ucywilizowanie tego dynamicznego procesu. Kończy się cyfrowy Dziki Zachód, na którym najpotężniejsi gracze robili z naszymi danymi, co chcieli. Unia Europejska zaczyna wylewać asfalt i stawiać znaki drogowe na autostradzie sztucznej inteligencji — podkreśla ekspertka.
Jednak aby ten system zadziałał, potrzebna jest świadomość nas wszystkich.
— Prawo chroni nas tylko wtedy, gdy je rozumiemy i jesteśmy w stanie wyegzekwować. Kiedy następnym razem będziemy ubiegać się o zatrudnienie, prosić o kredyt lub denerwować się na “konsultanta” po drugiej stronie słuchawki — pamiętajmy, że nie jesteśmy bezsilni wobec maszyn. Mamy nowe, konkretne prawa. Warto zacząć z nich korzystać. Dzięki temu seriale SF pozostaną w sferze fantazji — przestrzega.
I jak podkreśla, AI Act to nie jest podręcznik obsługi dla nielicznej grupy programistów, to cyfrowa bariera ochronna dla wszystkich obywateli. — Te regulacje przesądzą o tym, czy w przyszłości zdobędziemy wymarzoną pracę, czy instytucja finansowa przyzna nam kredyt hipoteczny i w jakim stopniu będziemy mogli wierzyć w to, co widzimy, przeglądając internet w tramwaju — tłumaczy ekspertka.
Dr Dota Szymborska zauważa, że dodatkowo prowadzone są liczne dyskusje na temat AI Omnibus, a prawnicy i prawniczki wskazują na potrzebę przepisów dotyczących odpowiedzialności za produkt, czyli Agentic Law. — W praktyce może powstać nowy dział prawa cywilnego, który będzie regulował “prawa i obowiązki” systemów autonomicznych zastępujących człowieka w umowach handlowych — podsumowuje ekspertka.
Dziękujemy za przeczytanie naszego artykułu do końca. Bądź na bieżąco! Obserwuj nas w Google.
