Na długo przed tym, jak oskarżony trafi na salę sądową lub zanim w ogóle zostanie otwarta teczka sprawy, niewidzialna cyfrowa ręka mogła już posortować, przeanalizować i oznaczyć dowody. W cichych korytarzach wymiaru sprawiedliwości to algorytmy coraz częściej wykonują najcięższą pracę. Jednak przez lata systemy te działały w ramach „czarnej skrzynki” – przestrzeni, w której kod pozostawał nieprzejrzysty, a decyzje podejmowano bez jasnej ścieżki odpowiedzialności.
Ta era niekontrolowanej automatyzacji dobiega końca w Europie Zachodniej. W ślad za wdrożeniem unijnego aktu o sztucznej inteligencji (EU AI Act), portugalska Prokuratura Generalna (Ministério Público) podjęła zdecydowany krok, aby odsłonić kurtynę. Przyjmując kompleksową Kartę Etycznego Wykorzystania Sztucznej Inteligencji oraz Politykę Audytu Technicznego i Monitorowania, prokuratura sygnalizuje, że choć AI może być potężnym narzędziem, nigdy nie będzie tym, który trzyma sędziowski młotek.
W kontekście regulacyjnym ruch portugalskiej prokuratury to nie tylko biurokratyczna aktualizacja; to fundamentalna zmiana sposobu, w jaki technologia wchodzi w interakcję z prawem. Nowo przyjęta Karta ma zastosowanie do wszystkich systemów AI używanych w prokuraturze, ale kładzie duży nacisk na to, co unijny akt o AI definiuje jako systemy wysokiego ryzyka.
AI wysokiego ryzyka odnosi się do oprogramowania, które ma znaczący wpływ na życie jednostki, takiego jak systemy stosowane w rekrutacji, ocenie zdolności kredytowej lub, w tym przypadku, w organach ścigania i sądownictwie. Ponieważ narzędzia te mogą wpływać na to, czy ktoś zostanie objęty dochodzeniem lub jak priorytetyzowane są dowody, margines błędu nie istnieje.
W istocie Karta działa jak bariery ochronne na górskiej drodze. Pozwala pojazdowi – czyli AI – poruszać się szybko, ale zapobiega jego stoczeniu się w przepaść stronniczości lub bezprawności. Ustanawiając te zasady na wczesnym etapie, Portugalia próbuje zapobiec problemowi „czarnej skrzynki”, w którym nawet deweloperzy nie potrafią wyjaśnić, dlaczego algorytm doszedł do konkretnego wniosku.
U podstaw Karty leży sześć głównych zasad, które każdy system AI musi spełnić, zanim zostanie dopuszczony do akt sprawy.
Z punktu widzenia zgodności, zasady te służą prokuratorom jako kompas. Gwarantują one, że technologia pozostaje podrzędnym partnerem, a nie autonomicznym decydentem.
Co ciekawe, jedna z najważniejszych części Karty nie dotyczy tego, co AI może robić, ale tego, czego surowo zabrania się jej robić. Prokuratura wyznaczyła twardą granicę: AI nie może zastąpić ludzkiego osądu, a oceny predykcyjne są zabronione.
W niektórych jurysdykcjach narzędzia „prognozowania przestępczości” lub „wyroków predykcyjnych” były używane do szacowania prawdopodobieństwa popełnienia przestępstwa przez daną osobę w przyszłości. Portugalia odrzuciła tę ścieżkę. W ramach tych ram prawnych algorytm nie może być używany do określania „wskaźnika ryzyka” oskarżonego ani sugerowania konkretnego wyroku na podstawie danych historycznych.
To kluczowe zwycięstwo dla praw cyfrowych. Uznaje ono, że algorytmy z natury patrzą wstecz – uczą się na podstawie przeszłości, w tym przeszłych uprzedzeń. Pozwolenie im na przewidywanie przyszłości w systemie sprawiedliwości byłoby jak używanie lusterka wstecznego do kierowania samochodem na zatłoczonym skrzyżowaniu. Jest to z natury niebezpieczne i, w kontekście regulacyjnym, ryzykowne pod względem prawnym.
Podczas gdy Karta określa „co”, Polityka Audytu Technicznego i Monitorowania określa „jak”. W praktyce wiele organizacji przyjmuje wytyczne etyczne, a następnie pozwala im leżeć na półce. Portugalia unika tej pułapki, tworząc Multidyscyplinarny Komitet Nadzoru nad AI.
Komitet ten ma za zadanie ciągłą weryfikację zgodności. To nie jest jednorazowa kontrola; to żywy proces dbania o kondycję instytucjonalną. Każdy system AI używany przez prokuratorów będzie podlegał szczegółowym audytom, które badają zestawy danych używane do uczenia, logikę algorytmów oraz rzeczywiste wyniki, jakie generują.
Można o tym myśleć jak o cyfrowym programie ochrony świadków dla integralności danych. Audytorzy dbają o to, aby dane wprowadzane do AI nie zostały „zatrute” nieścisłościami i aby wydajność systemu nie uległa z czasem „dryfowi”, stając się mniej dokładną lub bardziej stronniczą.
Chociaż polityka ta dotyczy konkretnie portugalskiej prokuratury, jej skutki będą odczuwalne w całym sektorze prywatnym. Firmy opracowujące narzędzia legal-tech lub AI dla sektora publicznego mają teraz bardzo jasną listę wymagań.
Co więcej, służy to jako wzór dla każdej organizacji – czy to banku, szpitala, czy giganta handlu detalicznego – która korzysta z AI wysokiego ryzyka. Przejście od zasady „działaj szybko i psuj rzeczy” do „działaj ostrożnie i dokumentuj wszystko” jest obecnie globalnym standardem. Organizacje, które nie przyjmą podobnych wytycznych etycznych i polityk audytu, będą coraz bardziej narażone zarówno na wyzwania prawne, jak i utratę zaufania publicznego.
Ostatecznie AI chroniąca prywatność to nie tylko przestrzeganie prawa; to dbanie o to, aby wchodząc w zautomatyzowaną przyszłość, nie porzucić naszego fundamentalnego człowieczeństwa.
Jeśli Twoja organizacja wdraża lub opracowuje systemy AI, skorzystaj z portugalskich doświadczeń, aby upewnić się, że Twój „cyfrowy uczeń” pozostaje na właściwej ścieżce:
Zastrzeżenie: Niniejszy artykuł ma charakter wyłącznie informacyjny i dziennikarski. Analizuje on punkt styku prawa i technologii, ale nie stanowi formalnej porady prawnej. W celu uzyskania szczegółowych informacji na temat wymogów zgodności należy skonsultować się z wykwalifikowanym prawnikiem specjalizującym się w dziedzinie AI i ochrony danych.



Nasze kompleksowe, szyfrowane rozwiązanie do poczty e-mail i przechowywania danych w chmurze zapewnia najpotężniejsze środki bezpiecznej wymiany danych, zapewniając bezpieczeństwo i prywatność danych.
/ Utwórz bezpłatne konto