Za sprawą nowych przepisów europarlamentarzyści starają się zaprowadzić nowy ład na rynku pozbawionym wszelkich regulacji. Do opisu sytuacji w rzeczywistości cyfrowej często używa się metafory Dzikiego Zachodu. Hannah Fry, matematyczka i badaczka platform cyfrowych, w wywiadzie dla czasopisma „VOX” zauważa, że obecnie panuje technologiczne bezhołowie, gdzie zbieranie danych dotyczących preferencji i zachowań użytkowników nie wymaga ich zgody, a handel wrażliwymi danymi pomiędzy reklamodawcami jest na porządku dziennym. Skutkiem tego jest „stopniowa zamiana człowieka w produkt, podczas gdy sami zainteresowani nie zdają sobie z tego sprawy”. Według autorki książki „Hello world. Jak być człowiekiem w epoce maszyn” powinniśmy zacząć oceniać algorytmy według ich kosztów netto względem społeczeństwa: „potrzebujemy odpowiednika FDA (Food and Drug Administration – przyp. red.), czyli agencji, która mogłaby chronić własność intelektualną firmy, która wymyśliła algorytm, ale także zapewnić, że społeczeństwo nie jest przez nią w żaden sposób krzywdzone”.
Nową regulacją Komisja Europejska stara się nawiązać do poprzedniego milowego kroku na polu cyfrowym, czyli rozporządzeniu o ochronie danych, znanego jako RODO (w Europie funkcjonującego jako GDPR – General Data Protection Regulation). Przepisy dotyczące prywatności i ochrony danych osobowych przyjęte wówczas przez Unię Europejską wpłynęłyby nie tylko na sytuację w Unii, ale też na zmianę myślenia o danych osobowych w innych krajach świata.
Co zmienia akt o usługach cyfrowych?
Przepisy w ramach DSA (Digital Services Act) mają lepiej chronić konsumentów oraz ich podstawowe prawa w internecie, dokładnie określać m.in. obowiązki i odpowiedzialność platform internetowych oraz harmonizować odmienne przepisy w różnych krajach Unii Europejskiej. Brukselscy decydenci szczególnie ostrzą sobie zęby na największych graczy, których ustawa określa jako „bardzo duże platformy”, czyli świadczące swoje usługi na terenie Unii wobec co najmniej 45 mln osób. DSA nakazuje cyfrowym gigantom obowiązek ujawniania organom regulacyjnym sposobu, w jaki działają algorytmy autorstwa spółek big tech. W ten sposób Unia stara się regulować kwestie nielegalnego stosowania mechanizmów śledzących (m.in. cookies zwanych „ciasteczkami”,). W celu przestrzegania przepisów powołano do życia Europejskie Centrum Przejrzystości Algorytmicznej (European Centre for Algorithmic Transparency, ECAT). Firmy, które nie zastosują się do nowych obostrzeń, ryzykują grzywny w wysokości do sześciu procent ich rocznego obrotu w Unii Europejskiej.
Skuteczny kaganiec na zagrożenia AI?
AI Act będzie kategoryzować narzędzia sztucznej inteligencji nie według kryterium wewnętrznego zaawansowania, ale na podstawie oceny ryzyka. Prawodawcy proponują podział na cztery główne kategorie: nieakceptowalne (poziom zakazany w użyciu), wysokie, ograniczone (wiążące się z ryzykiem manipulacji) i minimalne.
W raporcie przygotowanym przez grupę badaczy „Polityki Insight” przedstawiono najważniejsze zmiany wynikające z AI Act. Kategorią wysokiego ryzyka zostały objęte działania korzystające z narzędzi AI w ramach systemów:
- identyfikacji biometrycznej;
- zarządzania i funkcjonowania infrastruktury krytycznej;
- związanych z edukacją i szkoleniem zawodowym;
- związanych z zatrudnieniem i zarządzaniem zasobami ludzkimi;
- procesów przydzielania usług prywatnych i publicznych, w tym przydzielania kredytu;
- zarządzania migracją;
- zarządzaniem wymiarem sprawiedliwości i egzekwowaniem prawa.
Od tej pory to po stronie dostawcy systemów wysokiego ryzyka będzie leżał obowiązek udowodnienia, że jego algorytmy nie stosują zakazanych i wykluczających praktyk. Zmienia to zdecydowanie układ sił na drodze do dochodzenia swoich praw przez cyfrowego konsumenta przed wymiarem sprawiedliwości. W AI Act chodzi przede wszystkim o uzyskanie możliwej przejrzystości.
Jak Dawid z Goliatem
Osiągnięcia algorytmów w wielu dziedzinach są imponujące, jednak ich masowe stosowanie ceduje na społeczeństwo masę komplikacji i niebezpieczeństw. Gdziekolwiek spojrzeć – w systemie sądownictwa, w opiece zdrowotnej, w policji, a nawet w handlu online – pojawiają się problemy z prywatnością, stronniczością, błędami, odpowiedzialnością i przejrzystością. Dodając do tego pakietu nieregulowane pragnienie ekspansji i zuchwałość wielkich korporacji (big tech) zza Oceanu, Europa przypomina w tej walce odważnego Dawida, który wciąż nieporadnie stawia czoła większemu przeciwnikowi. Być może wspólny europejski front, odporny na działania lobbystów i fałszywych sygnalistów, razem ze szczelnymi regulacjami prawnymi, będzie w stanie stworzyć możliwie przejrzystą i nastawioną na obronę interesów obywateli cyfrową przestrzeń.
Źródła:
- Polityka Insight, Sztuczna inteligencja pod kontrolą (2022)
- Hannah Fry, Hello world. Jak być człowiekiem w epoce maszyn (2019)
- Sean Illing, „Vox”: How algorithms are controlling your life (2018)