InternationalAI Act – przepisy regulujące używanie sztucznej inteligencji

1 sierpnia, 2024by admin0

1 sierpnia 2024, po publikacji AI Act w Dzienniku Urzędowym UE, weszły w życie przepisy regulujące używanie sztucznej inteligencji.

 

Nowe przepisy AI Act wprowadzają 4 rodzaje AI:

  • systemy wysokiego ryzyka
  • technologie ograniczonego wpływu
  • technologie minimalnego wpływu
  • systemy nieakceptowalne (będą w UE zakazane)

 

Systemy AI wysokiego ryzyka to takie systemy, które co prawda stwarzają ryzyko dla zdrowia, bezpieczeństwa i praw człowieka ale mogą jednocześnie wiązać się ze znaczącymi korzyściami dla użytkowników. Dlatego też AI Act dopuszcza je do obrotu, ale dopiero po spełnieniu dodatkowych warunków. Oznacza to, że producenci będą musieli znać dokładnie ryzyko jeszcze przed wprowadzeniem na unijny rynek, a obywatele, którzy nie będą zadowoleni z działania systemu, będą mieli prawo do zaskarżenia czynności podjętych z użyciem AI.

 

Modele, które nie stwarzają ryzyka systemowego, takie jak chatboty czy gry, będą podlegać minimalnym warunkom, głównie dotyczącym przejrzystości. Celem regulacji jest, żeby użytkownicy mieli świadomość, że stykają się ze sztuczną inteligencją. Dodatkowe wymogi bezpieczeństwa nałożone zostaną na treści zmanipulowane nazywane deepfake, czyli materiały wygenerowane przez AI, których celem jest wprowadzenie użytkownika w błąd. Te będą musiały być wyraźnie oznaczone. Według AI Act deepfake oznacza „wygenerowane przez AI lub zmanipulowane przez AI obrazy, treści dźwiękowe lub treści wideo, które przypominają istniejące osoby, przedmioty, miejsca, podmioty lub zdarzenia, które odbiorca mógłby niesłusznie uznać za autentyczne lub prawdziwe”.

 

Sztuczna inteligencja nie niesie ze sobą nieograniczonych możliwości, bowiem unijne przepisy zakazują stosowania oprogramowania stanowiącego wyraźne zagrożenie dla praw użytkowników. Mowa tu o technologiach umożliwiających np. monitorowanie i szpiegowanie ludzi, jak również wykorzystywanie ich danych wrażliwych, takich jak orientacja seksualna, pochodzenie lub wyznanie. Zabronione jest również przewidywanie zachowań u ludzi, w tym do tzw. prognozowania kryminologicznego, czyli istnienia ryzyka popełnienia przez nich przestępstw. Nowe prawo zakazuje podsuwania również treści mogących wpłynąć na decyzje i zachowanie odbiorcy.

 

Nowe regulacje wprowadzają też jako zabronione stosowanie tzw. systemu punktowania społecznego, służącego do oceny obywateli na podstawie ich zachowań społecznych. Wiadomym jest, że tego rodzaju technologie wykorzystywane są m.in. w Chinach, gdzie np. sąsiedzi przyznają sobie punkty za poprawne wyrzucanie śmieci. Zakaz będzie też dotyczył systemów monitorujących emocje ludzi w miejscach pracy, urzędach, szkołach lub na uczelniach. Takie technologie stosowane były już w przeszłości do przewidywania strajków i niepokojów społecznych.

 

AI ogranicza systemy wykorzystujące techniki podprogowe (bodźce w postaci obrazów lub dźwięków), których nie można dostrzec, bo wykraczają poza świadomą ludzką percepcję, ale także wykorzystujące podatności osób z mniejszości etnicznych, religijnych lub będących w trudnej sytuacji ekonomicznej.

 

Szacuje się, że w odniesieniu do deepfakeów ten zakaz albo w ogóle nie zadziała, albo będzie miał zastosowanie w bardzo wąskim zakresie. Środowiska badające zjawiska sztucznej inteligencji podkreślają, że nie usunie z rynku narzędzi bazujących na generatywnej AI tylko dlatego, że ktoś – zamiast stworzyć groteskowego mema z prezydentem – użył takiego narzędzia do stworzenia naprawdę krzywdzącego deepfake porn. Nie istnieje w AI Act konkretny przepis, który pomógłby osobie pokrzywdzonej w wyniku rozpowszechnienia jej wygenerowanego, zmanipulowanego wizerunku albo głosu.

 

Pełny zakres regulacji będzie obowiązujący dopiero za dwa lata. Trwają również prace nad krajową ustawą, której założenia mamy poznać wkrótce.

 

 

 

admin

Leave a Reply

Your email address will not be published. Required fields are marked *