AI ACT – regulacje dotyczące sztucznej inteligencji
AI Act (Akt w sprawie sztucznej inteligencji) cz1. – informacje ogólne
Sztuczna inteligencja staje się kluczowym instrumentem w kształtowaniu naszej rzeczywistości i przyszłości. Akt w sprawie sztucznej inteligencji, znany jako AI Act, jest odpowiedzią na dynamiczne wyzwania i możliwości, jakie niesie ze sobą ten szybko rozwijający się obszar technologiczny. Rozporządzenie Parlamentu Europejskiego i Rady w sprawie sztucznej inteligencji („AI Act” lub „Akt”) ma na celu stworzenie spójnych ram prawnych dla sztucznej inteligencji w Unii Europejskiej („UE”), zapewniających bezpieczeństwo i ochronę dla wszystkich użytkowników, niezależnie od ich lokalizacji.
Projekt Aktu w sprawie sztucznej inteligencji został opublikowany przez Komisję Europejską 21 kwietnia 2021 r., natomiast 13 marca 2024 r. został on przyjęty przez Parlament Europejski. Przepisy AI Actu zaczną obowiązywać po upływie 24 miesięcy z pewnymi wyjątkami. Przepisy dotyczące systemów sztucznej inteligencji wysokiego ryzyka zaczną obowiązywać po upływie 36 miesięcy, przepisy dotyczące zakazanych praktyk już po 6 miesiącach, kodeks postępowania po 9 miesiącach, a przepisy dotyczące systemów ogólnego przeznaczenia i tzw. generatywnej sztucznej inteligencji (np. chat GPT) po 12 miesiącach.
AI Act ma zastosowane do dostawców wprowadzających do obrotu lub oddających do użytku systemy sztucznej inteligencji w UE (niezależnie od ich siedziby), użytkowników tych systemów znajdujących się w UE oraz dostawców i użytkowników spoza UE, jeśli wyniki działania systemu sztucznej inteligencji są wykorzystywane na terytorium wspólnoty. AI Act wprowadza ustrukturyzowane przepisy dotyczące rozwoju, wprowadzania do obrotu oraz wykorzystywania systemów sztucznej inteligencji w obszarze UE. Głównymi celami przepisów jest zapewnienie bezpieczeństwa stosowania systemów opartych o sztuczną inteligencje i minimalizacje ryzyka, zapewnienie pewności prawa na potrzeby wprowadzania innowacji opartych o sztuczną inteligencje, ułatwienie zarządzania i egzekwowania przepisów w tym zakresie.
AI Act wprowadza rozróżnienie systemów sztucznej inteligencji wysokiego ryzyka, uznajac że powinny one podlegać bardziej szczegółowym i restrykcyjnym wymogom, niż te których ryzyko nie jest tak duże. Systemy sztucznej inteligencji klasyfikowane jako systemy „wysokiego ryzyka” wykorzystywane są m.in. w opiece zdrowotnej czy w finansach i bankowości. Wśród innych obszarów klasyfikowanych przez AI Act znajdują się prawo i jego egzekwowanie, transport i motoryzacja, reklama i marketing, rekrutacja i zarządzanie zasobami ludzkimi czy też edukacja.
AI Act określa listę zakazanych praktyk, takich jak wykorzystywanie systemów sztucznej inteligencji, które stosują techniki oddziaływania podprogowego lub wykorzystują przymusowe położenie (np. słabości) odbiorcy, ale też takich, które są wykorzystywane do zdalnej biometrii w czasie rzeczywistym lub oceny i klasyfikacji zachowania osoby fizyczne (z pewnymi włączeniami, np. dla organów ścigania). Ponadto, określa wymogi jakie powinien spełniać system sztucznej inteligencji wysokiego ryzyka oraz jego operator. Dla dostawców i systemów generatywnej inteligencji nałożono również dodatkowe obowiązki, w tym te dotyczące zapewnienia przejrzystości generowanych treści oraz pozyskiwanych danych treningowych. Może to ułatwić dochodzenie ewentualnych roszczeń przez autorów, których treści, bez ich zgody, zostały wykorzystane do treningu systemu sztucznej inteligencji.
AI Act przewiduje również ustanowienie w państwach członkowskich organów nadzorczych ds. sztucznej inteligencji, a na szczeblu unijnym, zrzeszającą organy krajowe – Europejską Radę ds. Sztucznej Inteligencji. AI Act zakłada karanie nielegalnych praktyk, przewidując wysokie kary finansowe.
Uchwalenie AI Actu to bardzo istotny krok w kierunku stworzenia spójnych ram prawnych dla sztucznej inteligencji, które zapewnią ochronę oraz ograniczą ryzyko związane z jej stosowaniem. Pomimo, że działania mające na celu unormowanie stosowania sztucznej inteligencji należy uznać za właściwie, to warto zwrócić uwagę na fakt, że zbyt sztywne ramy legislacyjne mogą doprowadzić do ograniczenia rozwoju tej technologii w UE, w szczególności na tle innych rynków. Biorąc pod uwagę dynamikę zagadnienia, bez wątpienia, szybko przyjdzie nam się przekonać jakie będą jego skutki.
No Comments