Wytyczne Komisji Europejskiej dotyczące zakazanych praktyk w zakresie (AI)

Komisja Europejska wydała długo oczekiwane  wytyczne (liczące 140 stron!) dotyczące zakazanych praktyk w zakresie sztucznej inteligencji (AI), zgodnie z rozporządzeniem (UE) 2024/1689 (AI Act lub Rozporządzenie). Te praktyczne, kompleksowe  wytyczne, obejmujące przykłady i „przypadki użycia”, mają kluczowe znaczenie dla przedsiębiorstw i organizacji zaangażowanych w opracowywanie, wdrażanie i wykorzystywanie systemów sztucznej inteligencji w UE. Zostały one wydane w celu zapewnienia zgodności z Rozporządzeniem, które ma na celu ochronę praw podstawowych i wartości Unii przy zachowaniu innowacyjności.

 

Wprowadzenie

 

Rozporządzenie o sztucznej inteligencji, obowiązujące od 1 sierpnia 2024 r., wprowadza zharmonizowane przepisy dotyczące systemów sztucznej inteligencji w UE, dzieląc je na cztery poziomy ryzyka: niedopuszczalne, wysokie, przejrzyste oraz minimalne lub zerowe.

Wytyczne koncentrują się na systemach sztucznej inteligencji stwarzających niedopuszczalne ryzyko, które są zakazane na mocy art. 5 Rozporządzenia o sztucznej inteligencji.

Zakazy te mają na celu ochronę praw podstawowych, w tym godności ludzkiej, prywatności i niedyskryminacji.

 

Zabronione praktyki AI – przypadki użycia.

 

Wytyczne określają warunki dla siedmiu kategorii zakazanych praktyk AI i ilustrują je praktycznymi przypadkami użycia, które wchodzą w zakres każdej zakazanej praktyki, wraz z dodatkowymi przykładami, które stanowią wyjątki od głównej zasady.

 

Zakazy wchodzą w życie z dniem 2 lutego 2025 r. i mają zasadniczo zastosowanie do wszystkich systemów sztucznej inteligencji, niezależnie od tego, czy zostały one wprowadzone do obrotu lub oddane do użytku przed tą datą, czy po niej.

 

  1. Szkodliwa manipulacja (art. 5 ust. 1 lit. a) )

 

Zakaz ten obejmuje systemy sztucznej inteligencji, które wykorzystują techniki podprogowe, manipulacyjne lub zwodnicze w celu zniekształcenia zachowania i wyrządzenia lub prawdopodobieństwa wyrządzenia znacznej szkody, która obejmuje szkody fizyczne, psychiczne, finansowe i gospodarcze.

 

Przykłady: wizualne lub dźwiękowe komunikaty podprogowe,   wprowadzanie w błąd, manipulacja sensoryczna lub spersonalizowana przez system sztucznej inteligencji lub chatbot sztucznej inteligencji, który podszywa się pod przyjaciela osoby z syntetycznym głosem i próbuje udawać, że jest tą osobą, powodując oszustwa i znaczne szkody.

 

  1. Szkodliwe wykorzystywanie (art. 5 ust. 1 lit. b) )

Zakaz ten obejmuje wykorzystywanie słabych punktów związanych z wiekiem, niepełnosprawnością lub sytuacją społeczno-ekonomiczną oraz powodowanie lub uzasadnione prawdopodobieństwo wyrządzenia znacznej szkody.

 

Przykłady: Zabawka napędzana sztuczną inteligencją zachęcająca dzieci do wykonywania coraz bardziej ryzykownych wyzwań; chatbot terapeutyczny skierowany do osób z upośledzeniem umysłowym wykorzystujący ich ograniczone zdolności intelektualne w celu wywarcia na nich wpływu, aby kupowali drogie produkty medyczne; algorytm predykcyjny oparty na sztucznej inteligencji kierujący reklamy drapieżnych produktów finansowych do osób mieszkających w kodach pocztowych o niskich dochodach.

 

Zgodne z prawem systemy sztucznej inteligencji, które nie podlegają tym zakazom, obejmują:

 

  • Zgodną z prawem perswazję: system sztucznej inteligencji, wykorzystujący spersonalizowane rekomendacje oparte na przejrzystych algorytmach oraz preferencjach i kontrolach użytkownika, angażuje się w perswazję.
  • Systemy sztucznej inteligencji, które prawdopodobnie nie wyrządzą znacznej szkody: chatbot terapeutyczny wykorzystuje techniki podprogowe, aby nakierować użytkowników na zdrowszy styl życia i rzucenie złych nawyków, takich jak palenie.

 

  1. Ocena społecznościowa (art. 5 ust. 1 lit. c)):

 

„Social scoring” oznacza systemy sztucznej inteligencji, które oceniają lub klasyfikują osoby na podstawie zachowań społecznych lub cech osobistych, prowadząc do szkodliwego traktowania w nieadekwatny sposób.

Przykłady: organ ds. migracji i azylu wdraża częściowo zautomatyzowany system nadzoru w obozach dla uchodźców oparty na szeregu infrastruktury nadzoru, w tym kamerach i czujnikach ruchu; organy podatkowe korzystają z narzędzia predykcyjnego AI w odniesieniu do zeznań podatkowych wszystkich podatników w danym kraju, aby wybrać zeznania podatkowe do dokładniejszej kontroli w oparciu o niepowiązane dane, takie jak nawyki społeczne podatników lub połączenia internetowe.

 

Przykłady legalnych systemów sztucznej inteligencji, które nie podlegają temu zakazowi:

 

Ocena, która nie jest oparta na cechach osobistych lub osobowościowych lub zachowaniach społecznych jednostek, nawet jeśli w niektórych przypadkach jednostki mogą być pośrednio dotknięte wynikiem;

Finansowe systemy punktacji kredytowej wykorzystywane przez kredytodawców lub agencje informacji kredytowej do oceny finansowej zdolności kredytowej klienta lub niespłaconych długów, zapewniające punktację kredytową lub określające ocenę ich zdolności kredytowej, które opierają się na dochodach i wydatkach klienta oraz innych okolicznościach finansowych i gospodarczych.

  1. Indywidualna ocena ryzyka i przewidywanie przestępstw (art. 5 ust. 1 lit. d)):

 

Do tej kategorii należą systemy AI, które są wykorzystywane do oceny lub przewidywania ryzyka popełnienia przestępstwa przez daną osobę wyłącznie na podstawie profilowania lub cech osobowości.

 

Przykłady: AI przewidująca przyszłe zachowania przestępcze przy użyciu cech osobowości lub profilowania psychologicznego, a nie obiektywnych, weryfikowalnych faktów bezpośrednio związanych z działalnością przestępczą lub AI automatycznie klasyfikująca osoby jako potencjalnych podejrzanych w dochodzeniach karnych bez nadzoru człowieka lub obiektywnej weryfikacji.

 

W oparciu o wytyczne, następujące systemy AI wykraczają poza zakres tego zakazu:

 

  • Systemy AI wspierające ludzką ocenę opartą na obiektywnych i weryfikowalnych faktach bezpośrednio związanych z działalnością przestępczą są wyłączone z zakazu. Te systemy AI będą jednak klasyfikowane jako systemy AI wysokiego ryzyka.
  • Prognozy przestępczości oparte na lokalizacji, geoprzestrzeni lub miejscu wykraczają poza zakres zakazu.
  • Systemy sztucznej inteligencji wykorzystywane do prognozowania i oceny przestępczości w odniesieniu do podmiotów prawnych.
  • Systemy sztucznej inteligencji wykorzystywane do indywidualnego przewidywania przestępstw administracyjnych.

 

  1. Nieukierunkowany scraping (pozyskiwanie danych) w celu tworzenia baz danych rozpoznawania twarzy (art. 5 ust. 1 lit. e))

 

Zakaz ten obejmuje tworzenie lub rozszerzanie baz danych rozpoznawania twarzy poprzez nieukierunkowane pobieranie obrazów z Internetu lub nagrań CCTV.

 

Przykłady: Systemy AI skanujące na żywo kanały CCTV w celu skompilowania nieautoryzowanych baz danych biometrycznych lub firmy AI zbierające miliony zdjęć z mediów społecznościowych bez zgody użytkownika w celu trenowania modeli rozpoznawania twarzy.

 

W oparciu o wytyczne, następujące systemy AI wykraczają poza zakres tego zakazu:

 

  • nieukierunkowane pobieranie danych biometrycznych innych niż obrazy twarzy (takich jak próbki głosu)
  • Systemy sztucznej inteligencji, które zbierają duże ilości obrazów twarzy z Internetu w celu tworzenia modeli sztucznej inteligencji, które generują nowe obrazy fikcyjnych osób.

 

Pozostałe elementy wytycznych przekażemy w kolejnym artykule wraz z opisem systemu sztucznej inteligencji.

Wnioski i kary

 

Wytyczne Komisji zapewniają zasadniczą jasność co do zakazanych praktyk w zakresie sztucznej inteligencji na mocy Rozporządzenia o sztucznej inteligencji, mając na celu ochronę praw podstawowych przy jednoczesnym wspieraniu innowacji. Przedsiębiorstwa i organizacje zaangażowane w sztuczną inteligencję powinny dokładnie zapoznać się z tymi wytycznymi, aby zapewnić zgodność.

Nieprzestrzeganie przepisów może skutkować znacznymi karami, które zaczną obowiązywać 2 sierpnia 2025 r. i obejmują grzywny w wysokości do 35 mln EUR lub 7% całkowitego rocznego światowego obrotu przedsiębiorstw. Przed 2 sierpnia przepisy dotyczące kar za nieprzestrzeganie zakazów określonych w art. 5 AI Act nie będą miały zastosowania, ponieważ w tym okresie przejściowym nie będzie organów nadzoru rynku, które monitorowałyby, czy zakazy są przestrzegane.

No Comments

Post a Comment