Wytczne KE w sprawie AI

Wytyczne KE w sprawie zakazanych praktyk AI – część II

 

To druga część przeglądu wytycznych Komisji Europejskiej dotyczących praktyk zakazanych w ustawie o sztucznej inteligencji (AI Act). W tym artykule podsumowujemy pozostałe zakazane zastosowania AI.

  1. Nieukierunkowane zbieranie danych do baz rozpoznawania twarzy (art. 5 ust. 1 lit. e))

❌ Zakaz dotyczy tworzenia baz danych poprzez masowe pobieranie obrazów z internetu lub kamer CCTV.
Przykład: firmy trenujące modele AI na milionach zdjęć z mediów społecznościowych bez zgody użytkowników.
✅ Dozwolone: zbieranie danych biometrycznych innych niż twarze (np. głos), czy użycie zdjęć twarzy wyłącznie do generowania fikcyjnych obrazów.

  1. Rozpoznawanie emocji w pracy i szkołach (art. 5 ust. 1 lit. f))

❌ Zakazane jest stosowanie AI do oceny emocji pracowników i uczniów na podstawie danych biometrycznych.
Przykład: monitorowanie gniewu pracowników call center albo rozpoznawanie emocji kandydatów w rekrutacji.
✅ Dozwolone: analiza emocji na podstawie tekstu pisanego, wykrywanie zmęczenia pilotów, czy wykorzystanie systemu w celach medycznych i bezpieczeństwa.

  1. Kategoryzacja biometryczna (art. 5 ust. 1 lit. g))

❌ Zakaz obejmuje systemy klasyfikujące osoby według wrażliwych cech (np. rasa, poglądy polityczne, orientacja seksualna).
Przykład: AI klasyfikująca użytkowników mediów społecznościowych według sympatii politycznych.
✅ Dozwolone: klasyfikacja danych biometrycznych w celach technicznych (np. porządkowanie zbiorów danych zgodnie z prawem UE).

  1. Zdalna identyfikacja biometryczna (RBI) w czasie rzeczywistym przez organy ścigania (art. 5 ust. 1 lit. h))

❌ Generalny zakaz stosowania w przestrzeni publicznej.
✅ Wyjątki tylko w ściśle określonych sytuacjach:

  • poszukiwanie ofiar,
  • zapobieganie bezpośrednim zagrożeniom,
  • lokalizowanie sprawców poważnych przestępstw.

Każdy wyjątek wymaga spełnienia rygorystycznych warunków: oceny wpływu na prawa podstawowe i rejestracji w unijnej bazie danych.

Wnioski

Wytyczne KE jasno wskazują, które praktyki związane z AI są zakazane, aby chronić prawa podstawowe, a jednocześnie wspierać bezpieczne innowacje
👉 Firmy i organizacje muszą dokładnie przeanalizować swoje projekty AI pod kątem tych regulacji, aby uniknąć naruszeń i wysokich kar.

No Comments

Post a Comment