Wytyczne KE w sprawie zakazanych praktyk AI – część II
To druga część przeglądu wytycznych Komisji Europejskiej dotyczących praktyk zakazanych w ustawie o sztucznej inteligencji (AI Act). W tym artykule podsumowujemy pozostałe zakazane zastosowania AI.
- Nieukierunkowane zbieranie danych do baz rozpoznawania twarzy (art. 5 ust. 1 lit. e))
❌ Zakaz dotyczy tworzenia baz danych poprzez masowe pobieranie obrazów z internetu lub kamer CCTV.
Przykład: firmy trenujące modele AI na milionach zdjęć z mediów społecznościowych bez zgody użytkowników.
✅ Dozwolone: zbieranie danych biometrycznych innych niż twarze (np. głos), czy użycie zdjęć twarzy wyłącznie do generowania fikcyjnych obrazów.
- Rozpoznawanie emocji w pracy i szkołach (art. 5 ust. 1 lit. f))
❌ Zakazane jest stosowanie AI do oceny emocji pracowników i uczniów na podstawie danych biometrycznych.
Przykład: monitorowanie gniewu pracowników call center albo rozpoznawanie emocji kandydatów w rekrutacji.
✅ Dozwolone: analiza emocji na podstawie tekstu pisanego, wykrywanie zmęczenia pilotów, czy wykorzystanie systemu w celach medycznych i bezpieczeństwa.
- Kategoryzacja biometryczna (art. 5 ust. 1 lit. g))
❌ Zakaz obejmuje systemy klasyfikujące osoby według wrażliwych cech (np. rasa, poglądy polityczne, orientacja seksualna).
Przykład: AI klasyfikująca użytkowników mediów społecznościowych według sympatii politycznych.
✅ Dozwolone: klasyfikacja danych biometrycznych w celach technicznych (np. porządkowanie zbiorów danych zgodnie z prawem UE).
- Zdalna identyfikacja biometryczna (RBI) w czasie rzeczywistym przez organy ścigania (art. 5 ust. 1 lit. h))
❌ Generalny zakaz stosowania w przestrzeni publicznej.
✅ Wyjątki tylko w ściśle określonych sytuacjach:
- poszukiwanie ofiar,
- zapobieganie bezpośrednim zagrożeniom,
- lokalizowanie sprawców poważnych przestępstw.
Każdy wyjątek wymaga spełnienia rygorystycznych warunków: oceny wpływu na prawa podstawowe i rejestracji w unijnej bazie danych.
Wnioski
Wytyczne KE jasno wskazują, które praktyki związane z AI są zakazane, aby chronić prawa podstawowe, a jednocześnie wspierać bezpieczne innowacje
👉 Firmy i organizacje muszą dokładnie przeanalizować swoje projekty AI pod kątem tych regulacji, aby uniknąć naruszeń i wysokich kar.
No Comments