Ustawodawcy będą kontynuować dyskusje na temat szczegółowych przepisów w nadchodzących tygodniach, mając na uwadze sfinalizowanie procesu na początku przyszłego roku, a ich wejście w życie planowane jest na rok 2026.
Do tego czasu firmy zachęcane są do przystąpienia do dobrowolnego Paktu na rzecz AI, aby wypełnić kluczowe obowiązki wynikające z przepisów.
Poniżej przedstawiono główną treść umowy zawartej przez UE.
System wysokiego ryzyka
Tak zwane systemy sztucznej inteligencji wysokiego ryzyka – czyli takie, które mogą wyrządzić poważne szkody dla zdrowia, bezpieczeństwa, praw podstawowych, środowiska, demokracji, wyborów i praworządności – będą musiały spełniać szereg wymogów, takich jak poddanie się ocenie skutków w zakresie praw podstawowych i obowiązków związanych z dostępem do rynku UE.
Tymczasem systemy o niskim ryzyku podlegałyby mniej rygorystycznym wymogom przejrzystości, takim jak oznaczanie treści generowanych przez sztuczną inteligencję w taki sposób, aby użytkownicy mogli rozważyć ich wykorzystanie.
Sztuczna inteligencja w egzekwowaniu prawa
Organy ścigania mogą używać systemów zdalnej identyfikacji biometrycznej w czasie rzeczywistym wyłącznie w przestrzeni publicznej w celu identyfikacji ofiar porwań, handlu ludźmi, wykorzystywania seksualnego, a także w celu zapobiegania konkretnym i bezpośrednim zagrożeniom terrorystycznym.
Władze będą mogły również wykorzystywać technologię sztucznej inteligencji do śledzenia podejrzanych o terroryzm, handel ludźmi, wykorzystywanie seksualne, morderstwa, porwania, gwałty, rozboje z bronią w ręku, udział w organizacji przestępczej i przestępstwa przeciwko środowisku.
Systemy sztucznej inteligencji ogólnej i platformowej (GPAI)
GPAI i leżące u jej podstaw modele będą podlegać wymogom przejrzystości, takim jak sporządzanie dokumentacji technicznej, przestrzeganie prawa autorskiego UE i publikowanie szczegółowych podsumowań treści użytych do trenowania algorytmów.
Modele platform, które mogą potencjalnie generować ryzyko systemowe i GPAI o dużym wpływie, będą musiały przeprowadzić ogólną ocenę modelu, dokonać przeglądu i ograniczyć ryzyko, przeprowadzić testy inżynierii wstecznej, powiadomić Komisję Europejską o poważnych incydentach, zapewnić cyberbezpieczeństwo i raportować zużycie energii.
Dopóki nie zostaną opublikowane zharmonizowane normy UE, GPAI będzie narażone na ryzyko systemowe wynikające z konieczności polegania na kodeksach postępowania w celu przestrzegania przepisów.
Systemy sztucznej inteligencji są zakazane
Zabronione zachowania i treści obejmują: Systemy klasyfikacji biometrycznej wykorzystujące wrażliwe cechy, takie jak poglądy polityczne , religia, przekonania filozoficzne, orientacja seksualna i rasa;
Nieskierowane skanowanie wizerunków twarzy z Internetu lub nagrań z monitoringu CCTV w celu utworzenia bazy danych rozpoznawania twarzy;
Rozpoznawanie emocji w miejscu pracy i środowisku edukacyjnym ;
Ocena społeczna oparta na zachowaniach społecznych i cechach osobistych;
Systemy sztucznej inteligencji manipulują ludzkim zachowaniem, aby osłabić jego wolną wolę;
Sztuczna inteligencja służy do wykorzystywania ludzkich słabości wynikających z wieku, niepełnosprawności, sytuacji ekonomicznej lub społecznej.
Sankcje
W zależności od rodzaju naruszenia i wielkości przedsiębiorstwa, którego to dotyczy, kary pieniężne będą wynosić od 7,5 mln euro (8 mln dolarów) lub 1,5% globalnego obrotu rocznego i wzrosną do 35 mln euro lub 7% globalnego obrotu.
(Według Reutersa)
UE osiągnęła historyczne porozumienie w sprawie regulacji sztucznej inteligencji
UE osiągnęła porozumienie w sprawie ustawy o ochronie urządzeń inteligentnych
UE zaostrza zasady wobec gigantów technologicznych, grozi podziałem firm naruszających przepisy
Źródło
Komentarz (0)