Ustawodawcy będą kontynuować dyskusje nad szczegółowymi przepisami w nadchodzących tygodniach, tak aby ostateczny proces mógł zostać zakończony na początku przyszłego roku. Przepisy powinny zacząć obowiązywać od 2026 r.
Do tego czasu firmy zachęcane są do przystąpienia do dobrowolnego Paktu na rzecz AI w celu wdrożenia kluczowych zobowiązań zawartych w przepisach.
Poniżej przedstawiono główną treść umowy zawartej przez UE.
System wysokiego ryzyka
Tak zwane systemy sztucznej inteligencji wysokiego ryzyka – czyli takie, które mogą wyrządzić poważne szkody dla zdrowia, bezpieczeństwa, praw podstawowych, środowiska, demokracji, wyborów i praworządności – będą musiały spełniać szereg wymogów, takich jak poddanie się testom oceniającym wpływ na prawa podstawowe i zobowiązania UE w zakresie dostępu do rynku.
Tymczasem systemy o niskim ryzyku podlegałyby mniej rygorystycznym wymogom przejrzystości, takim jak oznaczanie treści generowanych przez sztuczną inteligencję w taki sposób, aby użytkownicy mogli rozważyć ich wykorzystanie.
Sztuczna inteligencja w egzekwowaniu prawa
Organy ścigania mogą używać systemów zdalnej identyfikacji biometrycznej w czasie rzeczywistym wyłącznie w przestrzeni publicznej w celu identyfikacji ofiar porwań, handlu ludźmi, wykorzystywania seksualnego, a także w celu zapobiegania konkretnym i bezpośrednim zagrożeniom terrorystycznym.
Władze będą mogły również wykorzystywać technologię sztucznej inteligencji do śledzenia podejrzanych o terroryzm, handel ludźmi, wykorzystywanie seksualne, morderstwa, porwania, gwałty, rozboje z bronią w ręku, udział w organizacji przestępczej i przestępstwa przeciwko środowisku.
Systemy sztucznej inteligencji ogólnej i platformowej (GPAI)
GPAI i leżące u jej podstaw modele będą podlegać wymogom przejrzystości, takim jak sporządzanie dokumentacji technicznej, przestrzeganie prawa autorskiego UE i publikowanie szczegółowych podsumowań treści użytych do trenowania algorytmów.
Modele platform, które mogą potencjalnie generować ryzyko systemowe i GPAI o dużym wpływie, będą musiały przeprowadzić ogólną ocenę modelu, dokonać przeglądu i ograniczyć ryzyko, przeprowadzić inżynierię wsteczną, powiadomić Komisję Europejską o poważnych incydentach, zapewnić cyberbezpieczeństwo i raportować zużycie energii.
Dopóki nie zostaną opublikowane zharmonizowane normy UE, GPAI będzie narażone na ryzyko systemowe wynikające z konieczności polegania na kodeksach postępowania w celu przestrzegania przepisów.
Systemy sztucznej inteligencji są zakazane
Zabronione zachowania i treści obejmują: Systemy klasyfikacji biometrycznej wykorzystujące wrażliwe cechy, takie jak poglądy polityczne , religijne, filozoficzne, orientację seksualną i rasę;
Nieskierowane skanowanie wizerunków twarzy z Internetu lub nagrań z monitoringu CCTV w celu utworzenia bazy danych rozpoznawania twarzy;
Rozpoznawanie emocji w miejscu pracy i środowisku edukacyjnym ;
Punktacja społeczna opiera się na zachowaniach społecznych i cechach osobistych;
Systemy sztucznej inteligencji manipulują ludzkim zachowaniem, aby osłabić jego wolną wolę;
Sztuczna inteligencja służy do wykorzystywania ludzkich słabości wynikających z wieku, niepełnosprawności, sytuacji ekonomicznej lub społecznej.
Sankcje
W zależności od rodzaju naruszenia i wielkości przedsiębiorstwa, którego ono dotyczy, kary pieniężne będą wynosić od 7,5 mln euro (8 mln dolarów) lub 1,5% światowego obrotu do 35 mln euro lub 7% światowego obrotu.
(Według Reutersa)
UE osiągnęła historyczne porozumienie w sprawie regulacji sztucznej inteligencji
UE osiągnęła porozumienie w sprawie ustawy o ochronie urządzeń inteligentnych
UE zaostrza zasady wobec gigantów technologicznych, grozi podziałem firm naruszających przepisy
Źródło






Komentarz (0)