Ustawodawcy będą kontynuować dyskusje na temat szczegółowych przepisów w nadchodzących tygodniach, mając na uwadze sfinalizowanie procesu na początku przyszłego roku, a ich wejście w życie planowane jest na rok 2026.

Do tego czasu firmy zachęcane są do przystąpienia do dobrowolnego Paktu na rzecz AI, aby wypełnić kluczowe obowiązki wynikające z przepisów.

Poniżej przedstawiono główną treść umowy zawartej przez UE.

System wysokiego ryzyka

Tak zwane systemy sztucznej inteligencji wysokiego ryzyka – czyli takie, które mogą wyrządzić poważne szkody dla zdrowia, bezpieczeństwa, praw podstawowych, środowiska, demokracji, wyborów i praworządności – będą musiały spełniać szereg wymogów, takich jak poddanie się ocenie skutków w zakresie praw podstawowych i obowiązków związanych z dostępem do rynku UE.

eltqxowexvjbnmywubkxiyj3ha.jpg
Huenit, kamera AI zamontowana na ramieniu robota na targach technologii konsumenckich w Berlinie, 1 września 2023 r. Zdjęcie: Reuters

Tymczasem systemy o niskim ryzyku podlegałyby mniej rygorystycznym wymogom przejrzystości, takim jak oznaczanie treści generowanych przez sztuczną inteligencję w taki sposób, aby użytkownicy mogli rozważyć ich wykorzystanie.

Sztuczna inteligencja w egzekwowaniu prawa

Organy ścigania mogą używać systemów zdalnej identyfikacji biometrycznej w czasie rzeczywistym wyłącznie w przestrzeni publicznej w celu identyfikacji ofiar porwań, handlu ludźmi, wykorzystywania seksualnego, a także w celu zapobiegania konkretnym i bezpośrednim zagrożeniom terrorystycznym.

Władze będą mogły również wykorzystywać technologię sztucznej inteligencji do śledzenia podejrzanych o terroryzm, handel ludźmi, wykorzystywanie seksualne, morderstwa, porwania, gwałty, rozboje z bronią w ręku, udział w organizacji przestępczej i przestępstwa przeciwko środowisku.

Systemy sztucznej inteligencji ogólnej i platformowej (GPAI)

GPAI i leżące u jej podstaw modele będą podlegać wymogom przejrzystości, takim jak sporządzanie dokumentacji technicznej, przestrzeganie prawa autorskiego UE i publikowanie szczegółowych podsumowań treści użytych do trenowania algorytmów.

Modele platform, które mogą potencjalnie generować ryzyko systemowe i GPAI o dużym wpływie, będą musiały przeprowadzić ogólną ocenę modelu, dokonać przeglądu i ograniczyć ryzyko, przeprowadzić testy inżynierii wstecznej, powiadomić Komisję Europejską o poważnych incydentach, zapewnić cyberbezpieczeństwo i raportować zużycie energii.

owaad7543vnahei6k3ozfuuo5u.jpg
Robot „Rmeca” na szczycie Good Global Summit w Genewie w Szwajcarii. Zdjęcie: Reuters

Dopóki nie zostaną opublikowane zharmonizowane normy UE, GPAI będzie narażone na ryzyko systemowe wynikające z konieczności polegania na kodeksach postępowania w celu przestrzegania przepisów.

Systemy sztucznej inteligencji są zakazane

Zabronione zachowania i treści obejmują: Systemy klasyfikacji biometrycznej wykorzystujące wrażliwe cechy, takie jak poglądy polityczne , religia, przekonania filozoficzne, orientacja seksualna i rasa;

Nieskierowane skanowanie wizerunków twarzy z Internetu lub nagrań z monitoringu CCTV w celu utworzenia bazy danych rozpoznawania twarzy;

Rozpoznawanie emocji w miejscu pracy i środowisku edukacyjnym ;

Ocena społeczna oparta na zachowaniach społecznych i cechach osobistych;

Systemy sztucznej inteligencji manipulują ludzkim zachowaniem, aby osłabić jego wolną wolę;

Sztuczna inteligencja służy do wykorzystywania ludzkich słabości wynikających z wieku, niepełnosprawności, sytuacji ekonomicznej lub społecznej.

Sankcje

W zależności od rodzaju naruszenia i wielkości przedsiębiorstwa, którego to dotyczy, kary pieniężne będą wynosić od 7,5 mln euro (8 mln dolarów) lub 1,5% globalnego obrotu rocznego i wzrosną do 35 mln euro lub 7% globalnego obrotu.

(Według Reutersa)

UE osiągnęła historyczne porozumienie w sprawie regulacji sztucznej inteligencji

UE osiągnęła historyczne porozumienie w sprawie regulacji sztucznej inteligencji

Porozumienie między Parlamentem Europejskim a państwami członkowskimi będzie regulować kwestie sztucznej inteligencji (AI), mediów społecznościowych i wyszukiwarek.
UE osiągnęła porozumienie w sprawie ustawy o ochronie urządzeń inteligentnych

UE osiągnęła porozumienie w sprawie ustawy o ochronie urządzeń inteligentnych

30 listopada ustawodawcy UE osiągnęli wstępne porozumienie w sprawie wniosku mającego na celu ochronę podłączonych urządzeń, który zakłada wprowadzenie do użytku na tym rynku produktów z elementami cyfrowymi, wymagających zapewnienia cyberbezpieczeństwa.
UE zaostrza zasady wobec gigantów technologicznych, grozi podziałem firm naruszających przepisy

UE zaostrza zasady wobec gigantów technologicznych, grozi podziałem firm naruszających przepisy

Unia Europejska (UE) nadal zaostrza zasady zarządzania dużymi firmami technologicznymi, nakładając surowe sankcje, które mogą sięgać 10–20% globalnych przychodów, a nawet zmuszać do podziału firm, które nie przestrzegają przepisów.