SGGP
Aby zaostrzyć przepisy dotyczące sztucznej inteligencji (AI), kluczowi prawodawcy Unii Europejskiej (UE) zgodzili się na wprowadzenie szeregu poprawek do projektów rozporządzeń dotyczących sztucznej inteligencji (AI), mających na celu ograniczenie sztucznej inteligencji generatywnej, takiej jak ChatGPT.
Panasonic Connect Corporation pomógł pracownikom w Japonii wykorzystać systemy AI do zwiększenia produktywności. Zdjęcie: Nikkei Asia |
Oczekiwanie na pierwsze kompletne prawo
Decydujące głosowanie nad ustawą o regulacji sztucznej inteligencji (AI) 11 maja stanowiło nowy krok w procesie uchwalania prawa, które oficjalnie będzie regulować narzędzia AI, takie jak ChatGPT. Komisje Ochrony Konsumentów i Wolności Obywatelskich Parlamentu Europejskiego (PE) zatwierdziły projekt, potwierdzając pogląd, że wykorzystanie AI w UE wymaga regulacji, przy jednoczesnym promowaniu innowacji w tej dziedzinie, z poszanowaniem praw podstawowych, zgodnie z którymi AI musi służyć ludziom, społeczeństwu i środowisku.
Po dwóch latach dyskusji ustawa o sztucznej inteligencji, która ma zostać uchwalona w UE, stanie się pierwszym kompletnym prawem regulującym tę technologię, ponieważ dodano do niej przepisy zakazujące korzystania z technologii rozpoznawania twarzy w miejscach publicznych (co, jak się przewiduje, spowoduje konflikty między krajami UE) oraz narzędzia wykorzystujące algorytmy do przewidywania zachowań przestępczych, generatywne aplikacje sztucznej inteligencji, takie jak ChatGPT firmy OpenAI, kontrole biometryczne... W związku z tym aplikacje te muszą wysyłać powiadomienia, aby przypominać użytkownikom, że produkty tych narzędzi są tworzone przez maszyny, a nie przez ludzi.
Dokument zawiera również sekcję wzywającą do wprowadzenia dodatkowych kryteriów w celu identyfikacji obszarów wysokiego ryzyka dla zastosowań AI, ograniczając tym samym zakres projektowania narzędzi. Narzędzia AI będą klasyfikowane według poziomu ryzyka, jakie każde z nich może stwarzać. Rządy i firmy korzystające z tych narzędzi będą podlegać różnym obowiązkom w zależności od poziomu ryzyka.
Projekt tekstu zostanie przedstawiony Parlamentowi Europejskiemu w przyszłym miesiącu, a następnie przesłany do państw członkowskich UE w celu przeglądu i finalizacji. Chociaż lista zaproponowana przez Komisję Europejską (KE) obejmuje już przypadki wykorzystania sztucznej inteligencji w zarządzaniu infrastrukturą krytyczną, edukacji , zasobach ludzkich, porządku publicznym i imigracji, europosłowie chcą również dodać progi określające zagrożenia dla bezpieczeństwa, zdrowia i praw podstawowych.
Japonia obejmie prowadzenie
Wiele krajów poszukuje również rozwiązań, które pozwolą zarówno zapobiec pozostawaniu krajowego przemysłu w tyle, jak i zadbać o prywatność obywateli.
W Azji zwołano pierwszą w historii rządu Japonii Radę Strategii Sztucznej Inteligencji, aby ustanowić ramy dla rozwoju AI. Przemawiając przed Radą, premier Fumio Kishida powiedział: „Sztuczna inteligencja ma potencjał, by pozytywnie wpłynąć na naszą gospodarkę , ale niesie ze sobą również zagrożenia. Ważne jest, aby odpowiednio podejść do obu tych kwestii”.
Wykorzystanie technologii sztucznej inteligencji (AI) przyczyni się do zwiększenia konkurencyjności przemysłu i rozwiązania problemów całego społeczeństwa, ale AI musi być wykorzystywana w sposób racjonalny i minimalizować ryzyko dla użytkowników. Dotychczas dyskusje koncentrowały się jednak głównie na aspektach technicznych. Japońscy eksperci apelują, aby w przyszłości dyskusje te były prowadzone w oparciu o szerszą perspektywę, z udziałem przedstawicieli takich dziedzin jak biznes i prawo. Nikkei Asia stwierdził, że wyzwaniem stojącym przed Japonią jest podniesienie poziomu rozwoju krajowej AI, przy jednoczesnym skupieniu się na regulacji wykorzystania AI w ogólnym kontekście, w którym bezpieczeństwo, prywatność i prawa autorskie odgrywają istotną rolę.
Sztuczna inteligencja zaczyna zakłócać codzienne życie, ponieważ fałszywe obrazy i filmy, a także tekst generowany przez roboty, budzą obawy dotyczące bezpieczeństwa narodowego i dezinformacji. Ministrowie ds. cyfryzacji i technologii z Grupy Siedmiu (G7) uzgodnili opracowanie wytycznych dotyczących rozwoju i wykorzystania sztucznej inteligencji do końca tego roku. Wraz z objęciem przez Japonię prezydencji w G7 w 2023 roku, premier Kishida zapowiedział, że Japonia będzie przewodzić w formułowaniu międzynarodowych zasad, aby w pełni wykorzystać potencjał sztucznej inteligencji i przeciwdziałać ryzyku związanemu z tą technologią.
Podobnie jak Japonia, Biały Dom ogłosił w zeszłym tygodniu, że zainwestuje 140 milionów dolarów w utworzenie siedmiu centrów badawczych nad sztuczną inteligencją i opublikuje wytyczne dotyczące wykorzystania tej zaawansowanej technologii, których celem jest stworzenie zasad minimalizujących ryzyko, ale nie utrudniających rozwoju innowacji opartych na sztucznej inteligencji. Przemawiając przed Radą Doradców ds. Nauki i Technologii, prezydent USA Joe Biden podkreślił, że sztuczna inteligencja może pomóc w radzeniu sobie z bardzo trudnymi wyzwaniami, takimi jak choroby i zmiany klimatu, ale musimy również zająć się potencjalnymi zagrożeniami dla społeczeństwa, gospodarki i bezpieczeństwa narodowego. Firmy technologiczne mają obowiązek zapewnić bezpieczeństwo swoich produktów, zanim trafią one na rynek.
Źródło
Komentarz (0)