Vietnam.vn - Nền tảng quảng bá Việt Nam

Jak prawidłowo wykorzystać sztuczną inteligencję

Báo Sài Gòn Giải phóngBáo Sài Gòn Giải phóng15/05/2023

[reklama_1]

SGGP

Aby zaostrzyć przepisy dotyczące sztucznej inteligencji (AI), kluczowi prawodawcy Unii Europejskiej (UE) zgodzili się na wprowadzenie szeregu poprawek do projektów rozporządzeń dotyczących sztucznej inteligencji (AI), mających na celu ograniczenie innowacyjnych rozwiązań AI, takich jak ChatGPT.

Dzięki Panasonic Connect pracownicy w Japonii mogą zwiększyć swoją produktywność dzięki wykorzystaniu systemów AI. (Zdjęcie: Nikkei Asia)
Dzięki Panasonic Connect pracownicy w Japonii mogą zwiększyć swoją produktywność dzięki wykorzystaniu systemów AI. (Zdjęcie: Nikkei Asia)

Oczekiwania wobec pierwszego kompletnego prawa

Głosowanie 11 maja nad ustawą regulującą kwestie sztucznej inteligencji (AI) stanowiło nowy krok w procesie uchwalania formalnych przepisów regulujących narzędzia AI, takie jak ChatGPT. Komisje Parlamentu Europejskiego ds. ochrony konsumentów i wolności obywatelskich zatwierdziły projekt, potwierdzając potrzebę kontroli wykorzystania AI w UE, przy jednoczesnym promowaniu innowacji w tej dziedzinie, z poszanowaniem praw podstawowych, zgodnie z którymi AI musi służyć ludziom, społeczeństwu i środowisku.

Po dwóch latach dyskusji oczekuje się, że ustawa o sztucznej inteligencji stanie się pierwszym kompleksowym prawem regulującym tę technologię w UE, ponieważ dodaje przepisy zakazujące stosowania technologii rozpoznawania twarzy w miejscach publicznych (co prawdopodobnie spowoduje konflikty między krajami UE) oraz narzędzia wykorzystujące algorytmy do przewidywania zachowań przestępczych, aplikacje generowane przez sztuczną inteligencję, takie jak ChatGPT firmy OpenAI, weryfikację biometryczną itp. W związku z tym aplikacje te muszą wysyłać użytkownikom powiadomienia informujące ich, że produkty tych narzędzi są tworzone przez maszyny, a nie przez ludzi.

Dokument zawiera również przepisy wymagające dodania kryteriów identyfikujących obszary wysokiego ryzyka dla zastosowań AI, ograniczając w ten sposób skalę projektowania narzędzi. Narzędzia AI będą klasyfikowane według poziomu ryzyka, jakie może stwarzać każde z nich. Rządy i firmy korzystające z tych narzędzi będą podlegać różnym obowiązkom w zależności od poziomu ryzyka.

W przyszłym miesiącu projekt tekstu zostanie przedłożony Parlamentowi Europejskiemu do zatwierdzenia, a następnie przesłany państwom członkowskim UE do dalszego rozpatrzenia i dopracowania. Chociaż lista zaproponowana przez Komisję Europejską (KE) obejmuje już zastosowania sztucznej inteligencji w zarządzaniu infrastrukturą krytyczną, edukacji , zarządzaniu siłą roboczą, porządku publicznym i imigracji, posłowie chcą również dodać progi regulacyjne, które określą zagrożenia dla bezpieczeństwa, zdrowia i praw podstawowych.

Japonia obejmie prowadzenie.

Wiele krajów poszukuje również rozwiązań, które pozwolą im jednocześnie zapobiec zacofaniu krajowego przemysłu i zadbać o prywatność obywateli.

W Azji po raz pierwszy zwołano Radę Strategii ds. Sztucznej Inteligencji (AI) rządu Japonii, której celem było stworzenie ram dla rozwoju AI. Przemawiając przed Radą, premier Fumio Kishida stwierdził: „Sztuczna inteligencja ma potencjał, by pozytywnie przekształcić nasze społeczeństwo i gospodarkę , ale niesie ze sobą również ryzyko. Kluczowe jest, aby odpowiednio zająć się tymi dwoma kwestiami”.

Wykorzystanie technologii sztucznej inteligencji (AI) przyczyni się do zwiększenia konkurencyjności przemysłu i rozwiązania problemów społecznych, ale musi być stosowane racjonalnie i minimalizując ryzyko dla użytkowników. Dotychczas dyskusje koncentrowały się jednak głównie na aspektach technicznych. Japońscy eksperci apelują, aby w przyszłości dyskusje były prowadzone z szerszej perspektywy, obejmującej takie dziedziny jak biznes i prawo. Nikkei Asia sugeruje, że wyzwaniem stojącym przed Japonią jest podniesienie poziomu rozwoju sztucznej inteligencji (AI) w kraju, przy jednoczesnym uregulowaniu ogólnego wykorzystania AI, gdzie bezpieczeństwo, prywatność i prawa autorskie odgrywają kluczową rolę.

Sztuczna inteligencja zaczyna zakłócać codzienne życie, ponieważ coraz więcej fałszywych obrazów i filmów, a także tekstów generowanych przez roboty, budzi obawy dotyczące bezpieczeństwa narodowego i dezinformacji. Ministrowie ds. cyfryzacji i technologii z krajów uprzemysłowionych Grupy Siedmiu (G7) zgodzili się opracować do końca tego roku wytyczne dotyczące ogólnego rozwoju i wykorzystania sztucznej inteligencji. W związku z tym, że Japonia będzie sprawować prezydencję w G7 w 2023 roku, premier Kishida zadeklarował, że Japonia będzie przewodzić w opracowywaniu międzynarodowych przepisów, aby w pełni wykorzystać perspektywy i przeciwdziałać zagrożeniom związanym ze sztuczną inteligencją.

Podobnie jak Japonia, Biały Dom ogłosił w zeszłym tygodniu, że zainwestuje 140 milionów dolarów w utworzenie siedmiu centrów badawczych nad sztuczną inteligencją i opublikuje wytyczne dotyczące wykorzystania tej zaawansowanej technologii, mając na celu stworzenie zasad minimalizujących ryzyko, a jednocześnie nie utrudniających rozwoju innowacyjnych zastosowań sztucznej inteligencji. Przemawiając przed Radą Doradców ds. Nauki i Technologii, prezydent USA Joe Biden podkreślił, że sztuczna inteligencja może pomóc w rozwiązaniu bardzo trudnych problemów, takich jak choroby i zmiany klimatu, ale musimy również zająć się potencjalnymi zagrożeniami dla społeczeństwa, gospodarki i bezpieczeństwa narodowego. Firmy technologiczne mają obowiązek zapewnić bezpieczeństwo swoich produktów przed wprowadzeniem ich na rynek.



Źródło

Komentarz (0)

Zostaw komentarz, aby podzielić się swoimi odczuciami!

W tym samym temacie

W tej samej kategorii

Od tego samego autora

Dziedzictwo

Postać

Firmy

Sprawy bieżące

System polityczny

Lokalny

Produkt

Happy Vietnam
Proste szczęście

Proste szczęście

Thung Nai

Thung Nai

O, ojczyzno moja!

O, ojczyzno moja!