Vietnam.vn - Nền tảng quảng bá Việt Nam

Độc lập - Tự do - Hạnh phúc

Znajdowanie standardów bezpieczeństwa dla sztucznej inteligencji

Báo Sài Gòn Giải phóngBáo Sài Gòn Giải phóng31/07/2023

[reklama_1]

SGGP

Po tym, jak Europa rozpoczęła prace nad projektem i wkrótce wdrożyła pierwsze na świecie prawo dotyczące sztucznej inteligencji (AI), czterech największych amerykańskich gigantów w dziedzinie eksploracji danych internetowych właśnie powołało grupę o nazwie Frontier Model Forum.

Głównym celem Frontier Model Forum jest promowanie odpowiedzialnej sztucznej inteligencji. Zdjęcie: THINKWITHNICHE
Głównym celem Frontier Model Forum jest promowanie odpowiedzialnej sztucznej inteligencji. Zdjęcie: THINKWITHNICHE

Strony się spotykają

Grupa, w skład której wchodzą Anthropic, Google, Microsoft i OpenAI, właściciel ChatGPT, stwierdziła, że ​​głównymi celami Frontier Model Forum są pomoc w ograniczaniu ryzyka stwarzanego przez platformy AI oraz opracowywanie standardów branżowych. Frontier Model Forum utworzy nowe forum, którego głównymi celami są: promowanie badań nad bezpieczeństwem AI w celu wspierania rozwoju, ograniczania ryzyka oraz standaryzacji ocen i poziomów bezpieczeństwa; identyfikacja najlepszych praktyk w zakresie rozwoju i wdrażania modeli oraz pomoc społeczeństwu w zrozumieniu charakteru, możliwości, ograniczeń i wpływu tej technologii; a także współpraca z decydentami, naukowcami, społeczeństwem obywatelskim i firmami w celu wymiany wiedzy na temat ryzyka i bezpieczeństwa.

Giganci technologiczni tradycyjnie sprzeciwiali się zaostrzeniu regulacji, ale tym razem branża technologiczna zasadniczo zmieniła swoje stanowisko w sprawie zagrożeń związanych ze sztuczną inteligencją. Firmy zaangażowane w inicjatywę Frontier Model Forum zobowiązały się do wymiany najlepszych praktyk między sobą oraz do publicznego udostępniania informacji rządom i społeczeństwu obywatelskiemu.

W szczególności, Frontier Model Forum skupi się na wielkoskalowych, ale dopiero rozwijających się platformach uczenia maszynowego, które przenoszą sztuczną inteligencję na nowy poziom zaawansowania – co również stanowi potencjalny czynnik ryzyka. Ponadto, Frontier Model Forum będzie wspierać rozwój aplikacji, które odpowiadają na główne wyzwania społeczne, takie jak: łagodzenie zmian klimatu i adaptacja do nich, wczesne wykrywanie i profilaktyka nowotworów oraz ochrona przed cyberzagrożeniami.

Miejsce na potencjalne zniszczenia

Ogłoszenie Frontier Model Forum przez amerykańskie firmy nastąpiło kilka dni po tym, jak senatorowie USA 25 lipca ostrzegli przed ryzykiem wykorzystania sztucznej inteligencji do ataków biologicznych podczas przesłuchania przed podkomisją Komisji Sądownictwa Senatu USA. Niedawno siedem dużych firm technologicznych, w tym OpenAI, Alphabet i Meta, dobrowolnie zobowiązało się wobec Białego Domu do opracowania systemu oznaczania wszystkich treści – od tekstu, obrazów, przez audio, po wideo – tworzonych przez sztuczną inteligencję, aby zapewnić użytkownikom transparentność informacji i zwiększyć bezpieczeństwo tej technologii.

Chociaż sztuczna inteligencja nie jest jeszcze zdolna do tworzenia broni biologicznej, stanowi ona „średniookresowe” ryzyko, które może stanowić poważne zagrożenie dla bezpieczeństwa narodowego USA w ciągu najbliższych dwóch do trzech lat, zauważył Dario Amodei, dyrektor generalny AI Anthropic. Dzieje się tak, ponieważ podmioty przeprowadzające ataki biologiczne na dużą skalę nie są już ograniczone do osób posiadających specjalistyczną wiedzę w tym zakresie.

Świat stoi w obliczu eksplozji treści tworzonych przez generatywną technologię sztucznej inteligencji. Od Stanów Zjednoczonych, przez Europę, po Azję, regulacje prawne są stopniowo zaostrzane. Według CNN, począwszy od września, Senat USA zorganizuje serię dziewięciu dodatkowych warsztatów, podczas których członkowie dowiedzą się, jak sztuczna inteligencja może wpływać na miejsca pracy, bezpieczeństwo narodowe i własność intelektualną. Jeśli Stany Zjednoczone osiągną porozumienie, Unia Europejska uchwali w przyszłym roku pierwszą na świecie ustawę dotyczącą zarządzania sztuczną inteligencją, która ma wejść w życie w 2026 roku.

Korzyści, jakie sztuczna inteligencja przynosi społeczeństwu, są niezaprzeczalne, ale pojawiają się coraz liczniejsze ostrzeżenia dotyczące potencjalnych zagrożeń związanych z tą nową technologią. W czerwcu Sekretarz Generalny ONZ António Guterres poparł propozycję kilku dyrektorów ds. sztucznej inteligencji, aby powołać międzynarodową instytucję nadzorującą sztuczną inteligencję, podobną do Międzynarodowej Agencji Energii Atomowej (MAEA).

Podczas Frontier Model Forum, prezes Microsoftu Brad Smith powiedział, że inicjatywa ta jest ważnym krokiem w kierunku zjednoczenia firm technologicznych w celu promowania odpowiedzialnego wykorzystania sztucznej inteligencji dla dobra całej ludzkości. Podobnie, wiceprezes ds. globalnych w OpenAI, Anna Makanju, stwierdziła, że ​​zaawansowana technologia sztucznej inteligencji ma potencjał, aby przynieść społeczeństwu ogromne korzyści, a to wymaga nadzoru i zarządzania.



Źródło

Komentarz (0)

No data
No data

W tym samym temacie

W tej samej kategorii

Stare Miasto w Hanoi przywdziewa nową „suknię”, wspaniale witając Święto Środka Jesieni
Turyści ciągną sieci, depczą po błocie, aby złowić owoce morza i grillują je w słonawej lagunie w środkowym Wietnamie
Y Ty zachwyca złotym kolorem dojrzałego ryżu
Ulica Hang Ma „zmienia szaty”, by powitać Święto Środka Jesieni

Od tego samego autora

Dziedzictwo

Postać

Biznes

No videos available

Aktualności

System polityczny

Lokalny

Produkt