Vietnam.vn - Nền tảng quảng bá Việt Nam

Znajdowanie standardów bezpieczeństwa dla sztucznej inteligencji

Báo Sài Gòn Giải phóngBáo Sài Gòn Giải phóng31/07/2023

[reklama_1]

SGGP

Po tym, jak Europa rozpoczęła prace nad pierwszym na świecie prawem dotyczącym sztucznej inteligencji (AI), czterech największych amerykańskich gigantów zajmujących się eksploracją danych internetowych powołało grupę o nazwie Frontier Model Forum.

Głównym celem Frontier Model Forum jest odpowiedzialne promowanie sztucznej inteligencji. Zdjęcie: THINKWITHNICHE
Głównym celem Frontier Model Forum jest odpowiedzialne promowanie sztucznej inteligencji. Zdjęcie: THINKWITHNICHE

Strony zbliżają się do siebie

Grupa, w skład której wchodzą Anthropic, Google, Microsoft i OpenAI, właściciel ChatGPT, stwierdziła, że ​​głównymi celami Frontier Model Forum są pomoc w ograniczaniu ryzyka stwarzanego przez platformy AI oraz opracowywanie standardów branżowych. Frontier Model Forum utworzy nowe forum, którego głównymi celami będą: promowanie badań nad bezpieczeństwem AI w celu wspierania rozwoju, ograniczania ryzyka oraz standaryzacji ocen i poziomów bezpieczeństwa; identyfikacja najlepszych praktyk w zakresie rozwoju i wdrażania modeli; pomoc społeczeństwu w zrozumieniu charakteru, możliwości, ograniczeń i wpływu tej technologii; oraz współpraca z decydentami, naukowcami, społeczeństwem obywatelskim i firmami w celu wymiany wiedzy na temat ryzyka i bezpieczeństwa.

Giganci technologiczni tradycyjnie sprzeciwiali się zaostrzaniu regulacji, ale tym razem branża technologiczna zasadniczo zmieniła swoje stanowisko w obliczu rosnących obaw dotyczących ryzyka, jakie niesie ze sobą sztuczna inteligencja. Firmy zaangażowane w inicjatywę Frontier Model Forum zobowiązały się do dzielenia się najlepszymi praktykami między firmami oraz do publicznego udostępniania informacji rządom i społeczeństwu obywatelskiemu.

W szczególności, Frontier Model Forum skupi się na wielkoskalowych, ale wciąż rozwijających się platformach uczenia maszynowego, które przenoszą sztuczną inteligencję na nowy poziom zaawansowania – co również stanowi potencjalny czynnik ryzyka. Ponadto, Frontier Model Forum będzie wspierać rozwój aplikacji, które odpowiadają na główne wyzwania społeczne, takie jak: łagodzenie zmian klimatu i adaptacja do nich, wczesne wykrywanie i profilaktyka nowotworów oraz przeciwdziałanie cyberzagrożeniom.

Miejsce na potencjalne zniszczenia

Ogłoszenie Frontier Model Forum przez amerykańskie firmy nastąpiło kilka dni po tym, jak senatorowie USA 25 lipca ostrzegli przed ryzykiem wykorzystania sztucznej inteligencji do ataków biologicznych podczas przesłuchania przed podkomisją Komisji Sądownictwa Senatu USA. Niedawno siedem dużych firm technologicznych, w tym OpenAI, Alphabet i Meta, dobrowolnie zobowiązało się wobec Białego Domu do opracowania systemu identyfikacji wszystkich treści – od tekstu, obrazów, przez dźwięk, po wideo – tworzonych przez sztuczną inteligencję, aby zapewnić użytkownikom transparentność i bezpieczeństwo tej technologii.

Dario Amodei, prezes AI Anthropic, zauważył, że chociaż sztuczna inteligencja nie jest jeszcze zdolna do tworzenia broni biologicznej, to stanowi ona ryzyko „średnioterminowe” i stanowi poważne zagrożenie dla bezpieczeństwa narodowego USA w ciągu najbliższych dwóch lub trzech lat. Powodem jest to, że podmioty przeprowadzające ataki z użyciem broni biologicznej na dużą skalę nie są już ograniczone do osób posiadających specjalistyczną wiedzę w tej dziedzinie.

Świat stoi w obliczu eksplozji treści tworzonych przez generatywną technologię sztucznej inteligencji. Od Stanów Zjednoczonych, przez Europę, po Azję, kontrole są stopniowo zaostrzane. Według CNN, począwszy od września, Senat USA zorganizuje serię dziewięciu dodatkowych warsztatów, podczas których członkowie dowiedzą się, jak sztuczna inteligencja może wpływać na miejsca pracy, bezpieczeństwo narodowe i własność intelektualną. Jeśli Stany Zjednoczone osiągną porozumienie, Unia Europejska uchwali w przyszłym roku pierwszą na świecie ustawę dotyczącą zarządzania sztuczną inteligencją, która ma wejść w życie od 2026 roku.

Korzyści, jakie sztuczna inteligencja przynosi społeczeństwu, są niezaprzeczalne, ale pojawiają się coraz liczniejsze ostrzeżenia dotyczące potencjalnych zagrożeń związanych z tą nową technologią. W czerwcu Sekretarz Generalny ONZ António Guterres poparł propozycję kilku dyrektorów ds. sztucznej inteligencji, aby powołać międzynarodową instytucję nadzorującą sztuczną inteligencję, podobną do Międzynarodowej Agencji Energii Atomowej (MAEA).

Podczas Frontier Model Forum, prezes Microsoftu Brad Smith powiedział, że inicjatywa ta jest ważnym krokiem w kierunku zjednoczenia firm technologicznych w celu promowania odpowiedzialnego wykorzystania sztucznej inteligencji dla dobra całej ludzkości. Podobnie, wiceprezes ds. globalnych w OpenAI, Anna Makanju, stwierdziła, że ​​zaawansowana technologia sztucznej inteligencji ma potencjał, aby przynieść społeczeństwu ogromne korzyści, a to wymaga nadzoru i zarządzania.



Źródło

Komentarz (0)

No data
No data

W tym samym temacie

W tej samej kategorii

Ho Chi Minh City przyciąga inwestycje od przedsiębiorstw z bezpośrednimi inwestycjami zagranicznymi (FDI) w nowe możliwości
Historyczne powodzie w Hoi An widziane z samolotu wojskowego Ministerstwa Obrony Narodowej
„Wielka powódź” na rzece Thu Bon przewyższyła historyczną powódź z 1964 r. o 0,14 m.
Płaskowyż Dong Van Stone – rzadkie na świecie „żywe muzeum geologiczne”

Od tego samego autora

Dziedzictwo

Postać

Biznes

Podziwiaj „Zatokę Ha Long z lądu” – właśnie trafiła na listę najpopularniejszych miejsc na świecie

Aktualne wydarzenia

System polityczny

Lokalny

Produkt