SGGP
Po tym, jak Europa rozpoczęła prace nad projektem i wkrótce wdrożyła pierwsze na świecie prawo dotyczące sztucznej inteligencji (AI), czterech największych amerykańskich gigantów w dziedzinie eksploracji danych internetowych właśnie powołało grupę o nazwie Frontier Model Forum.
Głównym celem Frontier Model Forum jest promowanie odpowiedzialnej sztucznej inteligencji. Zdjęcie: THINKWITHNICHE |
Strony się spotykają
Grupa, w skład której wchodzą Anthropic, Google, Microsoft i OpenAI, właściciel ChatGPT, stwierdziła, że głównymi celami Frontier Model Forum są pomoc w ograniczaniu ryzyka stwarzanego przez platformy AI oraz opracowywanie standardów branżowych. Frontier Model Forum utworzy nowe forum, którego głównymi celami są: promowanie badań nad bezpieczeństwem AI w celu wspierania rozwoju, ograniczania ryzyka oraz standaryzacji ocen i poziomów bezpieczeństwa; identyfikacja najlepszych praktyk w zakresie rozwoju i wdrażania modeli oraz pomoc społeczeństwu w zrozumieniu charakteru, możliwości, ograniczeń i wpływu tej technologii; a także współpraca z decydentami, naukowcami, społeczeństwem obywatelskim i firmami w celu wymiany wiedzy na temat ryzyka i bezpieczeństwa.
Giganci technologiczni tradycyjnie sprzeciwiali się zaostrzeniu regulacji, ale tym razem branża technologiczna zasadniczo zmieniła swoje stanowisko w sprawie zagrożeń związanych ze sztuczną inteligencją. Firmy zaangażowane w inicjatywę Frontier Model Forum zobowiązały się do wymiany najlepszych praktyk między sobą oraz do publicznego udostępniania informacji rządom i społeczeństwu obywatelskiemu.
W szczególności, Frontier Model Forum skupi się na wielkoskalowych, ale dopiero rozwijających się platformach uczenia maszynowego, które przenoszą sztuczną inteligencję na nowy poziom zaawansowania – co również stanowi potencjalny czynnik ryzyka. Ponadto, Frontier Model Forum będzie wspierać rozwój aplikacji, które odpowiadają na główne wyzwania społeczne, takie jak: łagodzenie zmian klimatu i adaptacja do nich, wczesne wykrywanie i profilaktyka nowotworów oraz ochrona przed cyberzagrożeniami.
Miejsce na potencjalne zniszczenia
Ogłoszenie Frontier Model Forum przez amerykańskie firmy nastąpiło kilka dni po tym, jak senatorowie USA 25 lipca ostrzegli przed ryzykiem wykorzystania sztucznej inteligencji do ataków biologicznych podczas przesłuchania przed podkomisją Komisji Sądownictwa Senatu USA. Niedawno siedem dużych firm technologicznych, w tym OpenAI, Alphabet i Meta, dobrowolnie zobowiązało się wobec Białego Domu do opracowania systemu oznaczania wszystkich treści – od tekstu, obrazów, przez audio, po wideo – tworzonych przez sztuczną inteligencję, aby zapewnić użytkownikom transparentność informacji i zwiększyć bezpieczeństwo tej technologii.
Chociaż sztuczna inteligencja nie jest jeszcze zdolna do tworzenia broni biologicznej, stanowi ona „średniookresowe” ryzyko, które może stanowić poważne zagrożenie dla bezpieczeństwa narodowego USA w ciągu najbliższych dwóch do trzech lat, zauważył Dario Amodei, dyrektor generalny AI Anthropic. Dzieje się tak, ponieważ podmioty przeprowadzające ataki biologiczne na dużą skalę nie są już ograniczone do osób posiadających specjalistyczną wiedzę w tym zakresie.
Świat stoi w obliczu eksplozji treści tworzonych przez generatywną technologię sztucznej inteligencji. Od Stanów Zjednoczonych, przez Europę, po Azję, regulacje prawne są stopniowo zaostrzane. Według CNN, począwszy od września, Senat USA zorganizuje serię dziewięciu dodatkowych warsztatów, podczas których członkowie dowiedzą się, jak sztuczna inteligencja może wpływać na miejsca pracy, bezpieczeństwo narodowe i własność intelektualną. Jeśli Stany Zjednoczone osiągną porozumienie, Unia Europejska uchwali w przyszłym roku pierwszą na świecie ustawę dotyczącą zarządzania sztuczną inteligencją, która ma wejść w życie w 2026 roku.
Korzyści, jakie sztuczna inteligencja przynosi społeczeństwu, są niezaprzeczalne, ale pojawiają się coraz liczniejsze ostrzeżenia dotyczące potencjalnych zagrożeń związanych z tą nową technologią. W czerwcu Sekretarz Generalny ONZ António Guterres poparł propozycję kilku dyrektorów ds. sztucznej inteligencji, aby powołać międzynarodową instytucję nadzorującą sztuczną inteligencję, podobną do Międzynarodowej Agencji Energii Atomowej (MAEA).
Podczas Frontier Model Forum, prezes Microsoftu Brad Smith powiedział, że inicjatywa ta jest ważnym krokiem w kierunku zjednoczenia firm technologicznych w celu promowania odpowiedzialnego wykorzystania sztucznej inteligencji dla dobra całej ludzkości. Podobnie, wiceprezes ds. globalnych w OpenAI, Anna Makanju, stwierdziła, że zaawansowana technologia sztucznej inteligencji ma potencjał, aby przynieść społeczeństwu ogromne korzyści, a to wymaga nadzoru i zarządzania.
Źródło
Komentarz (0)