SGGP
Po tym, jak Europa rozpoczęła prace nad pierwszym na świecie prawem dotyczącym sztucznej inteligencji (AI), czterech największych amerykańskich gigantów zajmujących się eksploracją danych internetowych powołało grupę o nazwie Frontier Model Forum.
| Głównym celem Frontier Model Forum jest odpowiedzialne promowanie sztucznej inteligencji. Zdjęcie: THINKWITHNICHE | 
Strony zbliżają się do siebie
Grupa, w skład której wchodzą Anthropic, Google, Microsoft i OpenAI, właściciel ChatGPT, stwierdziła, że głównymi celami Frontier Model Forum są pomoc w ograniczaniu ryzyka stwarzanego przez platformy AI oraz opracowywanie standardów branżowych. Frontier Model Forum utworzy nowe forum, którego głównymi celami będą: promowanie badań nad bezpieczeństwem AI w celu wspierania rozwoju, ograniczania ryzyka oraz standaryzacji ocen i poziomów bezpieczeństwa; identyfikacja najlepszych praktyk w zakresie rozwoju i wdrażania modeli; pomoc społeczeństwu w zrozumieniu charakteru, możliwości, ograniczeń i wpływu tej technologii; oraz współpraca z decydentami, naukowcami, społeczeństwem obywatelskim i firmami w celu wymiany wiedzy na temat ryzyka i bezpieczeństwa.
Giganci technologiczni tradycyjnie sprzeciwiali się zaostrzaniu regulacji, ale tym razem branża technologiczna zasadniczo zmieniła swoje stanowisko w obliczu rosnących obaw dotyczących ryzyka, jakie niesie ze sobą sztuczna inteligencja. Firmy zaangażowane w inicjatywę Frontier Model Forum zobowiązały się do dzielenia się najlepszymi praktykami między firmami oraz do publicznego udostępniania informacji rządom i społeczeństwu obywatelskiemu.
W szczególności, Frontier Model Forum skupi się na wielkoskalowych, ale wciąż rozwijających się platformach uczenia maszynowego, które przenoszą sztuczną inteligencję na nowy poziom zaawansowania – co również stanowi potencjalny czynnik ryzyka. Ponadto, Frontier Model Forum będzie wspierać rozwój aplikacji, które odpowiadają na główne wyzwania społeczne, takie jak: łagodzenie zmian klimatu i adaptacja do nich, wczesne wykrywanie i profilaktyka nowotworów oraz przeciwdziałanie cyberzagrożeniom.
Miejsce na potencjalne zniszczenia
Ogłoszenie Frontier Model Forum przez amerykańskie firmy nastąpiło kilka dni po tym, jak senatorowie USA 25 lipca ostrzegli przed ryzykiem wykorzystania sztucznej inteligencji do ataków biologicznych podczas przesłuchania przed podkomisją Komisji Sądownictwa Senatu USA. Niedawno siedem dużych firm technologicznych, w tym OpenAI, Alphabet i Meta, dobrowolnie zobowiązało się wobec Białego Domu do opracowania systemu identyfikacji wszystkich treści – od tekstu, obrazów, przez dźwięk, po wideo – tworzonych przez sztuczną inteligencję, aby zapewnić użytkownikom transparentność i bezpieczeństwo tej technologii.
Dario Amodei, prezes AI Anthropic, zauważył, że chociaż sztuczna inteligencja nie jest jeszcze zdolna do tworzenia broni biologicznej, to stanowi ona ryzyko „średnioterminowe” i stanowi poważne zagrożenie dla bezpieczeństwa narodowego USA w ciągu najbliższych dwóch lub trzech lat. Powodem jest to, że podmioty przeprowadzające ataki z użyciem broni biologicznej na dużą skalę nie są już ograniczone do osób posiadających specjalistyczną wiedzę w tej dziedzinie.
Świat stoi w obliczu eksplozji treści tworzonych przez generatywną technologię sztucznej inteligencji. Od Stanów Zjednoczonych, przez Europę, po Azję, kontrole są stopniowo zaostrzane. Według CNN, począwszy od września, Senat USA zorganizuje serię dziewięciu dodatkowych warsztatów, podczas których członkowie dowiedzą się, jak sztuczna inteligencja może wpływać na miejsca pracy, bezpieczeństwo narodowe i własność intelektualną. Jeśli Stany Zjednoczone osiągną porozumienie, Unia Europejska uchwali w przyszłym roku pierwszą na świecie ustawę dotyczącą zarządzania sztuczną inteligencją, która ma wejść w życie od 2026 roku.
Korzyści, jakie sztuczna inteligencja przynosi społeczeństwu, są niezaprzeczalne, ale pojawiają się coraz liczniejsze ostrzeżenia dotyczące potencjalnych zagrożeń związanych z tą nową technologią. W czerwcu Sekretarz Generalny ONZ António Guterres poparł propozycję kilku dyrektorów ds. sztucznej inteligencji, aby powołać międzynarodową instytucję nadzorującą sztuczną inteligencję, podobną do Międzynarodowej Agencji Energii Atomowej (MAEA).
Podczas Frontier Model Forum, prezes Microsoftu Brad Smith powiedział, że inicjatywa ta jest ważnym krokiem w kierunku zjednoczenia firm technologicznych w celu promowania odpowiedzialnego wykorzystania sztucznej inteligencji dla dobra całej ludzkości. Podobnie, wiceprezes ds. globalnych w OpenAI, Anna Makanju, stwierdziła, że zaawansowana technologia sztucznej inteligencji ma potencjał, aby przynieść społeczeństwu ogromne korzyści, a to wymaga nadzoru i zarządzania.
Źródło



![[Zdjęcie] Premier Pham Minh Chinh bierze udział w piątej ceremonii wręczenia Narodowych Nagród Prasowych na temat zapobiegania korupcji, marnotrawstwa i negatywności oraz walki z nimi](https://vphoto.vietnam.vn/thumb/1200x675/vietnam/resource/IMAGE/2025/10/31/1761881588160_dsc-8359-jpg.webp)
![[Zdjęcie] Da Nang: Woda stopniowo opada, lokalne władze korzystają z oczyszczania](https://vphoto.vietnam.vn/thumb/1200x675/vietnam/resource/IMAGE/2025/10/31/1761897188943_ndo_tr_2-jpg.webp)






































































Komentarz (0)