Vietnam.vn - Nền tảng quảng bá Việt Nam

Nowa sztuczna inteligencja może posłużyć do tworzenia broni biologicznej

Báo Tuổi TrẻBáo Tuổi Trẻ14/09/2024

[reklama_1]
OpenAI thừa nhận AI mới có thể bị dùng để chế vũ khí sinh học - Ảnh 1.

:Telefon pokazujący interfejs uczenia GPT-o1 firmy OpenAI – Zdjęcie: FINANCIAL TIMES

Według doniesień Financial Times z 13 września firma OpenAI przyznała, że ​​model GPT-o1, który zadebiutował 12 września, „znacznie” zwiększa ryzyko wykorzystania sztucznej inteligencji (AI) do tworzenia broni biologicznej.

W dokumencie wyjaśniającym działanie GPT-o1, opublikowanym przez OpenAI, stwierdzono, że nowy model charakteryzuje się „średnim poziomem ryzyka” w kwestiach związanych z bronią chemiczną, biologiczną, radiologiczną i jądrową. Jest to najwyższy poziom ryzyka, jaki OpenAI kiedykolwiek przypisał swoim modelom sztucznej inteligencji.

Według OpenAI oznacza to, że GPT-o1 może „znacznie poprawić” możliwości ekspertów, którzy chcą wykorzystać je do tworzenia broni biologicznej.

Mira Murati, dyrektor ds. technologii (CTO) w OpenAI, powiedziała, że ​​chociaż GPT-o1 wciąż znajduje się w fazie testów, zaawansowane możliwości tego modelu zmuszają firmę do zachowania wyjątkowej „ostrożności” w kwestii udostępniania go opinii publicznej.

Pani Murati potwierdziła również, że model został gruntownie przetestowany przez interdyscyplinarny zespół ekspertów zatrudnionych przez OpenAI w celu sprawdzenia ograniczeń modelu opracowanego przez firmę.

Pani Murati poinformowała, że ​​testy wykazały, iż model GPT-o1 spełnia ogólne kryteria bezpieczeństwa znacznie lepiej niż jego poprzednicy.

Przedstawiciele OpenAI zapewnili również, że wersja testowa GPT-o1 jest „bezpieczna do wdrożenia” i nie może stwarzać większych zagrożeń niż rozwijane obecnie technologie.

Mimo powyższych zapewnień, znaczna część środowiska naukowego i osób zainteresowanych sztuczną inteligencją wciąż nie jest zbyt optymistycznie nastawiona do kierunku rozwoju tej technologii.

Rosną obawy, że sztuczna inteligencja rozwija się zbyt szybko i nie nadąża za jej rozwojem i zatwierdzaniem przepisów regulujących tę dziedzinę.

Profesor Yoshua Bengio, student informatyki na Uniwersytecie w Montrealu i jeden z czołowych naukowców zajmujących się sztuczną inteligencją na świecie , stwierdził, że jeśli OpenAI obecnie stwarza „średnie ryzyko” w postaci broni chemicznej i biologicznej, „to tylko wzmacnia znaczenie i pilną potrzebę” uchwalenia przepisów, takich jak te, które są obecnie gorąco dyskutowane w Kalifornii w celu uregulowania tej dziedziny.

Naukowiec ten podkreślił, że wymienione instytucje są szczególnie potrzebne w kontekście zbliżającej się sztucznej inteligencji (AGI) do poziomu ogólnej sztucznej inteligencji (ang. Artificial General Intelligence), co oznacza, że ​​będzie ona w stanie rozumować na równi z człowiekiem.

„Im bardziej pionierskie modele sztucznej inteligencji (AI) zbliżają się do AGI, tym większe ryzyko będzie rosło, jeśli nie zostaną podjęte odpowiednie środki ostrożności. Ulepszona zdolność sztucznej inteligencji do rozumowania i jej wykorzystanie do oszustw są niezwykle niebezpieczne” – ocenił pan Bengio.



Source: https://tuoitre.vn/ai-moi-co-the-bi-dung-che-tao-vu-khi-sinh-hoc-20240914154630363.htm

Komentarz (0)

No data
No data

W tym samym temacie

W tej samej kategorii

G-Dragon zachwycił publiczność podczas swojego występu w Wietnamie
Fanka w sukni ślubnej na koncercie G-Dragona w Hung Yen
Zafascynowany pięknem wioski Lo Lo Chai w sezonie kwitnienia gryki
Młody ryż Me Tri płonie w rytm dudniącego tłuczka, gotowego do zbioru nowego plonu.

Od tego samego autora

Dziedzictwo

Postać

Biznes

Młody ryż Me Tri płonie w rytm dudniącego tłuczka, gotowego do zbioru nowego plonu.

Aktualne wydarzenia

System polityczny

Lokalny

Produkt