:Telefon pokazujący interfejs uczenia GPT-o1 firmy OpenAI – Zdjęcie: FINANCIAL TIMES
Według doniesień Financial Times z 13 września firma OpenAI przyznała, że model GPT-o1, który zadebiutował 12 września, „znacznie” zwiększa ryzyko wykorzystania sztucznej inteligencji (AI) do tworzenia broni biologicznej.
W dokumencie wyjaśniającym działanie GPT-o1, opublikowanym przez OpenAI, stwierdzono, że nowy model charakteryzuje się „średnim poziomem ryzyka” w kwestiach związanych z bronią chemiczną, biologiczną, radiologiczną i jądrową. Jest to najwyższy poziom ryzyka, jaki OpenAI kiedykolwiek przypisał swoim modelom sztucznej inteligencji.
Według OpenAI oznacza to, że GPT-o1 może „znacznie poprawić” możliwości ekspertów, którzy chcą wykorzystać je do tworzenia broni biologicznej.
Mira Murati, dyrektor ds. technologii (CTO) w OpenAI, powiedziała, że chociaż GPT-o1 wciąż znajduje się w fazie testów, zaawansowane możliwości tego modelu zmuszają firmę do zachowania wyjątkowej „ostrożności” w kwestii udostępniania go opinii publicznej.
Pani Murati potwierdziła również, że model został gruntownie przetestowany przez interdyscyplinarny zespół ekspertów zatrudnionych przez OpenAI w celu sprawdzenia ograniczeń modelu opracowanego przez firmę.
Pani Murati poinformowała, że testy wykazały, iż model GPT-o1 spełnia ogólne kryteria bezpieczeństwa znacznie lepiej niż jego poprzednicy.
Przedstawiciele OpenAI zapewnili również, że wersja testowa GPT-o1 jest „bezpieczna do wdrożenia” i nie może stwarzać większych zagrożeń niż rozwijane obecnie technologie.
Mimo powyższych zapewnień, znaczna część środowiska naukowego i osób zainteresowanych sztuczną inteligencją wciąż nie jest zbyt optymistycznie nastawiona do kierunku rozwoju tej technologii.
Rosną obawy, że sztuczna inteligencja rozwija się zbyt szybko i nie nadąża za jej rozwojem i zatwierdzaniem przepisów regulujących tę dziedzinę.
Profesor Yoshua Bengio, student informatyki na Uniwersytecie w Montrealu i jeden z czołowych naukowców zajmujących się sztuczną inteligencją na świecie , stwierdził, że jeśli OpenAI obecnie stwarza „średnie ryzyko” w postaci broni chemicznej i biologicznej, „to tylko wzmacnia znaczenie i pilną potrzebę” uchwalenia przepisów, takich jak te, które są obecnie gorąco dyskutowane w Kalifornii w celu uregulowania tej dziedziny.
Naukowiec ten podkreślił, że wymienione instytucje są szczególnie potrzebne w kontekście zbliżającej się sztucznej inteligencji (AGI) do poziomu ogólnej sztucznej inteligencji (ang. Artificial General Intelligence), co oznacza, że będzie ona w stanie rozumować na równi z człowiekiem.
„Im bardziej pionierskie modele sztucznej inteligencji (AI) zbliżają się do AGI, tym większe ryzyko będzie rosło, jeśli nie zostaną podjęte odpowiednie środki ostrożności. Ulepszona zdolność sztucznej inteligencji do rozumowania i jej wykorzystanie do oszustw są niezwykle niebezpieczne” – ocenił pan Bengio.
Source: https://tuoitre.vn/ai-moi-co-the-bi-dung-che-tao-vu-khi-sinh-hoc-20240914154630363.htm






Komentarz (0)