12 września OpenAI wprowadziło serię nowych modeli sztucznej inteligencji (AI), które potrafią poświęcić więcej czasu na myślenie, aby móc dostarczać użytkownikom dokładniejsze i korzystniejsze odpowiedzi.
Nowe modele, znane jako OpenAI o1-Preview, mają służyć rozwiązywaniu bardziej złożonych zadań i trudniejszych problemów z zakresu nauki , kodowania i matematyki — dziedzin, w których poprzednie modele często spotykały się z krytyką za to, że nie dostarczały spójnych odpowiedzi.
Aplikacja OpenAI o1-Preview została wyszkolona w taki sposób, aby mogła udoskonalać proces myślowy, eksperymentować z różnymi metodami i wykrywać błędy przed udzieleniem ostatecznej odpowiedzi.
Sam Altman, dyrektor generalny OpenAI, ocenił, że nowe modele posiadają „złożone zdolności rozumowania”, choć mogą mieć jeszcze wiele braków i ograniczeń.
W związku z tym OpenAI wciąż pracuje nad udoskonaleniem możliwości swoich modeli sztucznej inteligencji, aby przezwyciężyć problem „halucynacji” – zjawiska, w którym chatboty tworzą przekonujące, ale niedokładne treści.
Jerry Tworek, badacz OpenAI, powiedział, że nowy model będzie powodował mniej problemów ze „złudzeniami”, ale nie rozwiązuje on problemu całkowicie.
Według doniesień modele OpenAI o1-Preview z powodzeniem rozwiązały trudne problemy z zakresu fizyki, chemii i biologii, zapewniając poziom wiedzy odpowiadający poziomowi doktoratu.
W szczególności w dziedzinie matematyki i kodowania, OpenAI o1-Preview osiągnął wskaźnik dokładności sięgający 83% przy rozwiązywaniu zadań Międzynarodowej Olimpiady Matematycznej. Jest to wynik znacznie wyższy niż 13% wskaźnik dokładności poprzedniego modelu GPT-4o.
Według OpenAI, ta nowa funkcja wnioskowania może pomóc badaczom z branży opieki zdrowotnej w adnotacji danych sekwencjonowania komórek. Jednocześnie narzędzie to może wspierać fizyków w opracowywaniu złożonych formuł.
OpenAI stwierdziło również, że nowe modele sztucznej inteligencji przeszły rygorystyczne testy jailbreaku i są w stanie oprzeć się próbom ominięcia barier bezpieczeństwa.
Dodatkowo wzmocniono środki bezpieczeństwa, m.in. niedawno zawarto umowy z instytutami bezpieczeństwa sztucznej inteligencji w USA i Wielkiej Brytanii, którym przyznano wcześniejszy dostęp do tych modeli w celu testowania i oceny.
Source: https://laodong.vn/cong-nghe/openai-ra-mat-sieu-ai-moi-voi-kha-nang-lap-luan-1393825.ldo






Komentarz (0)