Chatbot OpenAI stale się rozwija dzięki nowym technologiom. Zdjęcie: New York Times . |
We wrześniu 2024 r. OpenAI wydało wersję ChatGPT integrującą model o1, który może wnioskować na podstawie zadań związanych z matematyką, naukami ścisłymi i programowaniem komputerowym.
W przeciwieństwie do poprzedniej wersji ChatGPT, nowa technologia będzie potrzebowała czasu na „przemyślenie” rozwiązań złożonych problemów przed udzieleniem odpowiedzi.
Po OpenAI wielu konkurentów, takich jak Google, Anthropic i DeepSeek, również wprowadziło podobne modele wnioskowania. Choć nie jest to technologia doskonała, wciąż jest to technologia udoskonalania chatbotów, której ufa wielu programistów.
Jak rozumuje sztuczna inteligencja
Zasadniczo rozumowanie oznacza, że chatbot może poświęcić więcej czasu na rozwiązywanie problemu przedstawionego przez użytkownika.
„Rozumowanie to sposób, w jaki system wykonuje dodatkową pracę po otrzymaniu pytania” – powiedział Dan Klein, profesor informatyki na Uniwersytecie Kalifornijskim, w wywiadzie dla „New York Times” .
System rozumowania może rozbić problem na pojedyncze kroki lub rozwiązać go metodą prób i błędów.
W momencie premiery ChatGPT mógł natychmiast odpowiadać na pytania, wyodrębniając i syntetyzując informacje. Tymczasem system wnioskowania potrzebował kilku sekund (a nawet minut) więcej, aby rozwiązać problem i udzielić odpowiedzi.
![]() |
Przykład procesu wnioskowania modelu o1 w chatbocie obsługi klienta. Zdjęcie: OpenAI . |
W niektórych przypadkach system wnioskowania zmienia podejście do problemu, stale ulepszając rozwiązanie. Alternatywnie, model może wypróbować wiele rozwiązań przed wyborem optymalnego lub przetestować dokładność poprzednich odpowiedzi.
Ogólnie rzecz biorąc, system rozumowania bierze pod uwagę wszystkie możliwe odpowiedzi na pytanie. To tak, jakby uczeń szkoły podstawowej zapisywał wiele możliwych odpowiedzi na kartce papieru, zanim wybierze najwłaściwszy sposób rozwiązania zadania matematycznego.
Według „New York Timesa” sztuczna inteligencja jest obecnie w stanie rozumować na dowolny temat. Jednak zadanie będzie najskuteczniejsze w przypadku pytań związanych z matematyką, naukami ścisłymi i programowaniem komputerowym.
W jaki sposób szkolony jest system teoretyczny?
W typowym chatbocie użytkownicy nadal mogą poprosić o wyjaśnienie procesu lub sprawdzić poprawność odpowiedzi. W rzeczywistości wiele zestawów danych szkoleniowych ChatGPT zawiera już proces rozwiązywania problemów.
System rozumowania idzie jeszcze dalej, gdy może wykonać czynność bez konieczności proszenia o nią użytkownika. Proces ten jest bardziej złożony i dalekosiężny. Firmy używają słowa „rozumowanie”, ponieważ system działa podobnie do ludzkiego myślenia.
Wiele firm, takich jak OpenAI, zakłada, że systemy rozumowania to najlepszy sposób na ulepszenie chatbotów. Przez lata uważano, że chatboty będą działać lepiej, jeśli zostaną przeszkolone na jak największej ilości informacji z internetu.
Do 2024 roku systemy sztucznej inteligencji będą przetwarzać niemal cały tekst dostępny w internecie. Oznacza to, że firmy będą musiały znaleźć nowe rozwiązania, aby udoskonalić chatboty, w tym systemy rozumowania.
![]() |
Startup DeepSeek kiedyś „wywołał poruszenie” modelem wnioskowania, który kosztował mniej niż OpenAI. Zdjęcie: Bloomberg . |
Od ubiegłego roku firmy takie jak OpenAI skupiły się na technice zwanej uczeniem wzmacniającym. Jest to proces trwający zazwyczaj kilka miesięcy, w którym sztuczna inteligencja uczy się zachowań metodą prób i błędów.
Na przykład, rozwiązując tysiące problemów, system może nauczyć się optymalnej metody uzyskiwania prawidłowej odpowiedzi. Na tej podstawie naukowcy opracowali złożone mechanizmy sprzężenia zwrotnego, które pomagają systemowi rozpoznawać prawidłowe i nieprawidłowe rozwiązania.
„To jak tresura psa. Jeśli jest dobrze, dajesz mu smakołyk. Jeśli jest źle, mówisz: »Ten pies jest niegrzeczny«” – powiedział Jerry Tworek, badacz z OpenAI.
Czy sztuczna inteligencja jest przyszłością?
Według „New York Times” uczenie przez wzmacnianie sprawdza się w przypadku pytań z matematyki, nauk ścisłych i programowania komputerowego, w których istnieją jasno określone prawidłowe lub nieprawidłowe odpowiedzi.
Z kolei uczenie przez wzmacnianie nie jest tak skuteczne w kreatywnym pisaniu, filozofii czy etyce – dziedzinach, w których trudno odróżnić dobro od zła. Naukowcy twierdzą jednak, że ta technika nadal może poprawić wydajność sztucznej inteligencji, nawet w przypadku pytań spoza matematyki.
„Systemy nauczą się ścieżek prowadzących do pozytywnych i negatywnych rezultatów” – powiedział Jared Kaplan, dyrektor naukowy w Anthropic.
![]() |
Strona internetowa Anthropic, startupu będącego właścicielem modelu sztucznej inteligencji Claude. Zdjęcie: Bloomberg . |
Należy zauważyć, że uczenie przez wzmacnianie i systemy wnioskowania to dwa różne pojęcia. Dokładniej, uczenie przez wzmacnianie to metoda budowania systemów wnioskowania. Jest to ostatni etap szkolenia chatbotów, aby mogły one rozumować.
Ponieważ są one wciąż stosunkowo nowe, naukowcy nie mogą być pewni, czy rozumujące chatboty lub uczenie przez wzmacnianie (ang. reinforced learning) mogą pomóc sztucznej inteligencji myśleć jak ludzie. Należy zauważyć, że wiele obecnych trendów w szkoleniu sztucznej inteligencji rozwija się bardzo szybko na początku, a następnie stopniowo stabilizuje.
Co więcej, chatboty rozumujące nadal mogą popełniać błędy. Bazując na prawdopodobieństwie, system wybierze proces najbardziej zbliżony do danych, które pozyskał, niezależnie od tego, czy pochodzą one z internetu, czy z uczenia wzmacniającego. W związku z tym chatboty nadal mogą wybrać niewłaściwe lub nieracjonalne rozwiązanie.
Źródło: https://znews.vn/ai-ly-luan-nhu-the-nao-post1541477.html













Komentarz (0)