Według źródeł Tech.co , w czasie gdy narastały kontrowersje wokół zwolnienia dyrektora generalnego Sama Altmana i jego powrotu do OpenAI, jedna z krążących plotek dotyczyła listu wysłanego przez badaczy firmy do zarządu, w którym wyrazili oni obawy, że rozwijający się model superinteligencji sztucznej inteligencji może stanowić potencjalne zagrożenie dla ludzkości.
(Ilustracja)
Projekt Q*
Model ten, znany wewnętrznie jako Projekt Q* (wym. Q-star), jest reklamowany jako potencjalnie przełomowy krok w dążeniu OpenAI do stworzenia ogólnej sztucznej inteligencji (AGI) – wysoce autonomicznej gałęzi superinteligencji, która jest zdolna do kumulatywnego uczenia się i przewyższania ludzi w większości zadań.
Według źródeł znających sprawę Q* może oznaczać ogromny krok naprzód w dziedzinie sztucznej inteligencji, radykalnie poprawiając możliwości rozumowania AI i zbliżając OpenAI do wielkiego przełomu w rozwoju AGI.
W przeciwieństwie do obecnych modeli sztucznej inteligencji (AI), które skupiają się na generowaniu odpowiedzi na podstawie wcześniej poznanych informacji, AGI jest autonomicznym systemem, który potrafi stosować „rozum” przy podejmowaniu decyzji, co daje mu zdolność do rozwiązywania problemów na poziomie ludzkim.
Mimo że sztuczna inteligencja ogólna nie jest jeszcze w pełni rozwinięta, wielu ekspertów uważa, że technologia ta będzie miała potencjał kumulacyjnego uczenia się, co jest kolejną cechą umożliwiającą ludziom doskonalenie swoich umiejętności.
Niektóre źródła sugerują, że Q* – projekt OpenAI – był w stanie wykazać wspomniane właściwości podczas rozwiązywania problemów. Co więcej, dzięki ogromnej mocy obliczeniowej modelu, Q* przewyższył uczniów szkół podstawowych, wykazując się umiejętnościami rozumowania i zdolnościami poznawczymi znacznie przewyższającymi te, które oferuje obecna technologia sztucznej inteligencji.
Nie wiadomo, jak długo Q* jest rozwijany i jakie mogą być jego potencjalne zastosowania, ale OpenAI poinformowało pracowników i członków zarządu o projekcie przed wybuchem kontrowersji kadrowych.
Obawy etyczne
Chociaż dyrektor generalny OpenAI, Sam Altman, jest przekonany, że technologia AGI stanie się siłą napędową innowacji, niektórzy badacze szybko zwrócili uwagę na potencjalne zagrożenia, jakie niesie ze sobą ten projekt.
W liście do zarządu naukowcy ostrzegali przed potencjalnym zagrożeniem, jakie ten potężny algorytm stwarza dla ludzkości. Konkretne obawy etyczne dotyczące sztucznej inteligencji, o których mowa w liście, nie zostały ujawnione, ale same ostrzeżenia wystarczyły, aby uzasadnić decyzję zarządu o zwolnieniu Altmana.
Tymczasem pierwotnym powodem zwolnienia Altmana były „słabe umiejętności komunikacyjne” prezesa. Wkrótce potem znalazł on nowe stanowisko w Microsoft. To działanie skłoniło 700 z 770 pracowników OpenAI do groźby, że zrobią to samo, jeśli prezes nie zostanie przywrócony na stanowisko.
Gdy firma stanęła na skraju upadku, rada dyrektorów OpenAI zmuszona była ponownie powołać Altmana na najwyższe stanowisko, co również doprowadziło do gruntownej przebudowy kadry kierowniczej firmy i uwypukliło głębokie podziały w jej kierownictwie.
Teraz, gdy Altman wrócił do swojej roli, a Projekt Q* prawdopodobnie dostanie zielone światło, pojawiają się nowe pytania.
Jak realistyczny jest Projekt Q*?
Chociaż burzliwy okres w OpenAI sprawił, że koncepcja AGI znalazła się w centrum uwagi, to nie jest pierwszy raz, kiedy Altman wspomina o tej technologii.
We wrześniu przedsiębiorca z Doliny Krzemowej wpadł w kłopoty, porównując sztuczną inteligencję (AI) do „przeciętnego człowieka, którego można zatrudnić jako współpracownika”. Powtórzył komentarze z zeszłego roku, w których mówił, że ta sztuczna inteligencja może „zrobić wszystko, co można zrobić ze zdalnym współpracownikiem”, w tym nauczyć się być lekarzem i dobrym programistą.
Choć porównywanie sztucznej inteligencji ogólnej (AGI) do inteligencji „przeciętnego człowieka” nie jest niczym nowym, użycie tego określenia przez Altmana zostało uznane za „obrzydliwe” przez etyków zajmujących się sztuczną inteligencją oraz profesora Uniwersytetu Cambridge Henry’ego Shevlina, w obliczu narastających obaw dotyczących wpływu sztucznej inteligencji na bezpieczeństwo zatrudnienia.
Potencjalne przełomy w dziedzinie sztucznej inteligencji (AGI) stanowią również sygnał alarmowy dla innych badaczy, gdyż technologia ta rozwija się szybciej, niż ludzie są w stanie w pełni zrozumieć jej wpływ.
OpenAI uważa, że pozytywne rezultaty sztucznej inteligencji (AGI) sprawiają, że warto spróbować swoich sił na tym ryzykownym „polu minowym”. Jednak w miarę jak firma kontynuuje działania w tym kierunku, wielu obawia się, że Altman przedkłada sukces komercyjny nad korzyści dla użytkowników i społeczeństwa.
Phuong Anh (źródło: Tech.co, The Guardian)
Źródło






Komentarz (0)