Według źródeł Tech.co , podczas gdy trwały kontrowersje wokół zwolnienia, a następnie powrotu dyrektora generalnego Sama Altmana do OpenAI, jedną z plotek była wiadomość o liście wysłanym przez badaczy firmy do zarządu, w którym wyrazili oni obawy dotyczące opracowywanego modelu superinteligencji sztucznej inteligencji, który mógłby potencjalnie stanowić zagrożenie dla ludzkości.
(Ilustracja)
Projekt Q*
Model ten, znany wewnętrznie jako Projekt Q* (wym. Q-star), ma stanowić przełom w dążeniu OpenAI do stworzenia sztucznej inteligencji ogólnej (AGI) — wysoce autonomicznej gałęzi superinteligencji, która jest zdolna do kumulatywnego uczenia się i przewyższania ludzi w większości zadań.
Zdaniem osób zaznajomionych ze sprawą Q* może oznaczać ogromny krok naprzód w dziedzinie sztucznej inteligencji, radykalnie poprawiając możliwości rozumowania AI i zbliżając OpenAI do wielkiego przełomu w rozwoju AGI.
W przeciwieństwie do obecnych modeli sztucznej inteligencji (AI), które skupiają się na zdolności generowania odpowiedzi na podstawie wcześniej zdobytych informacji, AGI jest autonomicznym systemem, który potrafi stosować „rozum” w podejmowaniu decyzji, co daje mu zdolność rozwiązywania problemów na poziomie ludzkim.
Mimo że sztuczna inteligencja ogólna nie jest jeszcze w pełni rozwinięta, wielu ekspertów uważa, że technologia ta będzie miała również zdolność do kumulatywnego uczenia się, co jest kolejną cechą umożliwiającą ludziom doskonalenie swoich umiejętności.
Niektóre źródła twierdzą, że projekt Q* – OpenAI był w stanie wykazać powyższe właściwości podczas rozwiązywania problemów. Co więcej, dzięki ogromnej mocy obliczeniowej modelu, Q* przewyższył uczniów szkół podstawowych, wykazując się umiejętnościami rozumowania i zdolnościami poznawczymi znacznie wykraczającymi poza możliwości obecnej technologii sztucznej inteligencji.
Nie wiadomo, jak długo Q* jest rozwijany i jakie mogą być jego zastosowania, ale OpenAI poinformowało pracowników i członków zarządu o projekcie przed wybuchem skandalu kadrowego.
Obawy etyczne
Chociaż dyrektor generalny OpenAI, Sam Altman, jest przekonany, że technologia AGI stanie się siłą napędową innowacji, niektórzy badacze szybko zwrócili uwagę na potencjalne zagrożenia, jakie niesie ze sobą ten projekt.
W liście do zarządu naukowcy ostrzegali przed potencjalnymi zagrożeniami, jakie ten potężny algorytm stwarza dla ludzkości. Konkretne obawy etyczne dotyczące sztucznej inteligencji, o których mowa w liście, nie zostały ujawnione, ale same ostrzeżenia wystarczyły, aby uzasadnić decyzję zarządu o zwolnieniu Altmana.
Tymczasem pierwotnym powodem zwolnienia Altmana była „słaba komunikacja” prezesa. Wkrótce znalazł on nowe stanowisko w Microsoft. To działanie skłoniło 700 z 770 pracowników OpenAI do groźby, że zrobią to samo, jeśli prezes nie zostanie przywrócony na stanowisko.
W obliczu groźby upadku firmy zarząd OpenAI został zmuszony do przywrócenia Altmana na stanowisko kierownicze, co również doprowadziło do gruntownej przebudowy kadry kierowniczej firmy i uwypukliło głębokie podziały w jej kierownictwie.
Teraz, gdy Altman wrócił do urzędu, a Projekt Q* prawdopodobnie znów dostanie zielone światło, pojawiają się nowe pytania.
Jak realistyczny jest Projekt Q*?
Burzliwe dni w OpenAI sprawiły, że koncepcja AGI znalazła się w centrum uwagi, ale to nie pierwszy raz, kiedy Altman wspomina o tej technologii.
Przedsiębiorca z Doliny Krzemowej znalazł się we wrześniu w tarapatach po porównaniu sztucznej inteligencji (AI) do „przeciętnego człowieka, którego można zatrudnić jako współpracownika”. Nawiązał do komentarzy z zeszłego roku, w których mówił, że sztuczna inteligencja może „zrobić wszystko, co można zrobić zdalnie ze współpracownikiem”, w tym nauczyć się, jak być lekarzem i jak dobrze programować.
Choć porównywanie sztucznej inteligencji ogólnej (AGI) do inteligencji „przeciętnego człowieka” nie jest niczym nowym, etyk zajmujący się sztuczną inteligencją i profesor Uniwersytetu Cambridge Henry Shevlin uznał użycie tego określenia przez Altmana za „odrażające”, ponieważ obawy dotyczące wpływu sztucznej inteligencji na bezpieczeństwo pracy rosną.
Potencjalne przełomy w dziedzinie sztucznej inteligencji (AGI) budzą niepokój także wśród innych badaczy — technologia ta rozwija się szybciej, niż ludzie są w stanie w pełni zrozumieć jej wpływ.
W OpenAI wierzymy, że pozytywne rezultaty sztucznej inteligencji (AGI) sprawiają, że ryzykowne „pole minowe” jest warte eksploracji. Jednak w miarę jak firma kontynuuje działania w tym kierunku, wielu obawia się, że Altman przedkłada sukces komercyjny nad interesy użytkowników i społeczeństwa.
Phuong Anh (źródło: Tech.co, The Guardian)
Źródło
Komentarz (0)