List, który wyznaczył punkt zwrotny.
Agencja Reuters poinformowała 23 listopada, powołując się na ekskluzywne źródła, że cztery dni przed zwolnieniem prezesa Sama Altmana, kilku badaczy z OpenAI wysłało list do zarządu firmy, ostrzegając przed odkryciem potężnej sztucznej inteligencji (AI), która może zagrozić ludzkości. List, o którym nigdy wcześniej nie wspominano, oraz omawiany algorytm AI były istotnymi wydarzeniami, które doprowadziły do zwolnienia Sama Altmana, współzałożyciela OpenAI, 17 listopada. Powrócił on na swoje stanowisko 21 listopada (czasu amerykańskiego) po dwóch rundach negocjacji z OpenAI. Według źródeł, list był jednym z powodów decyzji zarządu OpenAI o jego zwolnieniu, chociaż w oficjalnym komunikacie stwierdzono jedynie, że Altman „był niespójny i nieszczery w komunikacji z zarządem”.
Pan Altman ( po prawej ) i liderzy firm technologicznych dyskutują na konferencji APEC w San Francisco w USA, 16 listopada.
Według źródeł, Mira Murati, jedna z wieloletnich menedżerek OpenAI, wspomniała pracownikom o projekcie o nazwie Q* 22 listopada i poinformowała, że rada dyrektorów firmy otrzymała list przed zwolnieniem Altmana. Jedno ze źródeł ujawniło, że OpenAI poczyniło postępy w projekcie Q*, co może być przełomem w poszukiwaniach superinteligencji, znanej również jako sztuczna inteligencja ogólna (AGI).
Chociaż nowy model wykonuje obliczenia matematyczne jedynie na poziomie szkoły podstawowej, jego zdolność do rozwiązywania tego typu problemów sprawiła, że naukowcy z dużym optymizmem patrzą na przyszły sukces Q*. Naukowcy postrzegają matematykę jako warunek wstępny rozwoju generatywnej sztucznej inteligencji. Obecnie generatywna sztuczna inteligencja potrafi pisać i tłumaczyć języki, choć odpowiedzi na to samo pytanie mogą się znacznie różnić. Jednak opanowanie umiejętności matematycznych, dziedziny z tylko jedną poprawną odpowiedzią, oznacza, że sztuczna inteligencja będzie miała lepsze zdolności rozumowania, podobne do ludzkich. Naukowcy uważają, że można to wykorzystać w nowych badaniach naukowych .
Sam Altman powraca na stanowisko dyrektora generalnego OpenAI.
Potencjalne zagrożenie?
W liście do zarządu OpenAI, według źródeł, naukowcy przedstawili potencjał i potencjalne zagrożenia związane ze sztuczną inteligencją. Informatycy od dawna dyskutują o zagrożeniach, jakie stwarzają superinteligentne maszyny, na przykład o tym, czy mogą one zdecydować się na zniszczenie ludzkości dla własnej korzyści. W tym kontekście Altman przewodził działaniom mającym na celu uczynienie ChatGPT jedną z najszybciej rozwijających się aplikacji w historii i pozyskał inwestycje oraz zasoby obliczeniowe niezbędne do zbliżenia się do sztucznej inteligencji ogólnej (AGI). Oprócz ogłoszenia serii nowych narzędzi na wydarzeniu w tym miesiącu, Altman powiedział światowym liderom w San Francisco w zeszłym tygodniu, że jego zdaniem AGI jest na horyzoncie. Dzień później został zwolniony przez zarząd OpenAI. OpenAI i Altman nie skomentowali listu.
Zaniepokojone potencjalnymi zagrożeniami związanymi ze sztuczną inteligencją, wiele zachodnich rządów i firm technologicznych uzgodniło nowy, bezpieczny mechanizm testowania. Jednak, według agencji AFP, Sekretarz Generalny ONZ António Guterres stwierdził, że świat wciąż „gra w podchody” w swoich wysiłkach na rzecz regulacji sztucznej inteligencji, co grozi długoterminowymi negatywnymi konsekwencjami dla wszystkiego, od miejsc pracy po kulturę.
OpenAI i Microsoft są pozywane za naruszenie praw autorskich.
23 listopada portal The Hill poinformował, że grupa autorów literatury faktu wniosła pozew, zarzucając OpenAI i Microsoftowi, że przeszkolili swoje narzędzie ChatGPT w celu kopiowania ich prac bez zgody. W pozwie złożonym w sądzie federalnym w Nowym Jorku, główny powód, Julian Sancton, twierdzi, że on i inni autorzy nie otrzymali żadnego wynagrodzenia za skopiowane przez sztuczną inteligencję prace, podczas gdy OpenAI i Microsoft osiągnęły sukces finansowy dzięki komercjalizacji swoich prac, generując miliardy dolarów przychodu ze sprzedaży produktów opartych na sztucznej inteligencji. Według agencji Reuters, rzecznik OpenAI odmówił komentarza w tej sprawie, a przedstawiciel Microsoftu nie odpowiedział natychmiast na prośbę o komentarz.
Link źródłowy







Komentarz (0)