W oświadczeniu liderzy branży i eksperci podkreślili, że przeciwdziałanie zagrożeniom związanym ze sztuczną inteligencją musi być „globalnym priorytetem, obok innych zagrożeń, takich jak pandemie i wojna nuklearna”, jak podaje agencja AFP. Oświadczenie podpisało kilkudziesięciu ekspertów, w tym Sam Altman, dyrektor generalny OpenAI, twórcy platformy ChatGPT.
ChatGPT zyskał popularność pod koniec zeszłego roku dzięki możliwości generowania esejów, wierszy na podstawie najkrótszych podpowiedzi oraz czatów. Szał na ChatGPT przyciągnął miliardy dolarów inwestycji w dziedzinie sztucznej inteligencji.
Logo ChatGPT i angielskie słowo „sztuczna inteligencja” (AI)
Jednak eksperci branżowi biją na alarm w kwestiach takich jak stronnicze algorytmy sztucznej inteligencji czy ryzyko masowej utraty miejsc pracy w obliczu wkraczania automatyzacji wspomaganej przez sztuczną inteligencję do codziennego życia ludzi.
Najnowsze oświadczenie opublikowane na stronie internetowej Centrum Bezpieczeństwa Sztucznej Inteligencji (amerykańskiej organizacji non-profit) nie zawiera żadnych szczegółów na temat potencjalnego zagrożenia dla egzystencji, jakie niesie ze sobą sztuczna inteligencja.
Tymczasem niektórzy sygnatariusze, w tym pan Geoffrey Hinton, twórca podstawowych technologii dla systemów AI i znany jako ojciec tej branży, wydawali już podobne ostrzeżenia w przeszłości.
Ich największym zmartwieniem jest idea tzw. ogólnej sztucznej inteligencji (AGI), koncepcji, która zakłada, że maszyny będą w stanie wykonywać wiele takich samych funkcji jak ludzie, a także będą mogły opracowywać własne programy.
Obawą jest to, że ludzie nie będą już w stanie kontrolować sztucznej inteligencji. Eksperci ostrzegają, że taka sytuacja może mieć katastrofalne skutki dla ludzkości.
Jak podaje AFP, oświadczenie podpisały dziesiątki ekspertów z firm, w tym Google i Microsoft. Decyzja ta zapadła dwa miesiące po tym, jak miliarder Elon Musk i inni wezwali do wstrzymania rozwoju technologii sztucznej inteligencji do czasu udowodnienia jej bezpieczeństwa.
Link źródłowy
Komentarz (0)