
Na niedawnej konferencji technologicznej GTC, Nvidia – gigant branży chipów – zrobiła duże wrażenie, ogłaszając nową platformę układów AI o nazwie Blackwell Ultra. To ulepszenie w stosunku do już znanej linii chipów Blackwell, ale tym razem Nvidia ma wyraźniejsze ambicje: pomóc sztucznej inteligencji nie tylko reagować, ale także rozumować jak człowiek. Według opisu Nvidii, Blackwell Ultra zapewnia wyższą moc obliczeniową, umożliwiając modelom AI analizowanie złożonych żądań, rozbijanie ich na wiele etapów i rozważanie wielu różnych opcji – coś, co wcześniej było możliwe tylko dla ludzi.
„Rozumowanie to kolejny krok w rozwoju sztucznej inteligencji, wykraczający poza rolę chatbota i wkraczający w świat rzeczywisty” – powiedział Jensen Huang, dyrektor generalny Nvidii. Aby to zademonstrować, Nvidia porównała czas odpowiedzi na złożone zapytanie: podczas gdy model sztucznej inteligencji R1 firmy DeepSeek (chińskiego startupu zajmującego się sztuczną inteligencją) potrzebował 90 sekund na przetworzenie na starym chipie Hopper, w przypadku Blackwell Ultra zajęło to zaledwie 10 sekund. Ta różnica w wydajności nie tylko przyspiesza proces, ale także otwiera maszynom możliwość szybszego i głębszego myślenia.
„Modele sztucznej inteligencji zaczynają zachowywać się jak prawdziwi ludzie, analizując i myśląc, zanim zareagują. To ogromny punkt zwrotny” – powiedział Arun Chandrasekaran, ekspert z firmy badawczej Gartner.
Do wyścigu dołączają również inne firmy, nie tylko Nvidia czy DeepSeek. Google zintegrowało funkcje wnioskowania w swojej nowej rodzinie modeli Gemini, a Anthropic wydał Claude 3.7 Sonnet – model sztucznej inteligencji, który wykorzystuje „hybrydowy” model rozumowania (połączenie różnych metod wnioskowania w systemie sztucznej inteligencji lub w ludzkim procesie myślowym). Te systemy sztucznej inteligencji potrafią planować, wykonywać wiele zadań jednocześnie, a nawet podejmować decyzje, co kiedyś było możliwe tylko w ludzkim mózgu.
Choć sztuczna inteligencja wykazuje niezwykłe możliwości, technolodzy i myśliciele wciąż debatują nad podejściem i kierunkiem rozwoju, aby stała się ona prawdziwą siłą napędową postępu społecznego. Jednym z kluczowych punktów jest zdolność do zachowania ludzkich wartości w okresie transformacji do ery „myślącej sztucznej inteligencji”. Nie jest już nowością, że duże modele językowe (LLM), takie jak ChatGPT, potrafią rozumieć kontekst, formułować wielowymiarowe wyjaśnienia i budować inteligentne odpowiedzi. Ważniejsze jednak pytanie brzmi: Jakiego sposobu myślenia nauczy się sztuczna inteligencja? I w jaki sposób ludzie będą kontrolować sztuczną inteligencję, aby nie była manipulowana, stronnicza ani wykorzystywana?
Hoffman szczególnie podkreślił rolę człowieka w szkoleniu i kierowaniu sztuczną inteligencją. Wezwał deweloperów do transparentności w kwestii zasad, na których trenują swoje modele. „Jeśli tworzysz sztuczną inteligencję, która sprzeciwia się postępowym wartościom, takim jak równość czy różnorodność, musisz jasno określić, dlaczego wybrałeś takie podejście. Jeśli chcesz, aby sztuczna inteligencja odzwierciedlała szeroki wachlarz punktów widzenia, daj użytkownikom znać, gdy miliony ludzi się z tobą nie zgadzają. To pomoże im zrozumieć, z czego korzystają”. Ta ideologia promuje wolność informacji i świadomość społeczną, zamiast pozwolić, aby sztuczna inteligencja stała się narzędziem wzmacniającym „bańki ideologiczne”, które już dziś powodują podziały w mediach społecznościowych.
Poza debatami etycznymi i filozoficznymi, kolejnym wyzwaniem jest edukacja i przygotowanie młodego pokolenia. W świecie, w którym sztuczna inteligencja coraz bardziej przejmuje kontrolę nad wieloma dziedzinami, jak możemy uniknąć eliminacji? Odpowiedzią, według wielu ekspertów, nie jest obrona przed sztuczną inteligencją, lecz wzmocnienie naszych możliwości za jej pośrednictwem.
Hoffman przyznał, że korzystał ze sztucznej inteligencji, która pomagała mu w pisaniu książek – od wyszukiwania i analizowania argumentów po sugerowanie atrakcyjniejszych sformułowań. Według niego, nie jest to zamiennik pisarzy, ale forma „pracy z maszyną-partnerem”. To tak, jakby dziennikarz miał osobistego asystenta, który zajmuje się wyszukiwaniem, syntezą i sugerowaniem, ale selekcja i podejmowanie decyzji nadal należą do ludzi.
Sztuczna inteligencja może być również narzędziem wyrównywania szans osób z ograniczonym dostępem do wiedzy. Uczeń z terenów wiejskich może korzystać z ChatGPT, aby ćwiczyć pisanie esejów, uczyć się języków obcych i wyszukiwać specjalistyczną wiedzę, która wcześniej wymagała korepetycji lub korzystania z dużych bibliotek. Dzięki odpowiedniemu dostępowi, sztuczna inteligencja może zmniejszyć różnice w wykształceniu, umiejętnościach i dochodach między klasami społecznymi.
Aby to osiągnąć, twórcy technologii i rządy muszą jednak opracować jasne strategie kształcenia umiejętności cyfrowych, zapewnić równy dostęp do sztucznej inteligencji i zapobiegać ryzyku nadużyć technologii. Politykom muszą towarzyszyć wytyczne etyczne, regulacje techniczne i skuteczne narzędzia kontroli, które nie będą hamować innowacji.
Źródło: https://daidoanket.vn/ai-dang-tien-gan-hon-toi-tri-tue-con-nguoi-10302558.html






Komentarz (0)