Vietnam.vn - Nền tảng quảng bá Việt Nam

Nikt już nie potrzebuje inżynierów do dowodzenia sztuczną inteligencją

Inżynieria sztucznej inteligencji była jedną z najbardziej pożądanych profesji w 2023 roku. Jednak szybki rozwój sztucznej inteligencji sprawił, że zawód ten stał się przestarzały.

ZNewsZNews27/04/2025

W 2023 roku, podczas gdy miliony ludzi obawiają się, że modele sztucznej inteligencji, takie jak ChatGPT, odbiorą im pracę, niektóre firmy są gotowe zapłacić setki tysięcy dolarów za zatrudnienie osób potrafiących wykorzystać potencjał tych nowych generacji chatbotów opartych na sztucznej inteligencji.

Jak podaje Bloomberg , pojawienie się ChatGPT doprowadziło do powstania nowego zawodu – inżyniera ds. szybkiego reagowania, z pensją sięgającą 335 tys. USD rocznie.

„Porozmawiaj ze sztuczną inteligencją”

W przeciwieństwie do tradycyjnych programistów, inżynierowie proponują programowanie prozą, a następnie wysyłają polecenia napisane zwykłym tekstem do systemu AI, który następnie zamienia opisy w rzeczywistą pracę.

Takie osoby często rozumieją wady sztucznej inteligencji, dzięki czemu mogą zwiększyć jej możliwości i opracować skomplikowane strategie, które pozwalają zamienić proste dane wejściowe w naprawdę wyjątkowe wyniki.

cong nghe anh 1

Lance Junck zarobił kiedyś prawie 35 000 dolarów przychodu na kursie online, który uczył ludzi, jak korzystać z ChatGPT. Zdjęcie: Gearrice.

„Aby skutecznie korzystać ze sztucznej inteligencji, musisz opanować umiejętność projektowania poleceń. Bez tej umiejętności twoja kariera prędzej czy później zostanie „zniszczona”” – powiedziała Lydia Logan, wiceprezes ds. edukacji globalnej i rozwoju zasobów ludzkich w IBM Technology Group.

Jednak dzięki szybkiemu rozwojowi modele sztucznej inteligencji znacznie lepiej rozumieją intencje użytkowników i mogą nawet zadawać dodatkowe pytania, jeśli intencje są niejasne.

Ponadto, jak podaje WSJ , firmy szkolą szeroką gamę pracowników z różnych działów w zakresie najlepszego wykorzystania poleceń i modeli sztucznej inteligencji, dzięki czemu zmniejsza się potrzeba, aby jedna osoba posiadała taką wiedzę specjalistyczną.

W niedawnym badaniu zleconym przez Microsoft, 31 000 pracowników w 31 krajach zostało zapytanych o nowe stanowiska, które ich firma rozważa w ciągu najbliższych 12-18 miesięcy. Według Jareda Spataro, dyrektora ds. marketingu w dziale AI at Work w Microsoft, inżynier dowodzenia znalazł się na drugim miejscu od końca listy.

Tymczasem na szczycie listy znajdują się role takie jak trenerzy, naukowcy zajmujący się danymi i eksperci ds. bezpieczeństwa sztucznej inteligencji.

Spataro twierdzi, że duże modele językowe rozwinęły się już na tyle, że umożliwiają lepszą interakcję, dialog i świadomość kontekstu.

Na przykład narzędzie badawcze Microsoftu oparte na sztucznej inteligencji zadaje pytania uzupełniające, informuje użytkownika o niezrozumieniu czegoś i prosi o opinię na temat dostarczonych informacji. Innymi słowy, jak mówi Spataro, „nie trzeba mieć idealnych zdań”.

Podpowiedź „ślepo” nie jest zła

Według Hannah Calhoon, wiceprezes ds. sztucznej inteligencji w platformie z ofertami pracy Indeed, obecnie jest bardzo mało ofert pracy dla inżynierów dowodzenia.

W styczniu 2023 roku, zaledwie kilka miesięcy po uruchomieniu ChatGPT, liczba wyszukiwań użytkowników na Indeed dla tego stanowiska wzrosła do 144 na milion wyszukiwań. Jednak od tego czasu liczba ta ustabilizowała się na poziomie około 20-30 na milion wyszukiwań.

cong nghe anh 2

Inżynierowie Prompt to inżynierowie, których zadaniem jest formułowanie pytań lub wydawanie poleceń narzędziom AI, takim jak ChatGPT. Zdjęcie: Riku AI.

Oprócz spadku popytu, spowodowanego ograniczonymi budżetami i rosnącą niepewnością gospodarczą , przedsiębiorstwa w ostatnich latach stały się również znacznie ostrożniejsze w kwestii zatrudniania pracowników.

Firmy takie jak Nationwide Insurance, Carhartt Workwear i New York Life Insurance twierdzą, że nigdy nie zatrudniały inżynierów dowódczych, twierdząc, że lepsze umiejętności dowódcze można wyszkolić w każdym obecnym pracowniku.

„Niezależnie od tego, czy pracujesz w finansach, HR czy dziale prawnym, traktujemy to jako umiejętność w ramach stanowiska, a nie jako osobne stanowisko” – mówi dyrektor ds. technologii w Nationwide, Jim Fowler.

Profesor Andrew Ng, założyciel Google Brain i wykładowca na Uniwersytecie Stanforda, powiedział, że użytkownicy czasami nie muszą podawać zbyt wielu szczegółów, wpisując zapytania (monity) dotyczące sztucznej inteligencji.

W poście na X, pan Ng nazywa tę metodę leniwym podpowiadaniem – czyli wprowadzaniem informacji do sztucznej inteligencji z niewielkim kontekstem lub bez konkretnych instrukcji. „Powinniśmy dodawać szczegóły do ​​podpowiedzi tylko wtedy, gdy jest to absolutnie konieczne” – powiedział współzałożyciel Coursera i DeepLearning.

Ng podaje typowy przykład debugowania przez programistów, którzy często kopiują i wklejają całe komunikaty o błędach – czasami trwające kilka stron – do modeli sztucznej inteligencji, nie określając wprost, czego chcą.

„Większość dużych modeli językowych (LLM) jest na tyle inteligentna, że ​​rozumie, co chcesz, aby przeanalizowały, i proponuje rozwiązania, nawet jeśli nie powiesz tego wprost” – pisze.

cong nghe anh 3

LLM wychodzi poza reagowanie na proste polecenia, zaczynając rozumieć intencje i sposób rozumowania użytkownika, aby móc oferować odpowiednie rozwiązania. Zdjęcie: Bloomberg.

Według Nga jest to krok naprzód, pokazujący, że LLM stopniowo wychodzi poza zdolność do reagowania na proste polecenia i zaczyna rozumieć intencje i tok rozumowania użytkownika, aby oferować odpowiednie rozwiązania — trend, który podążają również firmy opracowujące modele AI.

Jednak „leniwe podpowiadanie” nie zawsze działa. Ng zauważa, że ​​ta technika powinna być stosowana tylko wtedy, gdy użytkownicy mogą szybko przeprowadzić test, na przykład za pośrednictwem interfejsu internetowego lub aplikacji AI, a model jest w stanie wywnioskować intencję na podstawie niewielkiej ilości informacji.

„Jeśli sztuczna inteligencja potrzebuje szerokiego kontekstu, aby odpowiedzieć szczegółowo, lub nie potrafi rozpoznać potencjalnych błędów, to prosty komunikat nie pomoże” – podkreślił pan Ng.

Source: https://znews.vn/khong-con-ai-can-ky-su-ra-lenh-cho-ai-nua-post1549306.html


Komentarz (0)

Zostaw komentarz, aby podzielić się swoimi odczuciami!

W tej samej kategorii

Katedra Notre Dame w Ho Chi Minh City rozświetlona z okazji Bożego Narodzenia 2025
Dziewczyny z Hanoi „pięknie się ubierają” na okres Bożego Narodzenia
Rozjaśniona po burzy i powodzi wioska chryzantem Tet w Gia Lai ma nadzieję, że nie będzie przerw w dostawie prądu, które mogłyby uratować rośliny.
Stolica żółtej moreli w regionie centralnym poniosła duże straty po dwóch klęskach żywiołowych

Od tego samego autora

Dziedzictwo

Postać

Biznes

Liczba klientów kawiarni Dalat wzrosła o 300%, ponieważ właściciel odgrywa rolę w „filmie o sztukach walki”

Aktualne wydarzenia

System polityczny

Lokalny

Produkt

Footer Banner Agribank
Footer Banner LPBank
Footer Banner MBBank
Footer Banner VNVC
Footer Banner Agribank
Footer Banner LPBank
Footer Banner MBBank
Footer Banner VNVC
Footer Banner Agribank
Footer Banner LPBank
Footer Banner MBBank
Footer Banner VNVC
Footer Banner Agribank
Footer Banner LPBank
Footer Banner MBBank
Footer Banner VNVC