Vietnam.vn - Nền tảng quảng bá Việt Nam

Niemand braucht mehr Ingenieure, um KI zu steuern

Im Jahr 2023 war AI Prompt Engineering einer der gefragtesten Berufe. Die rasante Entwicklung der KI hat diesen Beruf jedoch überflüssig gemacht.

Zing NewsZing News28/04/2025

Während Millionen von Menschen im Jahr 2023 befürchten, dass ihnen künstliche Intelligenzmodelle wie ChatGPT die Arbeitsplätze wegnehmen könnten, sind einige Unternehmen bereit, Hunderttausende von Dollar zu zahlen, um Leute einzustellen, die diese neue Generation von KI-Chatbots nutzen können.

Laut Bloomberg entstand mit der Entstehung von ChatGPT damals ein neuer Beruf namens Prompt Engineer mit einem Gehalt von bis zu 335.000 USD /Jahr.

„Mit KI sprechen“

Im Gegensatz zu herkömmlichen Programmierern schlagen Ingenieure vor, in Prosa-Absätzen zu programmieren und dann im Klartext geschriebene Befehle an das KI-System zu senden. Das System wandelt diese beschreibenden Wörter dann in tatsächliche Jobs um.

Diese Menschen sind sich häufig der Schwächen der KI bewusst, können dadurch ihre Leistungsfähigkeit steigern und komplexe Strategien entwickeln, um aus einfachen Eingaben wirklich einzigartige Ergebnisse zu machen.

cong nghe anh 1

Lance Junck verdiente einmal fast 35.000 US-Dollar mit der Erstellung eines Online-Kurses, in dem er den Leuten die Verwendung von ChatGPT beibrachte. Foto: Gearrice.

Um KI effektiv zu nutzen, müssen Sie Fähigkeiten zur Befehlsgestaltung beherrschen. „Wenn Sie diese Fähigkeit nicht beherrschen, wird Ihre Karriere früher oder später ‚zerstört‘ sein“, sagt Lydia Logan, Vizepräsidentin für globale Bildung und Personalentwicklung bei der IBM Technology Group.

Durch die rasante Entwicklung sind KI-Modelle heute jedoch viel besser in der Lage, die Absichten der Benutzer zu verstehen und können sogar Folgefragen stellen, wenn die Absicht unklar ist.

Darüber hinaus schulen Unternehmen laut WSJ eine große Bandbreite an Mitarbeitern aus unterschiedlichen Abteilungen im optimalen Einsatz von Befehlen und KI-Modellen, sodass es weniger notwendig ist, dass eine einzelne Person über dieses Fachwissen verfügt.

Konkret wurden in einer kürzlich von Microsoft in Auftrag gegebenen Umfrage 31.000 Mitarbeiter in 31 Ländern zu den neuen Stellen befragt, die ihr Unternehmen in den nächsten 12 bis 18 Monaten schaffen möchte. Laut Jared Spataro, Marketingdirektor für AI at Work bei Microsoft, ist der Befehlsingenieur der Vorletzte auf der Liste.

Mittlerweile stehen Rollen wie Trainer, Datenwissenschaftler und KI-Sicherheitsexperten ganz oben auf der Liste.

Spataro argumentiert, dass große Sprachmodelle inzwischen weit genug entwickelt seien, um eine bessere Interaktion, einen besseren Dialog und ein besseres Kontextbewusstsein zu ermöglichen.

Beispielsweise stellt das KI-basierte Recherchetool von Microsoft Folgefragen, weist den Benutzer darauf hin, wenn es etwas nicht versteht, und bittet um Feedback zu den bereitgestellten Informationen. Mit anderen Worten, argumentiert Spataro, „Sie müssen nicht über perfekte Kontrolle verfügen.“

Prompt "blind" ist nicht falsch

Laut Hannah Calhoon, Vizepräsidentin für KI bei der Jobsuchplattform Indeed, gibt es derzeit nur sehr wenige Stellenausschreibungen für Befehlszeileningenieure.

Im Januar 2023, nur wenige Monate nach dem Start von ChatGPT, stiegen die Suchanfragen der Indeed-Benutzer nach dieser Rolle auf 144 pro Million Suchanfragen. Seitdem hat sich diese Zahl jedoch bei etwa 20–30 pro Million Suchanfragen eingependelt.

cong nghe anh 2

Prompt Engineers sind Ingenieure, deren Aufgabe es ist, Fragen zu verfassen oder Befehle an KI-Tools wie ChatGPT zu senden. Foto: Riku AI.

Neben der sinkenden Nachfrage aufgrund knapper Budgets und wachsender wirtschaftlicher Unsicherheit sind die Unternehmen in den letzten Jahren auch generell viel zurückhaltender bei der Einstellung neuer Mitarbeiter geworden.

Dementsprechend erklärten Unternehmen wie Nationwide Insurance, die Arbeitskleidungsmarke Carhartt und die Versicherungsgesellschaft New York Life, dass sie nie Kommandoingenieure beschäftigt hätten. Stattdessen betrachten sie die Entwicklung besserer Führungskompetenzen als eine Spezialisierung, in der alle derzeitigen Mitarbeiter geschult werden können.

„Ob Sie im Finanz-, Personal- oder Rechtswesen tätig sind, wir betrachten dies als eine Fähigkeit innerhalb einer Berufsbezeichnung, nicht als eine separate Berufsbezeichnung“, sagt Jim Fowler, Chief Technology Officer von Nationwide.

Professor Andrew Ng, Gründer von Google Brain und Dozent an der Stanford University, sagte, dass Benutzer bei der Eingabe von Anfragen (Eingabeaufforderungen) an die KI manchmal nicht zu detailliert sein müssen.

In einem Beitrag auf X nennt Herr Ng diese Methode Lazy Prompting , also das Einspeisen von Informationen in die KI mit wenig Kontext oder ohne spezifische Anweisungen. „Wir sollten der Eingabeaufforderung nur dann Details hinzufügen, wenn es unbedingt notwendig ist“, sagte der Mitbegründer von Coursera und DeepLearning.

Das typische Beispiel, das Ng anführt, sind Programmierer beim Debuggen. Sie kopieren und fügen häufig ganze Fehlermeldungen – manchmal mehrere Seiten lang – in KI-Modelle ein, ohne die Anfrage explizit zu formulieren.

„Die meisten großen Sprachmodelle (LLMs) sind intelligent genug, um zu verstehen, was Sie von ihnen analysieren lassen möchten, und um Korrekturen vorzuschlagen, auch wenn Sie das nicht ausdrücklich sagen“, schreibt er.

cong nghe anh 3

LLM geht über das bloße Reagieren auf Befehle hinaus und beginnt, die Absichten und Argumente des Benutzers zu verstehen, um entsprechende Lösungen bereitzustellen. Foto: Bloomberg.

Laut Ng ist dies ein Fortschritt, der zeigt, dass LLM allmählich über die Fähigkeit hinausgeht, auf einfache Befehle zu reagieren, und beginnt, die Absichten und Überlegungen des Benutzers zu verstehen, um entsprechende Lösungen bereitzustellen – ein Trend, dem Unternehmen, die KI-Modelle entwickeln, folgen.

Allerdings ist „faules Auffordern“ nicht immer effektiv. Ng weist darauf hin, dass diese Technik nur verwendet werden sollte, wenn Benutzer schnell testen können, etwa über die Weboberfläche oder App der KI, und das Modell in der Lage ist, aus wenigen Informationen auf die Absicht zu schließen.

„Wenn KI viel Kontext benötigt, um detailliert zu reagieren, oder potenzielle Fehler nicht erkennen kann, hilft eine einfache Eingabeaufforderung nicht weiter“, betonte Ng.

Quelle: https://znews.vn/khong-con-ai-can-ky-su-ra-lenh-cho-ai-nua-post1549306.html


Kommentar (0)

No data
No data

Erbe

Figur

Geschäft

No videos available

Nachricht

Politisches System

Lokal

Produkt