
Während im Jahr 2023 Millionen Menschen befürchten, dass ihnen künstliche Intelligenzmodelle wie ChatGPT die Arbeitsplätze wegnehmen könnten, sind einige Unternehmen bereit, Hunderttausende von Dollar zu zahlen, um Leute einzustellen, die diese neue Generation von KI-Chatbots nutzen können.
Laut Bloomberg entstand mit der Entstehung von ChatGPT damals ein neuer Beruf namens Prompt Engineer mit einem Gehalt von bis zu 335.000 USD /Jahr.
„Mit KI sprechen“
Im Gegensatz zu herkömmlichen Programmierern schlagen Ingenieure vor, in Prosa zu programmieren und dann im Klartext geschriebene Befehle an das KI-System zu senden, das die Beschreibungen dann in tatsächliche Arbeit umsetzt.
Diese Menschen verstehen oft die Schwächen der KI, können dadurch ihre Leistungsfähigkeit steigern und komplexe Strategien entwickeln, um aus einfachen Eingaben wirklich einzigartige Ergebnisse zu machen.
![]() |
Lance Junck verdiente einmal fast 35.000 Dollar mit einem Online-Kurs, in dem er Menschen die Verwendung von ChatGPT beibrachte. Foto: Gearrice. |
„Um KI effektiv zu nutzen, müssen Sie die Fähigkeit beherrschen, Anweisungen zu entwerfen. Ohne diese Fähigkeit ist Ihre Karriere früher oder später ‚zerstört‘“, sagte Lydia Logan, Vizepräsidentin für globale Bildung und Personalentwicklung bei der IBM Technology Group.
Durch die rasante Entwicklung sind KI-Modelle heute jedoch viel besser in der Lage, die Absichten der Benutzer zu verstehen und können sogar Folgefragen stellen, wenn die Absicht unklar ist.
Darüber hinaus schulen Unternehmen laut WSJ eine große Bandbreite an Mitarbeitern aus unterschiedlichen Abteilungen im optimalen Einsatz von Befehlen und KI-Modellen, sodass es weniger notwendig ist, dass eine einzelne Person über dieses Fachwissen verfügt.
In einer kürzlich von Microsoft in Auftrag gegebenen Umfrage wurden 31.000 Mitarbeiter in 31 Ländern zu den neuen Stellen befragt, die ihre Unternehmen in den nächsten 12 bis 18 Monaten schaffen wollen. Laut Jared Spataro, Microsofts Marketingdirektor für AI at Work, belegten Kommandoingenieure den vorletzten Platz auf der Liste.
Mittlerweile stehen Rollen wie Trainer, Datenwissenschaftler und KI-Sicherheitsexperten ganz oben auf der Liste.
Spataro argumentiert, dass große Sprachmodelle inzwischen so weit entwickelt seien, dass sie eine bessere Interaktion, einen besseren Dialog und ein besseres Kontextbewusstsein ermöglichen.
Beispielsweise stellt Microsofts KI-basiertes Recherchetool Folgefragen, informiert den Benutzer, wenn es etwas nicht versteht, und bittet um Feedback zu den bereitgestellten Informationen. Mit anderen Worten, sagt Spataro: „Man muss keine perfekten Sätze haben.“
Prompt „blind“ ist nicht falsch
Laut Hannah Calhoon, Vizepräsidentin für KI bei der Jobsuchplattform Indeed, gibt es derzeit nur sehr wenige Stellenausschreibungen für Befehlszeileningenieure.
Im Januar 2023, nur wenige Monate nach dem Start von ChatGPT, stiegen die Suchanfragen der Indeed-Nutzer nach dieser Rolle auf 144 pro Million Suchanfragen. Seitdem hat sich diese Zahl jedoch bei etwa 20 bis 30 pro Million Suchanfragen eingependelt.
![]() |
Prompt Engineers sind Ingenieure, die Fragen schreiben oder Befehle an KI-Tools wie ChatGPT senden. Foto: Riku AI. |
Neben der sinkenden Nachfrage aufgrund knapper Budgets und zunehmender wirtschaftlicher Unsicherheit sind die Unternehmen in den letzten Jahren auch generell bei der Einstellung von Personal deutlich zurückhaltender geworden.
Unternehmen wie Nationwide Insurance, Carhartt Workwear und New York Life Insurance geben an, nie Führungsingenieure eingestellt zu haben. Sie sehen bessere Führungskompetenzen vielmehr als eine Fähigkeit an, die allen derzeitigen Mitarbeitern vermittelt werden kann.
„Ob Sie im Finanz-, Personal- oder Rechtswesen tätig sind, wir betrachten dies als eine Fähigkeit innerhalb einer Berufsbezeichnung, nicht als eine separate Berufsbezeichnung“, sagt Jim Fowler, Chief Technology Officer von Nationwide.
Professor Andrew Ng, Gründer von Google Brain und Dozent an der Stanford University, sagte, dass Benutzer bei der Eingabe von Anfragen (Eingabeaufforderungen) an die KI manchmal nicht zu detailliert sein müssen.
In einem Beitrag auf X nennt Ng dies „ Lazy Prompting “ – das Einspeisen von Informationen in die KI mit wenig oder gar keinem Kontext. „Wir sollten der Eingabeaufforderung nur dann Details hinzufügen, wenn es unbedingt nötig ist“, sagte der Mitbegründer von Coursera und DeepLearning.
Ein typisches Beispiel, das Ng anführt, sind Programmierer, die beim Debuggen oft ganze Fehlermeldungen – manchmal mehrere Seiten lang – in KI-Modelle kopieren und einfügen, ohne explizit anzugeben, was sie wollen.
„Die meisten großen Sprachmodelle (LLMs) sind intelligent genug, um zu verstehen, was Sie von ihnen analysieren lassen möchten, und um Korrekturen vorzuschlagen, auch wenn Sie dies nicht ausdrücklich sagen“, schreibt er.
![]() |
LLM geht über die Reaktion auf einfache Befehle hinaus und beginnt, die Absichten und Argumente der Benutzer zu verstehen, um geeignete Lösungen zu entwickeln. Foto: Bloomberg. |
Laut Ng ist dies ein Fortschritt, der zeigt, dass LLM allmählich über die Fähigkeit hinausgeht, auf einfache Befehle zu reagieren, und beginnt, die Absichten und Überlegungen des Benutzers zu verstehen, um entsprechende Lösungen bereitzustellen – ein Trend, dem Unternehmen, die KI-Modelle entwickeln, folgen.
Allerdings funktioniert „Lazy Prompting“ nicht immer. Ng weist darauf hin, dass diese Technik nur dann eingesetzt werden sollte, wenn Benutzer schnell testen können, beispielsweise über eine Weboberfläche oder eine KI-App, und das Modell in der Lage ist, aus wenigen Informationen auf die Absicht zu schließen.
„Wenn KI viel Kontext benötigt, um detailliert zu antworten, oder potenzielle Fehler nicht erkennen kann, hilft eine einfache Eingabeaufforderung nicht weiter“, betonte Ng.
Quelle: https://znews.vn/khong-con-ai-can-ky-su-ra-lenh-cho-ai-nua-post1549306.html
Kommentar (0)