
Während sich im Jahr 2023 Millionen von Menschen Sorgen darüber machen, dass künstliche Intelligenzmodelle wie ChatGPT ihnen die Arbeitsplätze wegnehmen könnten, sind einige Unternehmen bereit, Hunderttausende von Dollar zu zahlen, um Leute anzuwerben, die diese neue Generation von KI-Chatbots nutzen können.
Laut Bloomberg schuf das Aufkommen von ChatGPT zu dieser Zeit einen neuen Beruf namens Prompt Engineer mit einem Gehalt von bis zu 335.000 USD pro Jahr.
"Sprich mit der KI"
Im Gegensatz zu traditionellen Programmierern schlagen Ingenieure vor, in Prosa zu programmieren und dann Befehle in Klartext an das KI-System zu senden, das die Beschreibungen dann in tatsächliche Arbeit umsetzt.
Diese Menschen verstehen oft die Schwächen der KI, was ihnen ermöglicht, ihre Leistungsfähigkeit zu steigern und komplexe Strategien zu entwickeln, um aus einfachen Eingaben wirklich einzigartige Ergebnisse zu erzielen.
![]() |
Lance Junck verdiente einst fast 35.000 US-Dollar mit einem Online-Kurs, in dem er anderen die Nutzung von ChatGPT beibrachte. Foto: Gearrice. |
„Um KI effektiv einzusetzen, müssen Sie die Fähigkeit zur Befehlsgestaltung beherrschen. Ohne diese Fähigkeit wird Ihre Karriere früher oder später ruiniert sein“, sagte Lydia Logan, Vizepräsidentin für globale Aus- und Weiterbildung sowie Personalentwicklung bei der IBM Technology Group.
Durch die rasante Entwicklung sind KI-Modelle heute jedoch viel besser darin, die Absichten der Nutzer zu verstehen und können sogar Nachfragen stellen, wenn die Absicht unklar ist.
Laut WSJ schulen Unternehmen zudem eine breite Palette von Mitarbeitern aus verschiedenen Abteilungen darin, wie sie Befehle und KI-Modelle am besten einsetzen können, sodass es weniger notwendig ist, dass eine einzelne Person über dieses Fachwissen verfügt.
Konkret wurden in einer kürzlich von Microsoft in Auftrag gegebenen Umfrage 31.000 Mitarbeiter in 31 Ländern zu den neuen Rollen befragt, die ihr Unternehmen in den nächsten 12 bis 18 Monaten einführen möchte. Laut Jared Spataro, Marketingdirektor für KI am Arbeitsplatz bei Microsoft, rangierte der Stelleninhaber „Command Engineer“ auf dem vorletzten Platz der Liste.
Berufe wie Trainer, Datenwissenschaftler und KI-Sicherheitsexperten stehen derweil ganz oben auf der Liste.
Spataro argumentiert, dass große Sprachmodelle mittlerweile so weit entwickelt seien, dass sie eine bessere Interaktion, einen besseren Dialog und ein besseres Kontextbewusstsein ermöglichen.
Das KI-basierte Recherchetool von Microsoft stellt beispielsweise Nachfragen, informiert den Nutzer, wenn es etwas nicht versteht, und bittet um Feedback zu den bereitgestellten Informationen. Mit anderen Worten, so Spataro, „man muss keine perfekten Sätze formulieren“.
Die Aufforderung „blind“ ist nicht falsch.
Laut Hannah Calhoon, Vizepräsidentin für KI bei der Jobbörse Indeed, gibt es derzeit nur sehr wenige Stellenangebote für Kommandoingenieure.
Im Januar 2023, nur wenige Monate nach dem Start von ChatGPT, schnellten die Suchanfragen nach dieser Stelle auf Indeed auf 144 pro Million Suchanfragen in die Höhe. Seitdem hat sich diese Zahl jedoch bei etwa 20–30 pro Million Suchanfragen eingependelt.
![]() |
Prompt Engineers sind Ingenieure, die Fragen formulieren oder Befehle an KI-Tools wie ChatGPT erteilen. Foto: Riku AI. |
Neben dem Nachfragerückgang, der durch knappe Budgets und wachsende wirtschaftliche Unsicherheit bedingt ist, sind die Unternehmen in den letzten Jahren auch generell viel vorsichtiger bei der Einstellung von Mitarbeitern geworden.
Unternehmen wie Nationwide Insurance, Carhartt Workwear und New York Life Insurance geben an, noch nie Kommandoingenieure eingestellt zu haben, sondern bessere Führungsfähigkeiten als eine Fähigkeit zu betrachten, in der alle derzeitigen Mitarbeiter geschult werden können.
„Ob im Finanzwesen, im Personalwesen oder im Rechtsbereich – wir sehen dies als eine Fähigkeit innerhalb einer Stellenbezeichnung, nicht als eine separate Stellenbezeichnung“, sagt Jim Fowler, Chief Technology Officer von Nationwide.
Professor Andrew Ng, Gründer von Google Brain und Dozent an der Stanford University, sagte, dass Benutzer manchmal nicht allzu detailliert sein müssen, wenn sie Anfragen (Aufforderungen) an die KI stellen.
In einem Beitrag auf X bezeichnet Herr Ng diese Methode als „ faule Eingabe “ – also die Eingabe von Informationen in eine KI mit wenig Kontext oder ohne konkrete Anweisungen. „Wir sollten der Eingabeaufforderung nur dann Details hinzufügen, wenn dies unbedingt notwendig ist“, so der Mitbegründer von Coursera und DeepLearning.
Ng nennt ein typisches Beispiel für Programmierer, die beim Debuggen oft ganze Fehlermeldungen – manchmal mehrere Seiten lang – in KI-Modelle kopieren und einfügen, ohne explizit anzugeben, was sie eigentlich wollen.
„Die meisten großen Sprachmodelle (LLMs) sind intelligent genug, um zu verstehen, was Sie von ihnen erwarten und um Korrekturen vorzuschlagen, selbst wenn Sie dies nicht explizit angeben“, schreibt er.
![]() |
LLM geht über die reine Ausführung einfacher Befehle hinaus und beginnt, die Absicht und die Denkweise der Nutzer zu verstehen, um passende Lösungen zu entwickeln. Foto: Bloomberg. |
Laut Ng ist dies ein Schritt nach vorn, der zeigt, dass LLM allmählich über die Fähigkeit hinausgeht, auf einfache Befehle zu reagieren, und beginnt, die Absichten und Denkweisen des Benutzers zu verstehen, um geeignete Lösungen zu finden – ein Trend, den Unternehmen, die KI-Modelle entwickeln, verfolgen.
Allerdings funktioniert „faules Prompting“ nicht immer. Ng merkt an, dass diese Technik nur dann eingesetzt werden sollte, wenn Nutzer schnell testen können, beispielsweise über eine Weboberfläche oder eine KI-App, und das Modell in der Lage ist, die Absicht aus wenigen Informationen abzuleiten.
„Wenn die KI viel Kontext benötigt, um detailliert antworten zu können, oder potenzielle Fehler nicht erkennen kann, dann hilft eine einfache Aufforderung nicht weiter“, betonte Herr Ng.
Quelle: https://znews.vn/khong-con-ai-can-ky-su-ra-lenh-cho-ai-nua-post1549306.html













Kommentar (0)