Professor Andrew Ng ist einer der Gründer von Google Brain. Foto: Coursera . |
In einem Beitrag auf X nennt Ng dies „ Lazy Prompting “ – das Einspeisen von Informationen in die KI mit wenig oder gar keinem Kontext. „Wir sollten der Eingabeaufforderung nur dann Details hinzufügen, wenn es unbedingt nötig ist“, sagte der Mitbegründer von Coursera und DeepLearning.
Ein typisches Beispiel, das Ng anführt, sind Programmierer, die beim Debuggen oft ganze Fehlermeldungen – manchmal mehrere Seiten lang – in KI-Modelle kopieren und einfügen, ohne explizit anzugeben, was sie wollen.
„Die meisten großen Sprachmodelle (LLMs) sind intelligent genug, um zu verstehen, was Sie von ihnen analysieren lassen möchten, und um Korrekturen vorzuschlagen, auch wenn Sie das nicht ausdrücklich sagen“, schreibt er.
Laut Ng ist dies ein Fortschritt, der zeigt, dass LLM allmählich über die Fähigkeit hinausgeht, auf einfache Befehle zu reagieren, und beginnt, die Absichten und Überlegungen des Benutzers zu verstehen, um entsprechende Lösungen bereitzustellen – ein Trend, dem Unternehmen, die KI-Modelle entwickeln, folgen.
Allerdings funktioniert „Lazy Prompting“ nicht immer. Ng weist darauf hin, dass diese Technik nur dann eingesetzt werden sollte, wenn Benutzer schnell testen können, beispielsweise über eine Weboberfläche oder eine KI-App, und das Modell in der Lage ist, aus wenigen Informationen auf die Absicht zu schließen.
„Wenn KI viel Kontext benötigt, um detailliert zu reagieren, oder potenzielle Fehler nicht erkennen kann, hilft eine einfache Eingabeaufforderung nicht weiter“, betonte Ng.
Theoretisch spart Lazy Prompting Zeit und Mühe, insbesondere für Benutzer, die nicht daran gewöhnt sind, detaillierte Befehle zu schreiben. Es ist jedoch nicht für jeden eine „Abkürzung“.
Der durchschnittliche Benutzer – der nicht daran gewöhnt ist, implizites maschinelles Verständnis zu verwenden – kann mit vagen Eingabeaufforderungen Schwierigkeiten haben, die zu unerwarteten Ergebnissen führen. Sofern die KI nicht mit dem spezifischen Kontext (z. B. einem vorherigen Chat) vertraut ist oder der Benutzer Erfahrung mit der Wiederholung und schnellen Anpassung der Anfrage hat, ist dieser Ansatz nicht effektiv.
Programmierern und Personen, die viel mit KI arbeiten, hilft die Verkürzung der Eingabeaufforderung manchmal dabei, das Modell nicht durch zu viele redundante Anweisungen zu verfälschen. Ng betont daher, dass es sich um eine fortgeschrittene Technik handelt, die sich für alle eignet, die die Reaktionsfähigkeit des Modells bereits verstehen.
Quelle: https://znews.vn/chuyen-gia-ai-prompt-mu-khong-sai-post1543586.html
Kommentar (0)