
در سال ۲۰۲۳، در حالی که میلیونها نفر نگران احتمال تصاحب شغلهایشان توسط مدلهای هوش مصنوعی مانند ChatGPT هستند، برخی شرکتها حاضرند صدها هزار دلار برای استخدام افرادی که میتوانند از این نسل جدید چتباتهای هوش مصنوعی بهرهبرداری کنند، بپردازند.
طبق گزارش بلومبرگ ، ظهور ChatGPT در آن زمان، حرفه جدیدی به نام مهندس سریع (Prompt Engineer) را با حقوقی تا سقف ۳۳۵۰۰۰ دلار در سال ایجاد کرد.
«با هوش مصنوعی صحبت کنید»
برخلاف برنامهنویسان سنتی، مهندسان برنامهنویسی به صورت نثر را پیشنهاد میدهند، سپس دستوراتی را که به صورت متن ساده نوشته شدهاند به سیستم هوش مصنوعی ارسال میکنند و سپس این سیستم، توضیحات را به کار واقعی تبدیل میکند.
این افراد اغلب نقصهای هوش مصنوعی را درک میکنند، که میتواند قدرت آن را افزایش دهد و استراتژیهای پیچیدهای را برای تبدیل ورودیهای ساده به نتایج واقعاً منحصر به فرد ارائه دهد.
![]() |
لنس جانک زمانی از یک دوره آنلاین که به مردم نحوه استفاده از ChatGPT را آموزش میداد، نزدیک به ۳۵۰۰۰ دلار درآمد کسب کرد. عکس: Gearrice |
لیدیا لوگان، معاون رئیس آموزش جهانی و توسعه منابع انسانی در گروه فناوری IBM، گفت: «برای استفاده مؤثر از هوش مصنوعی، باید مهارت طراحی فرمان را فرا بگیرید. بدون این مهارت، دیر یا زود حرفه شما «نابود» خواهد شد.»
با این حال، با توسعه سریع، مدلهای هوش مصنوعی اکنون در درک نیت کاربر بسیار بهتر عمل میکنند و حتی میتوانند در صورت نامشخص بودن نیت، سوالات تکمیلی بپرسند.
علاوه بر این، طبق گزارش وال استریت ژورنال ، شرکتها طیف وسیعی از کارمندان را در بخشهای مختلف در مورد چگونگی استفاده بهینه از دستورات و مدلهای هوش مصنوعی آموزش میدهند، بنابراین نیاز کمتری به یک فرد برای داشتن این تخصص وجود دارد.
به طور خاص، در یک نظرسنجی اخیر که به سفارش مایکروسافت انجام شد، از ۳۱۰۰۰ کارمند در ۳۱ کشور در مورد نقشهای جدیدی که شرکتشان در ۱۲ تا ۱۸ ماه آینده در نظر دارد اضافه کند، سوال شد. به گفته جارد اسپاتارو، مدیر بازاریابی هوش مصنوعی در محل کار مایکروسافت، مهندس فرماندهی دومین شغل از انتهای لیست بود.
در همین حال، نقشهایی مانند مربیان، دانشمندان داده و کارشناسان امنیت هوش مصنوعی در صدر فهرست قرار دارند.
اسپاتارو استدلال میکند که مدلهای زبانی بزرگ اکنون به اندازه کافی تکامل یافتهاند تا تعامل، گفتگو و آگاهی از زمینه بهتری را فراهم کنند.
برای مثال، ابزار تحقیقاتی مبتنی بر هوش مصنوعی مایکروسافت سوالات تکمیلی میپرسد، وقتی چیزی را نمیفهمد به کاربر اطلاع میدهد و از او در مورد اطلاعات ارائه شده بازخورد میخواهد. به عبارت دیگر، اسپاتارو میگوید: «لازم نیست جملات بینقصی داشته باشید.»
سریع "کور" اشتباه نیست
به گفته هانا کالهون، معاون هوش مصنوعی در پلتفرم جستجوی شغل Indeed، در حال حاضر آگهیهای شغلی بسیار کمی برای مهندسان فرماندهی وجود دارد.
در ژانویه ۲۰۲۳، تنها چند ماه پس از راهاندازی ChatGPT، تعداد جستجوهای کاربران در Indeed برای این نقش به ۱۴۴ مورد در هر یک میلیون جستجو افزایش یافت. با این حال، از آن زمان، این تعداد در حدود ۲۰ تا ۳۰ مورد در هر یک میلیون جستجو ثابت مانده است.
![]() |
مهندسان سریع، مهندسانی هستند که وظیفهشان نوشتن سوال یا دادن دستور به ابزارهای هوش مصنوعی مانند ChatGPT است. عکس: Riku AI. |
علاوه بر کاهش تقاضا، که ناشی از بودجههای محدود و افزایش عدم قطعیت اقتصادی است، شرکتها در سالهای اخیر در مورد استخدام به طور کلی بسیار محتاطتر بودهاند.
شرکتهایی مانند Nationwide Insurance، Carhartt Workwear و New York Life Insurance همگی میگویند که هرگز مهندسان فرماندهی استخدام نکردهاند، در عوض مهارتهای فرماندهی بهتر را به عنوان مهارتی میدانند که همه کارمندان فعلی میتوانند در آن آموزش ببینند.
جیم فاولر، مدیر ارشد فناوری شرکت Nationwide، میگوید: «چه در بخش مالی، منابع انسانی یا حقوقی باشید، ما این را به عنوان یک قابلیت در یک عنوان شغلی میبینیم، نه یک عنوان شغلی جداگانه.»
پروفسور اندرو نگ، بنیانگذار گوگل برین و مدرس دانشگاه استنفورد، گفت که گاهی اوقات کاربران هنگام وارد کردن درخواستها (دستورات) برای هوش مصنوعی نیازی به جزئیات بیش از حد ندارند.
آقای نگ در پستی در X، این روش را « فراخوانی تنبلانه » مینامد - یعنی دادن اطلاعات به هوش مصنوعی بدون زمینهی کافی یا بدون دستورالعمل مشخص. «ما فقط باید در مواقع ضروری جزئیات را به فراخوان اضافه کنیم.» این گفتهی یکی از بنیانگذاران Coursera و DeepLearning است.
انجی مثالی معمول از برنامهنویسانی ارائه میدهد که در حال اشکالزدایی هستند و اغلب کل پیامهای خطا - گاهی چندین صفحه - را بدون بیان صریح خواسته خود، در مدلهای هوش مصنوعی کپی و پیست میکنند.
او مینویسد: «بیشتر مدلهای زبانی بزرگ (LLM) به اندازه کافی هوشمند هستند که بفهمند شما برای تجزیه و تحلیل و پیشنهاد اصلاحات به چه چیزی نیاز دارید، حتی اگر صریحاً این را نگویید.»
![]() |
LLM فراتر از پاسخ دادن به دستورات ساده حرکت میکند و شروع به درک قصد و استدلال کاربر برای ارائه راهحلهای مناسب میکند. عکس: بلومبرگ |
به گفته نگ، این یک گام رو به جلو است که نشان میدهد LLM به تدریج فراتر از توانایی پاسخ به دستورات ساده حرکت میکند و شروع به درک نیت و استدلال کاربر برای ارائه راهحلهای مناسب میکند - روندی که شرکتهای توسعهدهنده مدلهای هوش مصنوعی دنبال میکنند.
با این حال، «دستور تنبلی» همیشه کارساز نیست. نگ خاطرنشان میکند که این تکنیک فقط باید زمانی استفاده شود که کاربران بتوانند به سرعت آزمایش کنند، مانند رابط وب یا یک برنامه هوش مصنوعی، و مدل قادر به استنباط هدف از اطلاعات کم باشد.
آقای نگ تأکید کرد: «اگر هوش مصنوعی برای پاسخگویی دقیق به اطلاعات زیادی نیاز داشته باشد یا نتواند خطاهای احتمالی را تشخیص دهد، یک درخواست ساده کمکی نخواهد کرد.»
منبع: https://znews.vn/khong-con-ai-can-ky-su-ra-lenh-cho-ai-nua-post1549306.html













نظر (0)