كاتي تانر، مستشارة موارد بشرية في ولاية يوتا، نشرت ما اعتبرته وظيفة رائعة: وظيفة تقنية عن بُعد بالكامل تتطلب خبرة ثلاث سنوات فقط. كانت مستعدة لسيل من الطلبات، لكن ما حدث بعد ذلك فاق كل تصور.
في أول ١٢ ساعة، تدفق ٤٠٠ طلب على حسابها على لينكدإن. بعد ٢٤ ساعة، وصل هذا العدد إلى ٦٠٠. بعد بضعة أيام، عندما تجاوز عدد الطلبات ١٢٠٠، اضطرت إلى حذف المنشور من شدة الصدمة. بعد ثلاثة أشهر، لا تزال تانر تكافح وسط سيل الطلبات للعثور على مرشح مناسب.
قالت: "كان الأمر جنونيًا. كنتُ غارقةً تمامًا في الطلبات".
قصة تانر ليست حادثة معزولة، بل هي جزءٌ نموذجي مما يُطلق عليه هونغ لي، خبير التوظيف السابق، "تسونامي المرشحين" الذي يجتاح سوق العمل العالمي. والسبب الرئيسي هو الانتشار الواسع لأدوات الذكاء الاصطناعي المُولِّدة.
شهدت منصة LinkedIn، أكبر منصة توظيف في العالم ، زيادة في طلبات التوظيف بنسبة تزيد عن 45% في العام الماضي وحده، بمتوسط 11 ألف طلب تقديم كل دقيقة.
باستخدام بعض الأوامر البسيطة، يمكن لأدوات مثل ChatGPT إنشاء سيرة ذاتية وخطاب تعريفي مليئين بالكلمات المفتاحية من وصف الوظيفة، مما يخدع أنظمة الفرز الآلية. والأكثر تعقيدًا، يدفع العديد من المرشحين لـ"وكلاء الذكاء الاصطناعي" للبحث تلقائيًا عن مئات الوظائف والتقدم إليها نيابةً عنهم.
نتيجةً لذلك، يغرق مسؤولو التوظيف في بحرٍ من الارتباك. فهم لا يُرهقون فقط بأعداد المرشحين، بل يجدون صعوبةً في التمييز بين المرشحين الأكفاء حقًا، والمتحمسين حقًا للوظيفة، والمُقلّدين للذكاء الاصطناعي.
شهدت منصة LinkedIn، أكبر منصة توظيف في العالم، زيادة بنسبة 45% في طلبات التوظيف خلال العام الماضي وحده، بمتوسط 11 ألف طلب يتم تقديمه كل دقيقة (الصورة: LinkedIn).
سباق التسلح بين الذكاء الاصطناعي والذكاء الاصطناعي
في مواجهة عاصفة الملفات الشخصية المُولّدة بالذكاء الاصطناعي، لم تقف الشركات مكتوفة الأيدي. بل ردّت بسلاحها الخاص: الذكاء الاصطناعي. بدأ سباق تسلح تكنولوجي هادئ ولكنه شرس.
تستخدم العديد من الشركات الكبرى روبوتات دردشة آلية للمقابلات أو مقابلات فيديو تُحلل بالكامل بواسطة الذكاء الاصطناعي. كشف سكوت بوترايت، الرئيس التنفيذي لشركة شيبوتلي، أن أداة "أفا كادو" (Ava Cado)، وهي أداة لفرز وجدول المقابلات باستخدام الذكاء الاصطناعي، قد قللت وقت التوظيف بنسبة تصل إلى 75%. وتذهب منصة HireVue لمقابلات الفيديو إلى أبعد من ذلك، حيث تتيح لأصحاب العمل استخدام الذكاء الاصطناعي لتقييم المرشحين وتصنيفهم بناءً على تحليل الإجابات وتعابير الوجه ولغة الجسد.
لكن "قشر البرتقال السميك له أظافر حادة". كما وجد المرشحون بسرعة طرقًا لاختراق النظام. استخدموا أدوات ذكاء اصطناعي أخرى لتقديم إجابات نموذجية، وتحليل أسئلة مُحاور الذكاء الاصطناعي، وحتى إنشاء مقاطع فيديو مُزيفة للغش.
يُجبر هذا الشركات على تطوير "أسلحتها" باستمرار. أضافت HireVue اختبارات مهارات قائمة على الألعاب لتقييم التعرّف على الأنماط والذاكرة، أو "اختبارات عمل افتراضية" لاختبار الذكاء العاطفي والمهارات العملية مثل حساب التغيير. قال هونغ لي: "أحيانًا نواجه مواقف متعارضة بين الذكاء الاصطناعي والذكاء الاصطناعي".
الخطر يتجاوز التطبيقات المزيفة
لا تقتصر المشكلة على سوء صياغة السير الذاتية المُعدّة بواسطة الذكاء الاصطناعي، بل يبرز تهديدٌ أكبر وأكثر إثارةً للقلق: المتقدمون الوهميون.
في يناير/كانون الثاني، وجّهت وزارة العدل الأمريكية اتهاماتٍ لمخططٍ مُعقّدٍ لإجبار مُختصي تكنولوجيا المعلومات من كوريا الشمالية على العمل عن بُعد في مئات الشركات الأمريكية بهوياتٍ مُزوّرة. وصرحت إيمي شيبا، مُحللة تكنولوجيا الموارد البشرية في شركة غارتنر للاستشارات، بأنّ التقارير عن مُتقدّمين للوظائف يستخدمون هوياتٍ مُزوّرة آخذةٌ في الازدياد.
أصدر تقريرٌ لشركة جارتنر في أبريل تنبؤًا صادمًا: بحلول عام ٢٠٢٨، قد يكون ربع طلبات التوظيف المطروحة في السوق مزيفة. وأوصى التقرير الشركات بنشر برامج تحقق من الهوية أكثر تطورًا على وجه السرعة لحماية نفسها.
تتدخل منصات مثل لينكدإن أيضًا لمعالجة الأزمة. فقد أطلقت أدوات ذكاء اصطناعي جديدة لمساعدة كلا الطرفين على تصفية البيانات بكفاءة أكبر. وسيُطلق في أكتوبر 2024 "وكيل ذكاء اصطناعي" لمساعدة مسؤولي التوظيف على كتابة رسائل الرد، وفرز المرشحين، واقتراح ملفات تعريف شخصية محتملة.
ومن جانب المرشحين، يقال إن الميزة المدفوعة التي تسمح لهم برؤية مدى تطابق ملفهم الشخصي مع متطلبات الوظيفة ساعدت في تقليل الطلبات إلى مناصب "غير مناسبة" بنسبة 10%.
حقول الألغام القانونية والحلقات التي لا نهاية لها
يُشكّل سوء استخدام الذكاء الاصطناعي في التوظيف أيضًا حقل ألغام قانونيًا هائلًا. ويتمثل القلق الأكبر في التحيز الخوارزمي. إذ يمكن للذكاء الاصطناعي أن يكتسب، دون قصد، تحيزات مسبقة من البيانات التاريخية، مما يؤدي إلى التمييز ضد فئات معينة من المرشحين على أساس الجنس أو العرق أو العمر.
صنّف الاتحاد الأوروبي عملية التوظيف على أنها "عالية المخاطر" في قانونه للذكاء الاصطناعي، مما شدد متطلبات الرقابة والشفافية. في الولايات المتحدة، على الرغم من عدم وجود قانون اتحادي يتناول استخدام الذكاء الاصطناعي في التوظيف تحديدًا، إلا أن قوانين مكافحة التمييز الحالية قد تُطبق إذا أسفرت الخوارزمية عن نتائج متحيزة.
تحذر المحامية مارسيا جودمان، التي تمثل أصحاب العمل في كثير من الأحيان، قائلة: "القانون لا يسمح بالتمييز، ولكن من السهل قول ذلك من فعله".
ومن المفارقات أن مسؤولي التوظيف أنفسهم يُسهمون في هذه الفوضى. ووفقًا لأليكسا مارسيانو، الرئيسة التنفيذية لشركة التوظيف "سينديكات بلو"، من الطبيعي أن يُفرط المرشحون في استخدام الذكاء الاصطناعي عندما يعلمون أن أصحاب العمل يعتمدون أيضًا على أدوات الفرز الآلية. وتقول: "يقضون وقتًا طويلًا في كتابة خطابات تعريفية مُحكمة ومُتقنة، ثم يُدركون أن لا أحد يقرأها".
يعتقد جيريمي شيفيلينج، مدرب مهني، أن هذه الدورة ستستمر. فمع تزايد إحباط المرشحين من رفضهم من الأنظمة الآلية، سيميلون أكثر إلى إنفاق المال على أدوات الأتمتة. واستجابةً لذلك، سيواصل أصحاب العمل تطوير "حراس" الذكاء الاصطناعي لديهم.
يعتقد أن نهاية هذه الحرب يجب أن تكون "الصدق" من كلا الجانبين. لكنه يُقرّ بمرارة أيضًا: "قبل أن نصل إلى هذه النقطة، سيكون هناك الكثير من الناس يُهدرون الوقت والموارد والمال".
إن سوق العمل في عام 2025 في عين العاصفة، ويتعلم كل من المرشحين وأصحاب العمل كيفية تجنب الانجراف وراء هذه العاصفة.
المصدر: https://dantri.com.vn/kinh-doanh/ai-viet-cv-va-cuoc-chien-gianh-viec-lam-thoi-40-20250704141030688.htm
تعليق (0)