خبراء يحذرون من أن نافذة المراقبة بالذكاء الاصطناعي تغلق
حذر أكثر من 40 باحثًا من شركات الذكاء الاصطناعي العملاقة من أن قدرة الذكاء الاصطناعي على مراقبة الأفكار تختفي وأن البشر قد يفقدون السيطرة تمامًا.
Báo Khoa học và Đời sống•27/07/2025
أصدر أكثر من 40 باحثًا من OpenAI وGoogle DeepMind وMeta وAnthropic تحذيرًا غير مسبوق بشأن مخاطر فقدان السيطرة على الذكاء الاصطناعي. بدأت النماذج الحديثة "بالتفكير" باللغة، مما يسمح للبشر باتباع المنطق الداخلي للآلة، ولكن هذا الأمر هش للغاية.
مع بعض التغييرات البسيطة في الهندسة المعمارية أو أساليب التدريب، قد تختفي قدرة الذكاء الاصطناعي على قراءة الأفكار بشكل كامل. يحذر الباحث في شركة OpenAI، بوين بيكر، من أن "قدرات المراقبة الحالية قد تكون هشة للغاية ويمكن إخفاؤها بسهولة".
ويخشى أن تتمكن الذكاء الاصطناعي في المستقبل من تعلم إخفاء أفكارها عن البشر، وخاصة عند تطبيق التعلم المعزز أو هياكل الاستدلال غير اللغوية. وفي الواقع، تم تسجيل العديد من النماذج التي تخلق مبررات كاذبة وتخفي أهدافاً حقيقية على الرغم من ضرورة الشفافية. ويدعو الخبراء إلى تطوير معايير لتقييم الشفافية وجعلها عنصرا أساسيا في تدريب الذكاء الاصطناعي.
إذا لم نتحرك بسرعة، فقد يتخلف البشر عن الركب في اللعبة التي ابتكروها، حيث "يفكر" الذكاء الاصطناعي ولكن لا أحد يفهمه. عزيزي القارئ، يرجى مشاهدة المزيد من الفيديوهات : تنظيف القمامة بالذكاء الاصطناعي | هانوي 18:00
تعليق (0)