চিত্রের ছবি
তবে, একটি এআই মডেল যা এমনভাবে কাজ করে যেন তারা আদেশ পালন করছে কিন্তু আসলে তাদের আসল উদ্দেশ্য গোপন করে, তা অন্য বিষয়।
এআই নিয়ন্ত্রণের চ্যালেঞ্জ
অ্যাপোলো রিসার্চ ডিসেম্বরে প্রথম একটি গবেষণাপত্র প্রকাশ করে যেখানে পাঁচটি মডেল যখন "যে কোনও মূল্যে" লক্ষ্য অর্জনের নির্দেশ পায়, তখন কীভাবে তারা পরিকল্পনা করে তা নথিভুক্ত করা হয়।
সবচেয়ে আশ্চর্যের বিষয় হল, যদি কোনও মডেল বুঝতে পারে যে এটি পরীক্ষা করা হচ্ছে, তবে পরীক্ষায় উত্তীর্ণ হওয়ার জন্য এটি ষড়যন্ত্রমূলক না হওয়ার ভান করতে পারে, এমনকি যদি এটি এখনও ষড়যন্ত্রমূলক হয়। "মডেলরা প্রায়শই বেশি সচেতন থাকে যে তাদের মূল্যায়ন করা হচ্ছে," গবেষকরা লিখেছেন।
AI ডেভেলপাররা এখনও তাদের মডেলগুলিকে প্লট না করার প্রশিক্ষণ দেওয়ার উপায় খুঁজে বের করতে পারেনি। কারণ এটি করার ফলে মডেলটি সনাক্তকরণ এড়াতে আরও ভালভাবে প্লট করতে শেখাতে পারে।
এটা বোধগম্য যে অনেক পক্ষের কৃত্রিম বুদ্ধিমত্তা মডেলগুলি ইচ্ছাকৃতভাবে মানুষকে প্রতারিত করবে, কারণ এগুলি মানুষের অনুকরণের জন্য তৈরি এবং মূলত মানুষের তৈরি ডেটার উপর প্রশিক্ষিত।
সমাধান এবং সতর্কতা
সুখবর হলো, গবেষকরা "ইচ্ছাকৃতভাবে মেলামেশা" নামক একটি ষড়যন্ত্র-বিরোধী কৌশল ব্যবহার করে ষড়যন্ত্রের ক্ষেত্রে উল্লেখযোগ্য হ্রাস লক্ষ্য করেছেন। এই কৌশলটি, শিশুকে খেলার অনুমতি দেওয়ার আগে নিয়মগুলি পুনরাবৃত্তি করার মতো, AI কে কাজ করার আগে ভাবতে বাধ্য করে।
গবেষকরা ভবিষ্যতের এমন এক পরিস্থিতি সম্পর্কে সতর্ক করে দিচ্ছেন যেখানে AI-কে আরও জটিল কাজের দায়িত্ব দেওয়া হবে: "যেহেতু AI-কে আরও জটিল কাজের দায়িত্ব দেওয়া হবে এবং দীর্ঘমেয়াদী লক্ষ্য অর্জনে অক্ষম করা হবে, আমরা ভবিষ্যদ্বাণী করছি যে দূষিত অভিপ্রায়ের সম্ভাবনা বৃদ্ধি পাবে, যার জন্য প্রয়োজনীয় সুরক্ষা ব্যবস্থা এবং কঠোর পরীক্ষার ক্ষমতা বৃদ্ধি পাবে।"
কর্পোরেট বিশ্ব যখন এমন একটি AI ভবিষ্যতের দিকে এগিয়ে যাচ্ছে যেখানে কোম্পানিগুলি বিশ্বাস করে যে AI-কে স্বাধীন কর্মচারীর মতো বিবেচনা করা যেতে পারে, তখন এটি বিবেচনা করার মতো বিষয়।
সূত্র: https://doanhnghiepvn.vn/chuyen-doi-so/phat-hien-mo-hinh-ai-biet-lua-doi-con-nguoi/20250919055143362
মন্তব্য (0)