
অ্যানথ্রপিক সতর্ক করে দিয়েছে যে এআই প্রতিক্রিয়াগুলিকে বিকৃত করার জন্য দূষিত ডেটা সন্নিবেশ করা কল্পনার চেয়ে অনেক সহজ - ছবি: ফ্রিপিক
কৃত্রিম বুদ্ধিমত্তা কোম্পানি অ্যানথ্রপিক, চ্যাটবট ক্লডের বিকাশকারী, সম্প্রতি একটি গবেষণা প্রকাশ করেছে যা দেখায় যে বৃহৎ ভাষা মডেলগুলিকে (LLM) "বিষাক্ত" করা, অর্থাৎ, AI প্রতিক্রিয়াগুলিকে বিকৃত করার জন্য দূষিত ডেটা সন্নিবেশ করা, কল্পনার চেয়ে অনেক সহজ।
সাইবার নিউজের মতে, মাত্র ২৫০টি বিশেষভাবে তৈরি নথিই যথেষ্ট যে একটি জেনারেটিভ এআই (জেনাএআই) মডেল একটি নির্দিষ্ট ট্রিগার বাক্যাংশের মুখোমুখি হলে সম্পূর্ণ ভুল উত্তর দেয়।
উদ্বেগের বিষয় হল, মডেলের আকার এই ঝুঁকি কমাতে পারে না। পূর্বে, গবেষকরা ভেবেছিলেন যে মডেলটি যত বড় হবে, "ব্যাকডোর" ইনস্টল করার জন্য তত বেশি ক্ষতিকারক ডেটার প্রয়োজন হবে।
কিন্তু অ্যানথ্রপিক দাবি করে যে ১৩ বিলিয়ন প্যারামিটার মডেল - যা ২০ গুণেরও বেশি ডেটার উপর প্রশিক্ষিত - এবং ৬০ কোটি প্যারামিটার মডেল উভয়ই একই সংখ্যক "বিষাক্ত" নথির সাথে আপস করা যেতে পারে।
"এই আবিষ্কারটি এই ধারণাকে চ্যালেঞ্জ করে যে একজন আক্রমণকারীকে প্রশিক্ষণের তথ্যের একটি নির্দিষ্ট শতাংশ নিয়ন্ত্রণ করতে হবে। আসলে, তাদের খুব কম নির্দিষ্ট পরিমাণের প্রয়োজন হতে পারে," অ্যানথ্রোপিক জোর দিয়ে বলেছেন।
কোম্পানিটি সতর্ক করে দিয়েছে যে এই দুর্বলতাগুলি AI সিস্টেমের নিরাপত্তার জন্য গুরুতর ঝুঁকি তৈরি করতে পারে এবং সংবেদনশীল এলাকায় প্রযুক্তির প্রয়োগকে হুমকির মুখে ফেলতে পারে।
সূত্র: https://tuoitre.vn/anthropic-chi-luong-tai-lieu-nho-cung-du-dau-doc-mo-hinh-ai-khong-lo-20251013091401716.htm
মন্তব্য (0)