জার্মানির একদল গবেষক সম্প্রতি গবেষণার বিষয়বস্তু সংক্ষিপ্ত করার জন্য AI চ্যাটবট ব্যবহার করার সময় পক্ষপাতের ঝুঁকি সম্পর্কে সতর্ক করেছেন। মানুষের লেখা 4,900টি বৈজ্ঞানিক সারাংশ বিশ্লেষণ করার পর, দলটি এই সিস্টেমগুলি কীভাবে তথ্য প্রক্রিয়াকরণ করে তা তুলনা করার জন্য বেশ কয়েকটি AI মডেল ব্যবহার করেছে। ফলাফলগুলি দেখায় যে বেশিরভাগ চ্যাটবট অতিরিক্ত সাধারণীকরণের ভুল করেছে, এমনকি যখন সঠিকভাবে সারসংক্ষেপ করার জন্য অনুরোধ করা হয়েছিল।
বৈজ্ঞানিক গবেষণার সারসংক্ষেপ তৈরির সময় AI পক্ষপাতদুষ্টতার প্রবণতা রাখে।
পরীক্ষায়, AI মডেলগুলি মানব বিশেষজ্ঞদের তুলনায় পাঁচগুণ বেশি ভুল করেছে যখন তাদের কোনও নির্দেশনা দেওয়া হয়নি। এমনকি যখন স্পষ্টভাবে সঠিকতা চাওয়া হয়েছিল, তখনও ত্রুটির হার একটি আদর্শ সারাংশের তুলনায় দ্বিগুণ বেশি ছিল। "সাধারণীকরণ কখনও কখনও ক্ষতিকারক বলে মনে হয়, কিন্তু তারা আসলে মূল গবেষণার প্রকৃতি পরিবর্তন করে," দলের একজন বলেন। "এটি একটি পদ্ধতিগত পক্ষপাত।"
উল্লেখযোগ্যভাবে, চ্যাটবটের নতুন সংস্করণগুলি কেবল সমস্যাটি সমাধান করতে ব্যর্থ হয়নি, বরং এটিকে আরও বাড়িয়ে তুলেছে। তাদের মসৃণ এবং আকর্ষণীয় ভাষার কারণে, AI-উত্পাদিত সারাংশগুলি সহজেই বিশ্বাসযোগ্য বলে মনে হতে পারে, যখন প্রকৃত বিষয়বস্তু বিকৃত করা হয়েছে। একটি ক্ষেত্রে, DeepSeek "নিরাপদ এবং সফলভাবে সম্পাদন করা যেতে পারে" বাক্যাংশটিকে "নিরাপদ এবং কার্যকর চিকিৎসা" এ পরিবর্তন করেছে - যা মূল গবেষণার সিদ্ধান্তের ভুল ব্যাখ্যা।
অন্য একটি উদাহরণে, লামা মডেল ডোজ, ফ্রিকোয়েন্সি বা পার্শ্ব প্রতিক্রিয়া নির্দিষ্ট না করেই তরুণদের জন্য ডায়াবেটিসের ওষুধের সুপারিশ করেছে। পাঠক যদি একজন ডাক্তার বা স্বাস্থ্যসেবা পেশাদার হন যিনি মূল গবেষণাটি যাচাই করেন না, তাহলে এই ধরণের সারসংক্ষেপ রোগীদের জন্য সরাসরি ঝুঁকি তৈরি করতে পারে।
বিশেষজ্ঞরা বলছেন যে এই ঘটনাটি মূলত AI মডেলগুলিকে যেভাবে প্রশিক্ষণ দেওয়া হয় তার মধ্যেই নিহিত। আজকাল অনেক চ্যাটবটকে সেকেন্ডারি ডেটার উপর প্রশিক্ষণ দেওয়া হয়—যেমন জনপ্রিয় বিজ্ঞান সংবাদ—যা ইতিমধ্যেই সরলীকৃত করা হয়েছে। AI যত সংক্ষিপ্ত বিষয়বস্তুকে সারসংক্ষেপ করতে থাকে, বিকৃতির ঝুঁকি তত বাড়ে।
মানসিক স্বাস্থ্য ক্ষেত্রে AI বিশেষজ্ঞরা বলছেন যে AI-এর বিকাশ এবং ব্যবহারের প্রাথমিক পর্যায়ে প্রযুক্তিগত বাধাগুলি তৈরি করা দরকার।
ব্যবহারকারীদের সতর্ক থাকতে হবে কারণ চ্যাটবটগুলি সহজেই বিষয়বস্তু বিকৃত করতে পারে।
বিজ্ঞান সম্পর্কে জানার জন্য ব্যবহারকারীরা ক্রমবর্ধমানভাবে কৃত্রিম বুদ্ধিমত্তা (এআই) চ্যাটবটের উপর নির্ভরশীল হওয়ায়, ব্যাখ্যার ক্ষেত্রে ছোট ছোট ভুল দ্রুত জমা হতে পারে এবং ছড়িয়ে পড়তে পারে, যার ফলে ব্যাপক ভুল ধারণা তৈরি হয়। এমন এক সময়ে যখন বিজ্ঞানের উপর আস্থা হ্রাস পাচ্ছে, এই ঝুঁকি আরও উদ্বেগজনক হয়ে ওঠে এবং যথাযথ মনোযোগের দাবি রাখে।
গবেষণা এবং জ্ঞানের প্রচারে AI-এর একীভূতকরণ একটি অপরিবর্তনীয় প্রবণতা। তবে, বিশেষজ্ঞরা নিশ্চিত করেছেন যে প্রযুক্তি বৈজ্ঞানিক বিষয়বস্তু বোঝার এবং যাচাই করার ক্ষেত্রে মানুষের ভূমিকা প্রতিস্থাপন করতে পারে না। চিকিৎসার মতো উচ্চ-ঝুঁকিপূর্ণ ক্ষেত্রে চ্যাটবট ব্যবহার করার সময়, কেবলমাত্র মসৃণ ভাষা অভিজ্ঞতা বা প্রতিক্রিয়ার গতির উপর মনোযোগ দেওয়ার পরিবর্তে নির্ভুলতা সর্বোচ্চ অগ্রাধিকার হওয়া উচিত।
সূত্র: https://khoahocdoisong.vn/chatgpt-deepseek-bop-meo-du-lieu-khoa-hoc-post1552971.html










মন্তব্য (0)