Vietnam.vn - Nền tảng quảng bá Việt Nam

এআই চ্যাটবটগুলি 'পাগল' হয়ে উঠছে

ওপেনএআই-এর মতো কোম্পানিগুলির "অনুমান" সিস্টেমের একটি নতুন ঢেউ ভুল তথ্যের ঘটনাকে আরও ঘন ঘন ঘটাচ্ছে। বিপদ হল যে কোম্পানিগুলি জানে না কেন।

ZNewsZNews08/05/2025

এপ্রিল মাসে, প্রোগ্রামারদের জন্য একটি উদীয়মান হাতিয়ার, কার্সরের জন্য প্রযুক্তিগত সহায়তা পরিচালনাকারী একটি এআই বট, কিছু গ্রাহককে কোম্পানির নীতিতে পরিবর্তনের বিষয়ে অবহিত করে, বিশেষ করে বলে যে তাদের আর একাধিক কম্পিউটারে কার্সর ব্যবহার করার অনুমতি নেই।

গ্রাহকরা ফোরাম এবং সোশ্যাল মিডিয়ায় তাদের ক্ষোভ প্রকাশ করেছেন। কেউ কেউ তাদের কার্সার অ্যাকাউন্ট বাতিলও করেছেন। কিন্তু কেউ কেউ আরও রেগে গিয়েছিলেন যখন তারা বুঝতে পেরেছিলেন যে কী ঘটেছে: এআই বট একটি নীতিগত পরিবর্তনের কথা জানিয়েছে যা বিদ্যমান ছিল না।

"আমাদের এমন কোনও নীতি নেই। অবশ্যই আপনি একাধিক মেশিনে কার্সার ব্যবহার করতে পারেন। দুর্ভাগ্যবশত, এটি একটি AI-চালিত বট থেকে একটি ভুল প্রতিক্রিয়া ছিল," কোম্পানির সিইও এবং সহ-প্রতিষ্ঠাতা মাইকেল ট্রুয়েল একটি রেডিট পোস্টে লিখেছেন।

ভুয়া তথ্য নিয়ন্ত্রণের বাইরে।

ChatGPT চালু হওয়ার দুই বছরেরও বেশি সময় পরে, প্রযুক্তি কোম্পানি, অফিস কর্মী এবং দৈনন্দিন গ্রাহকরা ক্রমবর্ধমান ফ্রিকোয়েন্সি সহ বিভিন্ন কাজের জন্য AI বট ব্যবহার করছেন।

তবুও এই সিস্টেমগুলি সঠিক তথ্য তৈরি করছে কিনা তা নিশ্চিত করার কোনও উপায় নেই। বিদ্রূপাত্মকভাবে, ওপেনএআই, গুগল এবং ডিপসিকের মতো কোম্পানিগুলির "অনুমান" সিস্টেম নামে পরিচিত সবচেয়ে শক্তিশালী নতুন প্রযুক্তিগুলি আরও ত্রুটি তৈরি করছে।

AI anh 1

চ্যাটজিপিটি-তে অর্থহীন কথোপকথন যেখানে ব্যবহারকারী জিজ্ঞাসা করছেন কুকুরদের কি সিরিয়াল খাওয়া উচিত। ছবি: রেডডিট।

যদিও গাণিতিক দক্ষতা নাটকীয়ভাবে উন্নত হয়েছে, তবুও বৃহৎ ভাষা মডেল (LLM) এর সত্য ধরার ক্ষমতা আরও নড়বড়ে হয়ে পড়েছে। আশ্চর্যজনকভাবে, এমনকি প্রকৌশলীরাও কেন তা সম্পূর্ণরূপে স্পষ্ট নন।

নিউ ইয়র্ক টাইমসের মতে, আজকের এআই চ্যাটবটগুলি বিপুল পরিমাণ ডিজিটাল ডেটা বিশ্লেষণ করে দক্ষতা অর্জনের জন্য জটিল গাণিতিক সিস্টেমের উপর নির্ভর করে। তবে, তারা কোনটি সঠিক এবং কোনটি ভুল তা নির্ধারণ করতে পারে না।

সেখান থেকে, "হ্যালুসিনেশন" বা তথ্যের স্ব-নির্মাণের অবস্থা দেখা দেয়। প্রকৃতপক্ষে, গবেষণা অনুসারে, সর্বশেষ প্রজন্মের এলএলএমগুলি কিছু পুরানো মডেলের তুলনায় আরও বেশি "হ্যালুসিনেট" করে।

বিশেষ করে, সর্বশেষ প্রতিবেদনে, OpenAI আবিষ্কার করেছে যে PersonQA-তে ৩৩% প্রশ্নের উত্তর দেওয়ার সময় o3 মডেলটি "হ্যালুসিনেটেড" ছিল, যা মানুষ সম্পর্কে মডেলের জ্ঞানের নির্ভুলতা পরিমাপের জন্য কোম্পানির অভ্যন্তরীণ মান।

তুলনা করার জন্য, এটি OpenAI-এর পূর্ববর্তী যুক্তি মডেল, o1 এবং o3-mini-এর "হ্যালুসিনেশন" হারের দ্বিগুণ, যা যথাক্রমে 16% এবং 14.8% ভোগ করেছে। এদিকে, o4-মিনি মডেলটি PersonQA-তে আরও খারাপ পারফর্ম করেছে, 48% সময় "হ্যালুসিনেশন" ভোগ করেছে।

আরও উদ্বেগের বিষয় হল, "চ্যাটজিপিটির জনক" আসলে জানেন না কেন এটি ঘটে। বিশেষ করে, o3 এবং o4-মিনির প্রযুক্তিগত প্রতিবেদনে, OpenAI লিখেছেন যে "যুক্তি মডেলগুলি স্কেল করার সাথে সাথে "বিভ্রম" কেন আরও খারাপ হয় তা বোঝার জন্য আরও গবেষণা প্রয়োজন"।

o3 এবং o4-মিনি কিছু ক্ষেত্রে ভালো পারফর্ম করেছে, যার মধ্যে রয়েছে প্রোগ্রামিং এবং গণিত-সম্পর্কিত কাজ। তবে, যেহেতু তাদের "সাধারণীকরণের চেয়ে বেশি বিবৃতি দেওয়ার" প্রয়োজন ছিল, তাই উভয় মডেলই "আরও সঠিক বিবৃতি তৈরি করতে পারেনি, তবে আরও ভুলও তৈরি করতে পারেনি।"

"ওটা কখনোই যাবে না"

মানব প্রকৌশলীদের দ্বারা নির্ধারিত কঠোর নিয়মের পরিবর্তে, LLM সিস্টেমগুলি সর্বোত্তম প্রতিক্রিয়া অনুমান করার জন্য গাণিতিক সম্ভাব্যতা ব্যবহার করে। তাই তারা সর্বদা কিছু পরিমাণে ত্রুটি করে।

"আমাদের সর্বোত্তম প্রচেষ্টা সত্ত্বেও, AI মডেলগুলি সর্বদা বিভ্রান্তিকর হবে। এটি কখনই দূর হবে না," বলেছেন গুগলের প্রাক্তন নির্বাহী আমর আওয়াদাল্লাহ।

AI anh 2

আইবিএম-এর মতে, হ্যালুসিনেশন হল এমন একটি ঘটনা যেখানে বৃহৎ ভাষা মডেল (এলএলএম) - সাধারণত চ্যাটবট বা কম্পিউটার ভিশন টুল - এমন ডেটা প্যাটার্ন গ্রহণ করে যা বিদ্যমান নয় বা মানুষের কাছে অচেনা, যার ফলে অর্থহীন বা বিভ্রান্তিকর ফলাফল তৈরি হয়। ছবি: আইস্টক।

পরীক্ষা-নিরীক্ষা সম্পর্কে একটি বিস্তারিত গবেষণাপত্রে, OpenAI বলেছে যে এই ফলাফলের কারণগুলি বোঝার জন্য আরও গবেষণার প্রয়োজন।

বিশেষজ্ঞরা বলছেন, যেহেতু AI সিস্টেমগুলি মানুষের বোধগম্যতার চেয়ে অনেক বেশি পরিমাণে তথ্য থেকে শেখে, তাই তারা কেন এমন আচরণ করে তা নির্ধারণ করা কঠিন হতে পারে।

"ইনফারেন্স মডেলগুলিতে ভ্রমগুলি সহজাতভাবে বেশি দেখা যায়, যদিও আমরা o3 এবং o4-মিনিতে দেখা ঘটনা কমাতে সক্রিয়ভাবে কাজ করছি। নির্ভুলতা এবং নির্ভরযোগ্যতা উন্নত করার জন্য আমরা সমস্ত মডেল জুড়ে ভ্রম নিয়ে কাজ চালিয়ে যাব," বলেছেন ওপেনএআই-এর মুখপাত্র গ্যাবি রাইলা।

একাধিক স্বাধীন কোম্পানি এবং গবেষকদের পরীক্ষায় দেখা গেছে যে গুগল বা ডিপসিকের মতো কোম্পানির ইনফারেন্স মডেলগুলির ক্ষেত্রেও হ্যালুসিনেশনের হার বাড়ছে।

২০২৩ সালের শেষের দিক থেকে, আওয়াদাল্লাহর কোম্পানি, ভেক্টারা, চ্যাটবটগুলি কত ঘন ঘন তথ্য ভুলভাবে উপস্থাপন করছে তা ট্র্যাক করছে। কোম্পানিটি সিস্টেমগুলিকে নির্দিষ্ট সংবাদ নিবন্ধগুলির সারসংক্ষেপের একটি সহজ, সহজেই যাচাইযোগ্য কাজ সম্পাদন করতে বলেছিল। তবুও, চ্যাটবটগুলি তথ্য জাল করার কাজ চালিয়ে গিয়েছিল।

বিশেষ করে, ভেক্টারার প্রাথমিক গবেষণায় অনুমান করা হয়েছে যে এই পরিস্থিতিতে, চ্যাটবটগুলি কমপক্ষে 3% সময় তথ্য তৈরি করে, এবং কখনও কখনও 27% পর্যন্ত।

গত দেড় বছরে, ওপেনএআই এবং গুগলের মতো কোম্পানিগুলি এই সংখ্যাগুলি প্রায় ১ বা ২% এ কমিয়ে এনেছে। অন্যান্য, যেমন সান ফ্রান্সিসকো স্টার্টআপ অ্যানথ্রোপিক, ৪% এর কাছাকাছি অবস্থান করে।

তবে, এই পরীক্ষায় ইনফারেন্স সিস্টেমের জন্য হ্যালুসিনেশনের হার বৃদ্ধি পেতে থাকে। ডিপসিকের R1 ইনফারেন্স সিস্টেমের জন্য হ্যালুসিনেশনের ফ্রিকোয়েন্সি 14.3% বৃদ্ধি পেয়েছে, যেখানে OpenAI এর o3 6.8% বৃদ্ধি পেয়েছে।

আরেকটি সমস্যা হল, অনুমান মডেলগুলি জটিল সমস্যাগুলি সম্পর্কে "চিন্তা" করার জন্য সময় ব্যয় করার জন্য ডিজাইন করা হয়, এবং চূড়ান্ত উত্তর দেওয়ার আগে।

AI anh 3

ম্যাকওএস ১৫.১ এর প্রথম পরীক্ষামূলক সংস্করণে অ্যাপল কর্তৃক এআই-কে তথ্য জাল করা থেকে বিরত রাখার জন্য একটি প্রম্পট সন্নিবেশ করা হয়েছিল। ছবি: Reddit/devanxd2000।

তবে, এর নেতিবাচক দিক হলো, AI মডেলটি ধাপে ধাপে সমস্যা সমাধানের চেষ্টা করার সাথে সাথে প্রতিটি ধাপে এটি হ্যালুসিনেশনের জন্য আরও সংবেদনশীল হয়ে ওঠে। আরও গুরুত্বপূর্ণ বিষয় হল, মডেলটি চিন্তাভাবনায় বেশি সময় ব্যয় করলে ত্রুটিগুলি জমা হতে পারে।

সর্বশেষ বটগুলি ব্যবহারকারীদের প্রতিটি ধাপ দেখায়, যার অর্থ ব্যবহারকারীরা প্রতিটি ত্রুটিও দেখতে পারেন। গবেষকরা আরও দেখেছেন যে অনেক ক্ষেত্রে, চ্যাটবট যে চিন্তাভাবনা দেখায় তা আসলে এটি যে চূড়ান্ত উত্তর দেয় তার সাথে সম্পর্কিত নয়।

"সিস্টেমটি যা বলছে তা আসলে যা ভাবছে তা নয়," বলেছেন এডিনবার্গ বিশ্ববিদ্যালয়ের এআই গবেষক এবং অ্যানথ্রপিকের সহযোগী আর্যো প্রদীপ্ত জেমা।

সূত্র: https://znews.vn/chatbot-ai-dang-tro-nen-dien-hon-post1551304.html


মন্তব্য (0)

আপনার অনুভূতি শেয়ার করতে একটি মন্তব্য করুন!

একই বিভাগে

হোয়ান কিয়েম লেকের হাঁটা পথে ৮০ জন দম্পতির বিয়ের অনুষ্ঠানের "প্রধান" ছিলেন পিপলস আর্টিস্ট জুয়ান বাক।
২০২৫ সালের বড়দিনকে স্বাগত জানাতে হো চি মিন সিটির নটর ডেম ক্যাথেড্রাল উজ্জ্বল আলোকসজ্জায় সজ্জিত
হ্যানয়ের মেয়েরা বড়দিনের জন্য সুন্দরভাবে "সাজসজ্জা" করে
ঝড় ও বন্যার পর আলোকিত, গিয়া লাইয়ের টেট ক্রিসান্থেমাম গ্রাম আশা করছে যে গাছপালা বাঁচাতে কোনও বিদ্যুৎ বিভ্রাট হবে না।

একই লেখকের

ঐতিহ্য

চিত্র

ব্যবসায়

হ্যানয় কফি শপ তার ইউরোপীয় ক্রিসমাসের মতো দৃশ্যের সাথে আলোড়ন সৃষ্টি করে

বর্তমান ঘটনাবলী

রাজনৈতিক ব্যবস্থা

স্থানীয়

পণ্য

Footer Banner Agribank
Footer Banner LPBank
Footer Banner MBBank
Footer Banner VNVC
Footer Banner Agribank
Footer Banner LPBank
Footer Banner MBBank
Footer Banner VNVC
Footer Banner Agribank
Footer Banner LPBank
Footer Banner MBBank
Footer Banner VNVC
Footer Banner Agribank
Footer Banner LPBank
Footer Banner MBBank
Footer Banner VNVC