
সাম্প্রতিক বছরগুলিতে কৃত্রিম বুদ্ধিমত্তা প্রোগ্রামগুলি অনেক সাফল্য অর্জন করেছে - ছবি: রয়টার্স
বৃহৎ ভাষা মডেলের (LLM) ইনপুট ডেটা থেকে আউটপুট ফলাফল পর্যন্ত পুরো প্রক্রিয়াটি আমরা পর্যবেক্ষণ করতে পারি না।
এটি বোঝা সহজ করার জন্য, বিজ্ঞানীরা এই প্রোগ্রামগুলি কীভাবে কাজ করে তা বর্ণনা করার জন্য "যুক্তি" এর মতো সাধারণ শব্দ ব্যবহার করেছেন। তারা আরও বলেছেন যে প্রোগ্রামগুলি মানুষের মতো একইভাবে "চিন্তা", "যুক্তি" এবং "বোঝা" করতে পারে।
AI এর ক্ষমতাকে অতিরঞ্জিত করা।
৬ সেপ্টেম্বর ZDNET-এর মতে, গত দুই বছরে, অনেক AI নির্বাহী সাধারণ প্রযুক্তিগত সাফল্যগুলিকে তুলে ধরার জন্য অতিরঞ্জিত ভাষা ব্যবহার করেছেন।
২০২৪ সালের সেপ্টেম্বরে, OpenAI ঘোষণা করে যে তাদের o1 যুক্তি মডেল "সমস্যা সমাধানের সময় যুক্তির একটি শৃঙ্খল ব্যবহার করে, যেমন মানুষ কঠিন প্রশ্নের মুখোমুখি হলে দীর্ঘ সময় ধরে কীভাবে চিন্তা করে।"
তবে এআই বিজ্ঞানীরা একমত নন। তাদের যুক্তি হলো এআই মানুষের মতো বুদ্ধিমত্তা ধারণ করে না।
অ্যারিজোনা স্টেট ইউনিভার্সিটির (মার্কিন যুক্তরাষ্ট্র) একদল লেখকের arXiv ডাটাবেসের উপর ভিত্তি করে করা একটি গবেষণায় একটি সাধারণ পরীক্ষার মাধ্যমে AI-এর যুক্তি ক্ষমতা পরীক্ষা করা হয়েছে।
ফলাফলগুলি ইঙ্গিত দেয় যে "চিন্তার ক্রমগুলির মাধ্যমে উল্লেখ করা একটি ভঙ্গুর বিভ্রম," এটি একটি প্রকৃত যৌক্তিক প্রক্রিয়া নয়, বরং প্যাটার্ন মিলের একটি পরিশীলিত রূপ মাত্র।
"CoT" (কো-থট চেইন) শব্দটি AI কে কেবল একটি চূড়ান্ত উত্তর প্রদান করতেই সাহায্য করে না বরং GPT-o1 বা DeepSeek V1 এর মতো মডেলের মতো যৌক্তিক যুক্তির প্রতিটি ধাপ উপস্থাপন করতেও সাহায্য করে।

OpenAI দ্বারা GPT-2 ভাষা মডেলের চিত্রণ - ছবি: ECHOCRAFTAI
AI আসলে কী করে তা দেখুন।
গবেষণা দলটি জানিয়েছে যে বৃহৎ পরিসরে বিশ্লেষণে দেখা গেছে যে LLM যুক্তিগত যুক্তি প্রক্রিয়ার চেয়ে শব্দার্থবিদ্যা এবং পৃষ্ঠতলের সূত্রের উপর বেশি নির্ভর করে।
"এলএলএমরা শেখা ইনপুট অ্যাসোসিয়েশনের উপর ভিত্তি করে পৃষ্ঠীয় যুক্তি ক্রম তৈরি করে, প্রায়শই এমন কাজগুলিতে ব্যর্থ হয় যা প্রচলিত যুক্তি পদ্ধতি বা পরিচিত ধরণ থেকে বিচ্যুত হয়," দলটি ব্যাখ্যা করেছে।
LLM শুধুমাত্র প্যাটার্নের সাথে মিলে যাচ্ছে এবং আসলে অনুমান করছে না এই অনুমান পরীক্ষা করার জন্য, গবেষণা দলটি GPT-2 কে প্রশিক্ষণ দিয়েছে, যা OpenAI-এর একটি ওপেন-সোর্স মডেল, যা 2019 সালে চালু হয়েছিল।
মডেলটিকে প্রাথমিকভাবে ২৬টি ইংরেজি অক্ষরের সাথে জড়িত খুব সহজ কাজগুলিতে প্রশিক্ষণ দেওয়া হয়েছিল, যেমন কিছু অক্ষর পুনর্বিন্যাস করা, উদাহরণস্বরূপ, "APPLE" কে "EAPPL" এ পরিবর্তন করা। তারপর দলটি কাজটি পরিবর্তন করে এবং GPT-2 কে এটি প্রক্রিয়া করতে বলে।
ফলাফলগুলি দেখায় যে প্রশিক্ষণের তথ্যে অন্তর্ভুক্ত নয় এমন কাজগুলির জন্য, GPT-2 CoT ব্যবহার করে সঠিকভাবে সমাধান করতে পারেনি।
পরিবর্তে, মডেলটি যতটা সম্ভব ঘনিষ্ঠভাবে শেখা কাজগুলি প্রয়োগ করার চেষ্টা করে। অতএব, এর "যুক্তি" যুক্তিসঙ্গত শোনাতে পারে, কিন্তু ফলাফল প্রায়শই ভুল হয়।
দলটি এই সিদ্ধান্তে উপনীত হয়েছে যে, LLM-এর উত্তরের উপর খুব বেশি নির্ভর করা বা অন্ধভাবে বিশ্বাস করা উচিত নয়, কারণ তারা "অযৌক্তিক কিন্তু খুব বিশ্বাসযোগ্য বিবৃতি" তৈরি করতে পারে।
তারা AI-এর প্রকৃত প্রকৃতি বোঝার, অতিরঞ্জিত করা এড়িয়ে চলার এবং AI-এর মানুষের মতো যুক্তি ক্ষমতা আছে এই ধারণা প্রচার বন্ধ করার উপরও জোর দিয়েছেন।
সূত্র: https://tuoitre.vn/nghien-cuu-moi-ai-khong-suy-luan-nhu-con-nguoi-20250907152120294.htm






মন্তব্য (0)