সাম্প্রতিক বছরগুলিতে কৃত্রিম বুদ্ধিমত্তা কর্মসূচি অনেক সাফল্য অর্জন করেছে - ছবি: রয়টার্স
বৃহৎ ভাষা মডেলের (LLM) ইনপুট ডেটা থেকে আউটপুট ফলাফল পর্যন্ত পুরো প্রক্রিয়াটি আমরা পর্যবেক্ষণ করতে পারি না।
এটি বোঝা সহজ করার জন্য, বিজ্ঞানীরা এই প্রোগ্রামগুলি কীভাবে কাজ করে তা বর্ণনা করার জন্য "যুক্তি" এর মতো সাধারণ শব্দ ব্যবহার করেছেন। তারা আরও বলেছেন যে প্রোগ্রামগুলি মানুষের মতো "চিন্তা", "যুক্তি" এবং "বোঝা" করতে পারে।
AI এর ক্ষমতাকে অতিরঞ্জিত করা
৬ সেপ্টেম্বর ZDNET-এর মতে, গত দুই বছরে, অনেক AI নির্বাহী সাধারণ প্রযুক্তিগত সাফল্যকে অতিরঞ্জিত করার জন্য অতিরঞ্জিত শব্দ ব্যবহার করেছেন।
২০২৪ সালের সেপ্টেম্বরে, OpenAI ঘোষণা করে যে o1 যুক্তি মডেল "সমস্যা সমাধানের সময় অনুমানের একটি শৃঙ্খল ব্যবহার করে, যেমন মানুষ দীর্ঘ সময় ধরে কঠিন প্রশ্নের মুখোমুখি হলে চিন্তা করে।"
তবে, AI বিজ্ঞানীরা আপত্তি জানিয়েছেন। তারা বিশ্বাস করেন যে AI-তে মানুষের বুদ্ধিমত্তা নেই।
অ্যারিজোনা স্টেট ইউনিভার্সিটির (মার্কিন যুক্তরাষ্ট্র) একদল লেখকের arXiv ডাটাবেসের উপর করা একটি গবেষণায় একটি সাধারণ পরীক্ষার মাধ্যমে AI-এর যুক্তি ক্ষমতা যাচাই করা হয়েছে।
ফলাফলগুলি দেখিয়েছে যে "চিন্তার শৃঙ্খল দ্বারা অনুমান একটি ভঙ্গুর বিভ্রম", এটি কোনও বাস্তব যৌক্তিক প্রক্রিয়া নয়, বরং প্যাটার্ন মিলের একটি পরিশীলিত রূপ মাত্র।
"চিন্তার শৃঙ্খলা" (CoT) শব্দটি AI কে কেবল একটি চূড়ান্ত উত্তর তৈরি করতেই সাহায্য করে না বরং GPT-o1 বা DeepSeek V1 মডেলের মতো যৌক্তিক যুক্তির প্রতিটি ধাপ উপস্থাপন করতেও সাহায্য করে।
OpenAI এর GPT-2 ভাষা মডেলের চিত্রণ - ছবি: ECHOCRAFTAI
AI আসলে কী করে তা দেখুন
গবেষকরা বলছেন, বৃহৎ পরিসরে বিশ্লেষণে দেখা যায় যে, LLM যুক্তিগত যুক্তি প্রক্রিয়ার পরিবর্তে শব্দার্থবিদ্যা এবং পৃষ্ঠতলের সূত্রের উপর নির্ভর করে।
"এলএলএম শেখা ইনপুট অ্যাসোসিয়েশনের উপর ভিত্তি করে পৃষ্ঠীয় যুক্তি শৃঙ্খল তৈরি করে, প্রায়শই এমন কাজগুলিতে ব্যর্থ হয় যা প্রচলিত যুক্তি পদ্ধতি বা পরিচিত ধরণ থেকে বিচ্যুত হয়," দলটি ব্যাখ্যা করে।
LLM শুধুমাত্র প্যাটার্নের সাথে মিলে যাচ্ছে এবং আসলে অনুমান করছে না এই অনুমান পরীক্ষা করার জন্য, দলটি GPT-2 কে প্রশিক্ষণ দিয়েছে, যা 2019 সালে OpenAI দ্বারা প্রকাশিত একটি ওপেন-সোর্স মডেল।
মডেলটিকে প্রাথমিকভাবে ২৬টি ইংরেজি অক্ষরের উপর খুব সহজ কাজগুলিতে প্রশিক্ষণ দেওয়া হয়েছিল, যেমন কিছু অক্ষর উল্টানো, উদাহরণস্বরূপ "APPLE" কে "EAPPL" এ রূপান্তর করা। তারপর দলটি কাজটি পরিবর্তন করে এবং GPT-2 কে এটি পরিচালনা করতে বলে।
ফলাফলগুলি দেখায় যে প্রশিক্ষণের তথ্যে অন্তর্ভুক্ত নয় এমন কাজগুলির জন্য, GPT-2 CoT ব্যবহার করে সেগুলি সঠিকভাবে সমাধান করতে পারে না।
পরিবর্তে, মডেলটি সবচেয়ে অনুরূপ শেখা কাজগুলি প্রয়োগ করার চেষ্টা করে। তাই এর "অনুমান" যুক্তিসঙ্গত শোনাতে পারে, কিন্তু ফলাফলগুলি প্রায়শই ভুল হয়।
দলটি এই সিদ্ধান্তে উপনীত হয়েছে যে, LLM-এর উত্তরগুলিতে খুব বেশি নির্ভর করা বা অন্ধভাবে বিশ্বাস করা উচিত নয়, কারণ তারা "অযৌক্তিক কথা বলতে পারে যা খুব বিশ্বাসযোগ্য মনে হয়"।
তারা AI-এর প্রকৃত প্রকৃতি বোঝার, প্রচার এড়াতে এবং মানুষের মতো AI-এর যুক্তি করার ক্ষমতা আছে এমন প্রচার বন্ধ করার প্রয়োজনীয়তার উপরও জোর দিয়েছেন।
সূত্র: https://tuoitre.vn/nghien-cuu-moi-ai-khong-suy-luan-nhu-con-nguoi-20250907152120294.htm
মন্তব্য (0)