Vietnam.vn - Nền tảng quảng bá Việt Nam

নতুন গবেষণা: কৃত্রিম বুদ্ধিমত্তা মানুষের মতো 'যুক্তি' করে না।

কৃত্রিম বুদ্ধিমত্তা (এআই) প্রোগ্রামগুলি অনেক চিত্তাকর্ষক কৃতিত্ব অর্জন করেছে, কিন্তু নতুন গবেষণা পরামর্শ দেয় যে মানুষের মতো কৃত্রিম বুদ্ধিমত্তার যুক্তি করার ক্ষমতার সম্ভাবনাকে আমাদের অতিরঞ্জিত করা উচিত নয়।

Báo Tuổi TrẻBáo Tuổi Trẻ07/09/2025

trí tuệ nhân tạo - Ảnh 1.

সাম্প্রতিক বছরগুলিতে কৃত্রিম বুদ্ধিমত্তা প্রোগ্রামগুলি অনেক সাফল্য অর্জন করেছে - ছবি: রয়টার্স

বৃহৎ ভাষা মডেলের (LLM) ইনপুট ডেটা থেকে আউটপুট ফলাফল পর্যন্ত পুরো প্রক্রিয়াটি আমরা পর্যবেক্ষণ করতে পারি না।

এটি বোঝা সহজ করার জন্য, বিজ্ঞানীরা এই প্রোগ্রামগুলি কীভাবে কাজ করে তা বর্ণনা করার জন্য "যুক্তি" এর মতো সাধারণ শব্দ ব্যবহার করেছেন। তারা আরও বলেছেন যে প্রোগ্রামগুলি মানুষের মতো একইভাবে "চিন্তা", "যুক্তি" এবং "বোঝা" করতে পারে।

AI এর ক্ষমতাকে অতিরঞ্জিত করা।

৬ সেপ্টেম্বর ZDNET-এর মতে, গত দুই বছরে, অনেক AI নির্বাহী সাধারণ প্রযুক্তিগত সাফল্যগুলিকে তুলে ধরার জন্য অতিরঞ্জিত ভাষা ব্যবহার করেছেন।

২০২৪ সালের সেপ্টেম্বরে, OpenAI ঘোষণা করে যে তাদের o1 যুক্তি মডেল "সমস্যা সমাধানের সময় যুক্তির একটি শৃঙ্খল ব্যবহার করে, যেমন মানুষ কঠিন প্রশ্নের মুখোমুখি হলে দীর্ঘ সময় ধরে কীভাবে চিন্তা করে।"

তবে এআই বিজ্ঞানীরা একমত নন। তাদের যুক্তি হলো এআই মানুষের মতো বুদ্ধিমত্তা ধারণ করে না।

অ্যারিজোনা স্টেট ইউনিভার্সিটির (মার্কিন যুক্তরাষ্ট্র) একদল লেখকের arXiv ডাটাবেসের উপর ভিত্তি করে করা একটি গবেষণায় একটি সাধারণ পরীক্ষার মাধ্যমে AI-এর যুক্তি ক্ষমতা পরীক্ষা করা হয়েছে।

ফলাফলগুলি ইঙ্গিত দেয় যে "চিন্তার ক্রমগুলির মাধ্যমে উল্লেখ করা একটি ভঙ্গুর বিভ্রম," এটি একটি প্রকৃত যৌক্তিক প্রক্রিয়া নয়, বরং প্যাটার্ন মিলের একটি পরিশীলিত রূপ মাত্র।

"CoT" (কো-থট চেইন) শব্দটি AI কে কেবল একটি চূড়ান্ত উত্তর প্রদান করতেই সাহায্য করে না বরং GPT-o1 বা DeepSeek V1 এর মতো মডেলের মতো যৌক্তিক যুক্তির প্রতিটি ধাপ উপস্থাপন করতেও সাহায্য করে।

Nghiên cứu mới: AI không 'suy luận' như con người - Ảnh 2.

OpenAI দ্বারা GPT-2 ভাষা মডেলের চিত্রণ - ছবি: ECHOCRAFTAI

AI আসলে কী করে তা দেখুন।

গবেষণা দলটি জানিয়েছে যে বৃহৎ পরিসরে বিশ্লেষণে দেখা গেছে যে LLM যুক্তিগত যুক্তি প্রক্রিয়ার চেয়ে শব্দার্থবিদ্যা এবং পৃষ্ঠতলের সূত্রের উপর বেশি নির্ভর করে।

"এলএলএমরা শেখা ইনপুট অ্যাসোসিয়েশনের উপর ভিত্তি করে পৃষ্ঠীয় যুক্তি ক্রম তৈরি করে, প্রায়শই এমন কাজগুলিতে ব্যর্থ হয় যা প্রচলিত যুক্তি পদ্ধতি বা পরিচিত ধরণ থেকে বিচ্যুত হয়," দলটি ব্যাখ্যা করেছে।

LLM শুধুমাত্র প্যাটার্নের সাথে মিলে যাচ্ছে এবং আসলে অনুমান করছে না এই অনুমান পরীক্ষা করার জন্য, গবেষণা দলটি GPT-2 কে প্রশিক্ষণ দিয়েছে, যা OpenAI-এর একটি ওপেন-সোর্স মডেল, যা 2019 সালে চালু হয়েছিল।

মডেলটিকে প্রাথমিকভাবে ২৬টি ইংরেজি অক্ষরের সাথে জড়িত খুব সহজ কাজগুলিতে প্রশিক্ষণ দেওয়া হয়েছিল, যেমন কিছু অক্ষর পুনর্বিন্যাস করা, উদাহরণস্বরূপ, "APPLE" কে "EAPPL" এ পরিবর্তন করা। তারপর দলটি কাজটি পরিবর্তন করে এবং GPT-2 কে এটি প্রক্রিয়া করতে বলে।

ফলাফলগুলি দেখায় যে প্রশিক্ষণের তথ্যে অন্তর্ভুক্ত নয় এমন কাজগুলির জন্য, GPT-2 CoT ব্যবহার করে সঠিকভাবে সমাধান করতে পারেনি।

পরিবর্তে, মডেলটি যতটা সম্ভব ঘনিষ্ঠভাবে শেখা কাজগুলি প্রয়োগ করার চেষ্টা করে। অতএব, এর "যুক্তি" যুক্তিসঙ্গত শোনাতে পারে, কিন্তু ফলাফল প্রায়শই ভুল হয়।

দলটি এই সিদ্ধান্তে উপনীত হয়েছে যে, LLM-এর উত্তরের উপর খুব বেশি নির্ভর করা বা অন্ধভাবে বিশ্বাস করা উচিত নয়, কারণ তারা "অযৌক্তিক কিন্তু খুব বিশ্বাসযোগ্য বিবৃতি" তৈরি করতে পারে।

তারা AI-এর প্রকৃত প্রকৃতি বোঝার, অতিরঞ্জিত করা এড়িয়ে চলার এবং AI-এর মানুষের মতো যুক্তি ক্ষমতা আছে এই ধারণা প্রচার বন্ধ করার উপরও জোর দিয়েছেন।

বিষয়ে ফিরে যাই
ANH THU সম্পর্কে

সূত্র: https://tuoitre.vn/nghien-cuu-moi-ai-khong-suy-luan-nhu-con-nguoi-20250907152120294.htm


মন্তব্য (0)

আপনার অনুভূতি শেয়ার করতে একটি মন্তব্য করুন!

একই বিষয়ে

একই বিভাগে

হো চি মিন সিটিতে ৭ মিটার লম্বা পাইন গাছের সাথে তরুণদের মধ্যে আলোড়ন সৃষ্টিকারী ক্রিসমাস বিনোদন স্থান
১০০ মিটার লম্বা গলিতে এমন কী আছে যা বড়দিনে আলোড়ন সৃষ্টি করছে?
ফু কুওকে ৭ দিন রাত ধরে অনুষ্ঠিত অসাধারণ বিবাহে অভিভূত
প্রাচীন পোশাকের কুচকাওয়াজ: শত ফুলের আনন্দ

একই লেখকের

ঐতিহ্য

চিত্র

ব্যবসায়

ডন ডেন - থাই নগুয়েনের নতুন 'আকাশের বারান্দা' তরুণ মেঘ শিকারীদের আকর্ষণ করে

বর্তমান ঘটনাবলী

রাজনৈতিক ব্যবস্থা

স্থানীয়

পণ্য