গত সপ্তাহে ঘোষিত গুগলের সর্বশেষ বৃহৎ ভাষা মডেল (এলএলএম), পাম ২ (PaLM 2), তার ২০২২ সালের পূর্বসূরীর তুলনায় প্রায় পাঁচ গুণ বেশি প্রশিক্ষণ ডেটা ব্যবহার করে, যা এটিকে প্রোগ্রামিং করতে, সমস্যার সমাধান করতে এবং আরও উন্নত মানের কন্টেন্ট তৈরি করতে সক্ষম করে।
গুগল আই/ও ডেভেলপার সম্মেলনে, এই সার্চ জায়ান্টটি PaLM 2 উন্মোচন করেছে – যা ৩.৬ ট্রিলিয়ন টোকেনের উপর ভিত্তি করে তৈরি একটি ভাষা প্রশিক্ষণ মডেল। এই টোকেনগুলো হলো শব্দের সমষ্টি – যা LLM প্রশিক্ষণে পরবর্তী শব্দটি ভবিষ্যদ্বাণী করার জন্য ব্যবহৃত মূল উপাদান।
PaLM-এর পূর্ববর্তী সংস্করণটি ২০২২ সালে প্রকাশিত হয়েছিল এবং ৭৮০ বিলিয়ন টোকেন ব্যবহার করে প্রশিক্ষিত হয়েছিল।
যদিও গুগল সার্চ, ইমেল, ওয়ার্ড প্রসেসিং এবং স্প্রেডশিটের মতো কাজে এআই-এর শক্তি প্রতিনিয়ত প্রদর্শন করে, সংস্থাটি তার প্রশিক্ষণ ডেটাসেটের আকার বা বিবরণ প্রকাশ করতে অনিচ্ছুক। ওপেনএআই-ও তার সর্বশেষ এলএলএম প্রশিক্ষণ প্যারামিটার, জিপিটি-৪-এর বিবরণ গোপন রাখে।
প্রযুক্তি সংস্থাগুলো তাদের ব্যবসার প্রতিযোগিতামূলক প্রকৃতির কথা উল্লেখ করে এর ব্যাখ্যা দেয়। গুগল এবং ওপেনএআই উভয়ই প্রচলিত সার্চ ইঞ্জিনের পরিবর্তে চ্যাটবট পণ্যের মাধ্যমে ব্যবহারকারীদের আকৃষ্ট করতে প্রতিযোগিতায় নেমেছে।
ছোট, শক্তিশালী এবং সাশ্রয়ী।
গুগল জানিয়েছে যে, PaLM 2 তার পূর্বসূরিদের চেয়ে আরও বেশি কম্প্যাক্ট, কারণ পূর্ববর্তী সংস্করণে ৫৪০ বিলিয়ন প্যারামিটারের পরিবর্তে এটিকে ৩৪০ বিলিয়ন প্যারামিটার দিয়ে প্রশিক্ষণ দেওয়া হয়েছে। এটি প্রমাণ করে যে, জটিল কাজ সম্পাদনে কোম্পানিটির প্রযুক্তি আরও বেশি কার্যকর হয়ে উঠছে।
এটি অর্জনের জন্য, PaLM 2 “এক্সটেন্ডেড কম্পিউটিং অপটিমাইজেশন” নামক একটি নতুন কৌশল ব্যবহার করে, যা “কম প্যারামিটার ব্যবহার করে দ্রুততর ইনফারেন্স সহ সামগ্রিকভাবে উন্নততর পারফরম্যান্স” প্রদান করে, ফলে পরিচালন ব্যয় হ্রাস পায়।
১০০টিরও বেশি ভাষায় প্রশিক্ষিত গুগলের সর্বশেষ এআই ল্যাঙ্গুয়েজ মডেলটি পরীক্ষামূলক চ্যাটবট বার্ড সহ ২৫টি ফিচার ও প্রোডাক্টের জন্য বিভিন্ন কাজ সম্পাদন করছে। আকারের উপর ভিত্তি করে ছোট থেকে বড় ক্রমে PaLM 2 চারটি সংস্করণে আসে: গেকো, অটার, বাইসন এবং ইউনিকর্ন।
সর্বজনীনভাবে উপলব্ধ নথি অনুসারে, PaLM 2 বর্তমানে বিদ্যমান যেকোনো মডেলের চেয়ে বেশি শক্তিশালী। ফেব্রুয়ারিতে চালু হওয়া ফেসবুকের LlaMA-কে ১.৪ ট্রিলিয়ন টোকেনের ওপর প্রশিক্ষণ দেওয়া হয়েছিল। অন্যদিকে, OpenAI সর্বশেষ যখন ChatGPT-এর প্রশিক্ষণ ডেটার পরিমাণ প্রকাশ্যে জানিয়েছিল, তখন সেটি ছিল GPT-3 সংস্করণের জন্য ৩০০ বিলিয়ন টোকেন।
কৃত্রিম বুদ্ধিমত্তার (এআই) প্রয়োগের ব্যাপক প্রসার এই প্রযুক্তিকে ঘিরে বিতর্কের জন্ম দিয়েছে। এই বছরের শুরুতে, গুগল রিসার্চের একজন ঊর্ধ্বতন বিজ্ঞানী এল মাহদি, এই সার্চ জায়ান্টের স্বচ্ছতার অভাবের প্রতিবাদে পদত্যাগ করেন।
এই সপ্তাহে, ওপেনএআই-এর সিইও স্যাম অল্টম্যানও এআই-এর ক্রমবর্ধমান জনপ্রিয়তার প্রেক্ষাপটে মার্কিন সিনেটের গোপনীয়তা ও প্রযুক্তি বিষয়ক বিচার বিভাগীয় উপকমিটির সামনে সাক্ষ্য দিয়েছেন। সেখানে, চ্যাটজিপিটি-র এই নির্মাতা আইনপ্রণেতাদের সঙ্গে একমত হন যে এআই-কে নিয়ন্ত্রণ করার জন্য নতুন বিধিমালা প্রয়োজন।
(সিএনবিসি অনুসারে)
[বিজ্ঞাপন_২]
উৎস






মন্তব্য (0)