Vietnam.vn - Nền tảng quảng bá Việt Nam

কম প্যারামিটার, বেশি ডেটা

VietNamNetVietNamNet18/05/2023

[বিজ্ঞাপন_১]

গত সপ্তাহে ঘোষিত গুগলের সর্বশেষ বৃহৎ ভাষা মডেল (LLM) PaLM 2, তার 2022 সালের পূর্বসূরীর তুলনায় প্রায় পাঁচগুণ বেশি প্রশিক্ষণ ডেটা ব্যবহার করে, যা এটিকে প্রোগ্রামিং, সমস্যা সমাধান এবং আরও উন্নত সামগ্রী তৈরি করতে সক্ষম করে।

গুগল আই/ও ডেভেলপার কনফারেন্সে, সার্চ জায়ান্টটি PaLM 2 চালু করেছে - ৩.৬ ট্রিলিয়ন টোকেনের উপর ভিত্তি করে একটি ভাষা প্রশিক্ষণ মডেল। এই টোকেনগুলি হল শব্দের একটি স্ট্রিং - পরবর্তী শব্দটি কী হবে তা ভবিষ্যদ্বাণী করার জন্য LLM প্রশিক্ষণে ব্যবহৃত মূল উপাদান।

PaLM-এর পূর্ববর্তী সংস্করণটি ২০২২ সালে প্রকাশিত হয়েছিল এবং ৭৮০ বিলিয়ন টোকেন ব্যবহার করে প্রশিক্ষিত করা হয়েছিল।

গত সপ্তাহের গুগল আই/ও ইভেন্টে, গুগলের সিইও সুন্দর পিচাই কোম্পানির সর্বশেষ বৃহৎ ভাষার মডেল, PaLM 2 উপস্থাপন করেন।

যদিও গুগল সার্চ, ইমেল, ওয়ার্ড প্রসেসিং এবং স্প্রেডশিট কাজে কৃত্রিম বুদ্ধিমত্তার শক্তি প্রতিনিয়ত প্রদর্শন করে, তবুও কোম্পানিটি তার প্রশিক্ষণ ডেটাসেটের আকার বা বিশদ প্রকাশ করতে অনিচ্ছুক। ওপেনএআই তার সর্বশেষ এলএলএম প্রশিক্ষণ প্যারামিটার, জিপিটি-৪ এর বিশদও গোপন রাখে।

প্রযুক্তি কোম্পানিগুলি তাদের ব্যবসার প্রতিযোগিতামূলক প্রকৃতির কথা উল্লেখ করে এটি ব্যাখ্যা করে। গুগল এবং ওপেনএআই উভয়ই ঐতিহ্যবাহী সার্চ ইঞ্জিনের পরিবর্তে চ্যাটবট পণ্য দিয়ে ব্যবহারকারীদের আকৃষ্ট করার জন্য দৌড়ঝাঁপ করছে।

কমপ্যাক্ট, শক্তিশালী এবং সাশ্রয়ী।

গুগল জানিয়েছে যে PaLM 2 তার পূর্বসূরীদের তুলনায় আরও কমপ্যাক্ট, পূর্ববর্তী সংস্করণে 540 বিলিয়ন প্যারামিটারের তুলনায় 340 বিলিয়ন প্যারামিটার দিয়ে প্রশিক্ষিত হয়েছে। এটি প্রমাণ করে যে কোম্পানির প্রযুক্তি জটিল কাজ সম্পাদনে আরও দক্ষ হয়ে উঠছে।

এটি অর্জনের জন্য, PaLM 2 "এক্সটেন্ডেড কম্পিউটিং অপ্টিমাইজেশন" নামে একটি নতুন কৌশল ব্যবহার করে, যা "কম প্যারামিটারের সাথে দ্রুত অনুমান সহ আরও ভাল সামগ্রিক কর্মক্ষমতা প্রদান করে, যার ফলে অপারেটিং খরচ হ্রাস পায়।"

১০০টিরও বেশি ভাষায় প্রশিক্ষিত গুগলের সর্বশেষ এআই ল্যাঙ্গুয়েজ মডেলটি পরীক্ষামূলক চ্যাটবট বার্ড সহ ২৫টি বৈশিষ্ট্য এবং পণ্যের জন্য বিভিন্ন কাজ সম্পাদন করছে। PaLM 2 আকারের উপর ভিত্তি করে চারটি সংস্করণে আসে, ছোট থেকে বড়: গেকো, অটার, বাইসন এবং ইউনিকর্ন।

জনসাধারণের কাছে উপলব্ধ নথি অনুসারে, PaLM 2 বিদ্যমান যেকোনো মডেলের চেয়ে বেশি শক্তিশালী। ফেব্রুয়ারিতে চালু হওয়া Facebook-এর LlaMA, 1.4 ট্রিলিয়ন টোকেনের উপর প্রশিক্ষিত ছিল। এদিকে, OpenAI শেষবার ChatGPT-এর জন্য প্রশিক্ষণ ডেটা আকার প্রকাশ করেছিল GPT-3 সংস্করণটি ছিল 300 বিলিয়ন টোকেন সহ।

এআই অ্যাপ্লিকেশনের বিস্ফোরণ প্রযুক্তিটিকে ঘিরে বিতর্কের জন্ম দিয়েছে। এই বছরের শুরুতে, গুগল রিসার্চের একজন সিনিয়র বিজ্ঞানী এল মাহদি সার্চ জায়ান্টের স্বচ্ছতার অভাবের প্রতিবাদে পদত্যাগ করেছিলেন।

এই সপ্তাহে, OpenAI-এর সিইও স্যাম অল্টম্যানও মার্কিন সিনেটের বিচার বিভাগীয় উপকমিটির গোপনীয়তা এবং প্রযুক্তি সংক্রান্ত সাক্ষ্য দিয়েছেন। সেখানে, ChatGPT-এর স্রষ্টা আইন প্রণেতাদের সাথে একমত হয়েছেন যে AI-এর ক্রমবর্ধমান প্রসারের জন্য নতুন নিয়মকানুন প্রয়োজন।

(সিএনবিসি অনুসারে)


[বিজ্ঞাপন_২]
উৎস

মন্তব্য (0)

আপনার অনুভূতি শেয়ার করতে একটি মন্তব্য করুন!

একই বিষয়ে

একই বিভাগে

একই লেখকের

ঐতিহ্য

চিত্র

ব্যবসা

বর্তমান ঘটনা

রাজনৈতিক ব্যবস্থা

স্থানীয়

পণ্য

Happy Vietnam
৫

চাষের মৌসুম

চাষের মৌসুম

ভিক্টরি পর্যটন এলাকা

ভিক্টরি পর্যটন এলাকা