এই মডেলের যুক্তি, জটিল গাণিতিক সমস্যা সমাধান এবং বৈজ্ঞানিক গবেষণার প্রশ্নের উত্তর দেওয়ার ক্ষমতাকে কৃত্রিম সাধারণ বুদ্ধিমত্তা (AGI) - মানুষের মতো জ্ঞানীয় ক্ষমতা সম্পন্ন মেশিন - বিকাশের প্রচেষ্টায় একটি বড় পদক্ষেপ হিসেবে দেখা হচ্ছে।
ওপেনএআই জানিয়েছে যে উন্নত ক্ষমতার কারণে তারা o1 মডেলটি কীভাবে জনসাধারণের কাছে নিয়ে এসেছে সে সম্পর্কে বিশেষভাবে "সতর্ক" ছিল। ছবি: গেটি ইমেজেস
ফাইন্যান্সিয়াল টাইমসের মতে, ওপেনএআই রাসায়নিক, জৈবিক, রেডিওলজিক্যাল এবং পারমাণবিক (সিবিআরএন) অস্ত্র সম্পর্কিত বিষয়গুলির জন্য এই নতুন মডেলগুলির ঝুঁকিকে "মাঝারি" হিসাবে মূল্যায়ন করেছে, যা কোম্পানিটি এখন পর্যন্ত সর্বোচ্চ মূল্যায়ন করেছে। এর অর্থ হল প্রযুক্তিটি জৈবিক অস্ত্র তৈরিতে বিশেষজ্ঞদের ক্ষমতা "উল্লেখযোগ্যভাবে উন্নত" করেছে।
বিশেষজ্ঞরা বলছেন, বিস্তারিত যুক্তি দিতে সক্ষম এআই সফটওয়্যার, বিশেষ করে খারাপ ব্যক্তিদের হাতে, অপব্যবহারের ঝুঁকি বাড়িয়ে দিতে পারে।
মন্ট্রিল বিশ্ববিদ্যালয়ের একজন বিশ্বনেতা কৃত্রিম বুদ্ধিমত্তা বিজ্ঞানী অধ্যাপক ইয়োশুয়া বেঙ্গিও জোর দিয়ে বলেছেন যে এই মাঝারি ঝুঁকির মাত্রা কৃত্রিম বুদ্ধিমত্তা নিয়ন্ত্রণের জরুরিতা বৃদ্ধি করে, যেমন SB 1047, যা বর্তমানে ক্যালিফোর্নিয়ায় বিতর্কিত। এই বিল অনুসারে কৃত্রিম বুদ্ধিমত্তা নির্মাতাদের জৈবিক অস্ত্র তৈরিতে তাদের মডেলের অপব্যবহারের ঝুঁকি কমাতে ব্যবস্থা গ্রহণ করতে হবে।
দ্য ভার্জের মতে, গুগল, মেটা এবং অ্যানথ্রপিকের মতো প্রযুক্তি সংস্থাগুলি উন্নত এআই সিস্টেম তৈরি এবং উন্নত করার জন্য দৌড়ঝাঁপ করছে, তাই এআই মডেলগুলির নিরাপত্তা এবং সুরক্ষা একটি বড় উদ্বেগের বিষয় হয়ে দাঁড়িয়েছে।
এই সিস্টেমগুলি মানুষের কাজ সম্পন্ন করতে এবং বিভিন্ন ক্ষেত্রে সহায়তা করার ক্ষেত্রে দুর্দান্ত সুবিধা বয়ে আনতে পারে, তবে সুরক্ষা এবং সামাজিক দায়বদ্ধতার ক্ষেত্রেও চ্যালেঞ্জ তৈরি করে।
কাও ফং (এফটি, রয়টার্স, দ্য ভার্জের মতে)
[বিজ্ঞাপন_২]
সূত্র: https://www.congluan.vn/openai-thua-nhan-moi-hinh-ai-co-the-duoc-su-dung-de-tao-ra-vu-khi-biological-post312337.html
মন্তব্য (0)