বিশ্বের প্রথম এআই নিয়ম বই
নাগরিক স্বাধীনতা ও ভোক্তা সুরক্ষা বিষয়ক কমিটির অধিকাংশ ইউরোপীয় আইন প্রণেতা (এমইপি) খসড়া এআই আইনের পক্ষে ভোট দিয়েছেন।
ছবি: ডিডব্লিউ
ভোটের পর প্রকাশিত এক বিবৃতি অনুসারে, খসড়াটি ইউরোপ জুড়ে প্রযুক্তি কীভাবে ব্যবহার করা যেতে পারে তার উপর বিধিনিষেধ আরোপ করবে।
খসড়া নিয়মগুলি আগামী মাসে পূর্ণ ইউরোপীয় পার্লামেন্টে ভোটের জন্য উপস্থাপন করা হবে, আইনে পরিণত হওয়ার আগে ইইউ সদস্য রাষ্ট্রগুলি এবং ইউরোপীয় কমিশনের সাথে বিশদ চূড়ান্ত করা হবে।
ChatGPT-এর মতো AI সফটওয়্যারের দ্রুত বিকাশের কারণে AI নিয়ন্ত্রণ আরও জরুরি হয়ে পড়েছে। এই বিপ্লব প্রযুক্তি শিল্পে নতুন সুবিধা এবং সুযোগ এনেছে, তবে AI কী ঝুঁকি তৈরি করতে পারে তাও প্রকাশ করেছে।
"আমরা একটি যুগান্তকারী আইন প্রণয়ন করতে যাচ্ছি যা সময়ের পরীক্ষায় উত্তীর্ণ হতে হবে। কৃত্রিম বুদ্ধিমত্তার উন্নয়নে নাগরিকদের আস্থা তৈরি করা গুরুত্বপূর্ণ," ইতালির প্রতিনিধি ব্র্যান্ডো বেনিফেই এক বিবৃতিতে বলেছেন। "আমরা বিশ্বাস করি যে এই খসড়াটি ব্যবসার জন্য আইনি নিশ্চয়তা প্রদান এবং ইউরোপে উদ্ভাবনকে উদ্দীপিত করার মধ্যে ভারসাম্য বজায় রাখবে।"
এআই আইন কী?
২০২১ সালে প্রথম প্রস্তাবিত এআই আইনটি কৃত্রিম বুদ্ধিমত্তা ব্যবহার করে এমন যেকোনো পণ্য এবং পরিষেবার জন্য নিয়ন্ত্রক নিয়ম নির্ধারণ করে।
এআই পণ্য এবং পরিষেবাগুলিকে চারটি স্তরে বিভক্ত করা হবে, যেখানে ঝুঁকিপূর্ণ অ্যাপ্লিকেশনগুলিকে আরও কঠোর নিয়মকানুন মেনে চলতে হবে যার জন্য আরও স্বচ্ছতা এবং নির্ভুলতা প্রয়োজন।
পুলিশিং সরঞ্জামগুলি কোথায় এবং কাদের দ্বারা অপরাধ সংঘটিত হওয়ার সম্ভাবনা রয়েছে তা আগে থেকেই নির্ধারণ করার উদ্দেশ্যে তৈরি করা হয়েছে। দূরবর্তী মুখের স্বীকৃতি প্রযুক্তিও নিষিদ্ধ করা হবে, শুধুমাত্র একটি নির্দিষ্ট সন্ত্রাসী হুমকি মোকাবেলা এবং প্রতিরোধ করার জন্য।
"লক্ষ্য হলো একটি কৃত্রিম বুদ্ধিমত্তা-ভিত্তিক নিয়ন্ত্রিত সমাজ এড়ানো," মিঃ বেনিফেই বলেন। "আমরা বিশ্বাস করি এই প্রযুক্তি খারাপ উদ্দেশ্যে ব্যবহারের ঝুঁকি খুব বেশি।"
মূল নথিতে চ্যাটবটগুলির কথা বিশেষভাবে উল্লেখ না করা হলেও, আইন প্রণেতারা চ্যাটজিপিটি এবং অনুরূপ সাধারণ এআইকে উচ্চ-ঝুঁকিপূর্ণ সিস্টেমের সমকক্ষ করার জন্য একটি সংশোধনী যুক্ত করেছেন।
পাস হওয়ার পর, ইইউ বলেছে যে আইনটিতে "কৃত্রিম বুদ্ধিমত্তার উপর বিশ্ব-প্রথম নিয়ম" অন্তর্ভুক্ত থাকবে।
হোয়াং টন (ডিডাব্লিউ অনুসারে)
[বিজ্ঞাপন_২]
উৎস






মন্তব্য (0)