AI-এর নিয়ন্ত্রণ হারানোর ঝুঁকি
মানবতা মনে হচ্ছে দিগন্তে থাকা একটি ভূতকে উপেক্ষা করছে: কৃত্রিম বুদ্ধিমত্তা (এআই) দ্বারা সৃষ্ট বিশ্বব্যাপী পারমাণবিক যুদ্ধের ভূত। জাতিসংঘের মহাসচিব আন্তোনিও গুতেরেস এ বিষয়ে সতর্ক করেছেন। কিন্তু এখনও পর্যন্ত, পারমাণবিক অস্ত্রধারী রাষ্ট্রগুলি এই বিপর্যয়কর হুমকি মোকাবেলায় আলোচনার জন্য একত্রিত হয়নি।
কৃত্রিম বুদ্ধিমত্তার (এআই) দ্রুত বিকাশের ফলে পারমাণবিক অস্ত্র উৎক্ষেপণ প্রক্রিয়ায় এআই হস্তক্ষেপের ঝুঁকি তৈরি হচ্ছে। চিত্রের ছবি
পাঁচটি বৃহত্তম পারমাণবিক শক্তিধর দেশ - মার্কিন যুক্তরাষ্ট্র, রাশিয়া, চীন, যুক্তরাজ্য এবং ফ্রান্স - দীর্ঘদিন ধরে "মানুষের লুপে" নীতির উপর একটি অনানুষ্ঠানিক ঐক্যমত্য রয়েছে, যার অর্থ হল প্রতিটি দেশেরই একটি ব্যবস্থা রয়েছে যাতে নিশ্চিত করা যায় যে পারমাণবিক অস্ত্র চালু করার সিদ্ধান্তে মানুষ জড়িত।
পাঁচটি শক্তির কেউই বলে না যে তারা তাদের পারমাণবিক উৎক্ষেপণ কমান্ড সিস্টেমে AI স্থাপন করেছে। ভারতের মুম্বাইয়ের একটি আন্তর্জাতিক গবেষণা সংস্থা স্ট্র্যাটেজিক ফোরসাইট গ্রুপের সভাপতি ডঃ সুনদীপ ওয়াসলেকারের মতে, এটি সত্য কিন্তু বিভ্রান্তিকর।
হুমকি সনাক্তকরণ এবং লক্ষ্য নির্বাচনের জন্য ইতিমধ্যেই AI ব্যবহার করা হচ্ছে। AI-চালিত সিস্টেমগুলি রিয়েল টাইমে সেন্সর, উপগ্রহ এবং রাডার থেকে প্রচুর পরিমাণে ডেটা বিশ্লেষণ করে, আগত ক্ষেপণাস্ত্র আক্রমণ বিশ্লেষণ করে এবং প্রতিক্রিয়ার বিকল্পগুলি পরামর্শ দেয়।
এরপর অপারেটর বিভিন্ন উৎস থেকে আসা হুমকির ক্রস-চেক করে এবং সিদ্ধান্ত নেয় যে শত্রুর ক্ষেপণাস্ত্রগুলিকে বাধা দেবে নাকি প্রতিশোধমূলক হামলা চালাবে।
"বর্তমানে, মানব অপারেটরদের জন্য উপলব্ধ প্রতিক্রিয়া সময় 10 থেকে 15 মিনিট। 2030 সালের মধ্যে, এটি 5 থেকে 7 মিনিটে হ্রাস পাবে," সুনদীপ ওয়াসলেকার বলেন। "মানুষ চূড়ান্ত সিদ্ধান্ত নেওয়ার সময়, তারা AI এর ভবিষ্যদ্বাণীমূলক এবং নির্দেশমূলক বিশ্লেষণ দ্বারা প্রভাবিত হবে। 2030 এর দশকের প্রথম দিকে AI উৎক্ষেপণের সিদ্ধান্তের পিছনে চালিকা শক্তি হতে পারে।"
সমস্যা হলো, AI ভুল হতে পারে। হুমকি-শনাক্তকরণ অ্যালগরিদমগুলি ক্ষেপণাস্ত্র হামলার ইঙ্গিত দিতে পারে যখন কিছুই ঘটছে না। এটি কম্পিউটার ত্রুটি, নেটওয়ার্ক অনুপ্রবেশ, অথবা পরিবেশগত কারণগুলির কারণে হতে পারে যা সংকেতগুলিকে অস্পষ্ট করে। যদি না মানব অপারেটররা দুই থেকে তিন মিনিটের মধ্যে অন্য উৎস থেকে মিথ্যা অ্যালার্ম নিশ্চিত করতে পারে, তাহলে তারা প্রতিশোধমূলক হামলা শুরু করতে পারে।
খুব ছোট ভুল, বিশাল বিপর্যয়
অপরাধের পূর্বাভাস, মুখের স্বীকৃতি এবং ক্যান্সারের পূর্বাভাসের মতো অনেক বেসামরিক কাজে কৃত্রিম বুদ্ধিমত্তার ব্যবহারের ক্ষেত্রে ত্রুটির মাত্রা ১০% বলে জানা যায়। সুনদীপ ওয়াসলেকারের মতে, পারমাণবিক প্রাথমিক সতর্কতা ব্যবস্থায়, ত্রুটির মাত্রা প্রায় ৫% হতে পারে।
আগামী দশকে চিত্র স্বীকৃতি অ্যালগরিদমের নির্ভুলতা উন্নত হওয়ার সাথে সাথে, ত্রুটির এই মাত্রা ১-২% এ নেমে আসতে পারে। কিন্তু ১% ত্রুটির মাত্রাও বিশ্বব্যাপী পারমাণবিক যুদ্ধ শুরু করতে পারে।
পারমাণবিক অস্ত্রের বিরুদ্ধে আক্রমণ বা প্রতিশোধ নেওয়ার সিদ্ধান্ত কৃত্রিম বুদ্ধিমত্তার ত্রুটির কারণে হতে পারে। ছবি: মডার্ন ওয়ার ইনস্টিটিউট
আগামী দুই থেকে তিন বছরে ঝুঁকি আরও বাড়তে পারে কারণ নতুন ম্যালওয়্যার আবির্ভূত হচ্ছে যা হুমকি সনাক্তকরণ সিস্টেমকে এড়াতে সক্ষম। এই ম্যালওয়্যার সনাক্তকরণ এড়াতে, স্বয়ংক্রিয়ভাবে লক্ষ্যবস্তু সনাক্ত করতে এবং তাদের আক্রমণ করতে অভিযোজিত হবে।
শীতল যুদ্ধের সময় বেশ কয়েকটি "অস্থিরতার" পরিস্থিতি তৈরি হয়েছিল। ১৯৮৩ সালে, একটি সোভিয়েত উপগ্রহ ভুল করে মার্কিন যুক্তরাষ্ট্রের দ্বারা নিক্ষেপ করা পাঁচটি ক্ষেপণাস্ত্র সনাক্ত করে। রাশিয়ার সেপুখভ-১৫ কমান্ড সেন্টারের একজন কর্মকর্তা স্ট্যানিসল পেট্রোভ এই সিদ্ধান্তে উপনীত হন যে এটি একটি মিথ্যা অ্যালার্ম ছিল এবং তার ঊর্ধ্বতনদের সতর্ক করেনি যাতে তারা পাল্টা আক্রমণ চালাতে পারে।
১৯৯৫ সালে, ওলেনেগোর্স্ক রাডার স্টেশন নরওয়ের উপকূলে একটি ক্ষেপণাস্ত্র হামলা শনাক্ত করে। রাশিয়ার কৌশলগত বাহিনীকে উচ্চ সতর্কতা জারি করা হয় এবং তৎকালীন রাষ্ট্রপতি বরিস ইয়েলৎসিনকে পারমাণবিক ব্রিফকেসটি হস্তান্তর করা হয়। তিনি সন্দেহ করেন যে এটি একটি ভুল ছিল এবং বোতাম টিপেননি। এটি একটি বৈজ্ঞানিক ক্ষেপণাস্ত্র হিসাবে প্রমাণিত হয়। যদি উভয় পরিস্থিতিতেই প্রতিক্রিয়া নির্ধারণের জন্য AI ব্যবহার করা হত, তাহলে ফলাফল বিপর্যয়কর হতে পারত।
হাইপারসনিক ক্ষেপণাস্ত্রগুলি আজকাল AI-এর পরিবর্তে প্রচলিত অটোমেশন ব্যবহার করে। এগুলি Mach 5 থেকে Mach 25 গতিতে ভ্রমণ করতে পারে, রাডার সনাক্তকরণ এড়িয়ে এবং তাদের উড্ডয়নের পথ নিয়ন্ত্রণ করতে পারে। পরাশক্তিগুলি AI-এর সাহায্যে হাইপারসনিক ক্ষেপণাস্ত্রগুলিকে তাৎক্ষণিকভাবে চলমান লক্ষ্যবস্তু সনাক্ত এবং ধ্বংস করার পরিকল্পনা করছে, যার ফলে মানুষ থেকে মেশিনের উপর হত্যার সিদ্ধান্ত স্থানান্তরিত হচ্ছে।
সাধারণ কৃত্রিম বুদ্ধিমত্তা বিকাশের জন্যও একটি প্রতিযোগিতা চলছে, যার ফলে এমন কৃত্রিম বুদ্ধিমত্তা মডেল তৈরি হতে পারে যা মানুষের নিয়ন্ত্রণের বাইরে কাজ করে। যখন এটি ঘটবে, তখন কৃত্রিম বুদ্ধিমত্তা সিস্টেমগুলি সিদ্ধান্ত গ্রহণের প্রক্রিয়াগুলি দখল করে নিজেদের উন্নত এবং প্রতিলিপি করতে শিখবে। যদি এই ধরনের কৃত্রিম বুদ্ধিমত্তা পারমাণবিক অস্ত্রের জন্য সিদ্ধান্ত-সহায়ক ব্যবস্থায় একীভূত করা হয়, তাহলে মেশিনগুলি ধ্বংসাত্মক যুদ্ধ শুরু করতে সক্ষম হবে।
পদক্ষেপ নেওয়ার সময়
উপরোক্ত ঝুঁকির মুখোমুখি হয়ে, অনেক বিশেষজ্ঞ বিশ্বাস করেন যে পারমাণবিক যুদ্ধের ঝুঁকি কমাতে মানবজাতির জন্য বৃহৎ শক্তিগুলির মধ্যে একটি ব্যাপক চুক্তি প্রয়োজন, যা "মানুষের মধ্যে লুপ" স্লোগানের পুনরাবৃত্তির বাইরেও যেতে পারে।
এই চুক্তিতে স্বচ্ছতা, জবাবদিহিতা এবং সহযোগিতার ব্যবস্থা অন্তর্ভুক্ত থাকা উচিত; পরীক্ষা ও মূল্যায়নের জন্য আন্তর্জাতিক মান; সংকট যোগাযোগ চ্যানেল; জাতীয় তদারকি বোর্ড; এবং মানব অপারেটরদের এড়িয়ে যেতে সক্ষম আক্রমণাত্মক এআই মডেলগুলিকে নিষিদ্ধ করার নিয়ম।
১৯৪৫ সালে পারমাণবিক বোমা হামলায় বিধ্বস্ত হিরোশিমায় এক শান্তি স্মারক অনুষ্ঠানে যোগ দিচ্ছেন মহাসচিব আন্তোনিও গুতেরেস। ছবি: জাতিসংঘ
ভূ-রাজনৈতিক পরিবর্তনগুলি এই ধরণের চুক্তির সুযোগ তৈরি করছে। উদাহরণস্বরূপ, চীন এবং মার্কিন যুক্তরাষ্ট্রের শীর্ষস্থানীয় এআই বিশেষজ্ঞরা এআই ঝুঁকি নিয়ে বেশ কয়েকটি ট্র্যাক-টু সংলাপে অংশ নিয়েছেন, যার ফলে গত নভেম্বরে প্রাক্তন মার্কিন রাষ্ট্রপতি জো বাইডেন এবং চীনা রাষ্ট্রপতি শি জিনপিং একটি যৌথ বিবৃতি দিয়েছেন।
ডঃ সুনদীপ ওয়াসলেকারের মতে, বিলিয়নেয়ার এলন মাস্ক কৃত্রিম বুদ্ধিমত্তার অস্তিত্বগত ঝুঁকি থেকে মানবতাকে বাঁচানোর প্রয়োজনীয়তার একজন জোরালো সমর্থক এবং তিনি বর্তমান মার্কিন প্রেসিডেন্ট ডোনাল্ড ট্রাম্পকে জো বাইডেন এবং শি জিনপিংয়ের মধ্যে যৌথ বিবৃতিকে একটি চুক্তিতে রূপান্তরিত করার জন্য অনুরোধ করতে পারেন।
ডঃ সুনদীপ ওয়াসলেকারের মতে, এআই-পারমাণবিক চ্যালেঞ্জের জন্য রাশিয়ার অংশগ্রহণও প্রয়োজন। এই বছরের জানুয়ারী পর্যন্ত, রাশিয়া ইউক্রেন নিয়ে আলোচনা না করা পর্যন্ত এআই-এর সাথে একীভূতকরণ সহ কোনও পারমাণবিক ঝুঁকি হ্রাস ব্যবস্থা নিয়ে আলোচনা করতে অস্বীকৃতি জানিয়েছিল।
দ্বিপাক্ষিক সম্পর্ক উন্নত করতে এবং ইউক্রেনের যুদ্ধের অবসান ঘটাতে রাষ্ট্রপতি ডোনাল্ড ট্রাম্প রাশিয়ার রাষ্ট্রপতি ভ্লাদিমির পুতিনের সাথে সংলাপে অংশ নেওয়ার সাথে সাথে, রাশিয়া এখন আলোচনার জন্য উন্মুক্ত হতে পারে।
এই বছরের ফেব্রুয়ারিতে, প্যারিস এআই অ্যাকশন সামিটে মার্কিন ভাইস প্রেসিডেন্ট জেডি ভ্যান্সের বক্তৃতার পর, সেন্টার ফর এ নিউ আমেরিকান সিকিউরিটি (সিএনএএস) "প্রিভেন্টিং অ্যা এআই ডুমসডে: ইউএস-চীন-রাশিয়া প্রতিযোগিতা অ্যাট দ্য নেক্সাস অফ নিউক্লিয়ার ওয়াপন্স অ্যান্ড আর্টিফিশিয়াল ইন্টেলিজেন্স" শীর্ষক একটি প্রতিবেদন প্রকাশ করে।
প্রতিবেদনে এআই-পারমাণবিক সংযোগের সবচেয়ে গুরুত্বপূর্ণ ঝুঁকিগুলি চিহ্নিত করা হয়েছে এবং মার্কিন প্রশাসনকে চীন ও রাশিয়ার সাথে ঝুঁকি প্রশমন এবং সংকট ব্যবস্থাপনার একটি বিস্তৃত সেট প্রতিষ্ঠা করার আহ্বান জানানো হয়েছে।
এর আগে, গত বছরের সেপ্টেম্বরে, দক্ষিণ কোরিয়ার সিউলে অনুষ্ঠিত রেসপন্সিবল এআই ইন মিলিটারি সামিট (REIM) -এ আমেরিকা সহ প্রায় ৬০টি দেশ সামরিক বাহিনীতে এআই-এর দায়িত্বশীল ব্যবহার পরিচালনার জন্য একটি "কর্মপরিকল্পনা" গ্রহণ করে। গত বছর হেগে অনুষ্ঠিত সম্মেলনের পর এটি ছিল এই ধরণের দ্বিতীয় সম্মেলন। এই আন্দোলনগুলি দেখায় যে এআই দ্বারা শুরু হওয়া পারমাণবিক যুদ্ধের ঝুঁকি বিজ্ঞান কল্পকাহিনী নয়।
বিশ্ব স্পষ্টতই একটি ক্রমবর্ধমান জরুরি অস্তিত্বগত সমস্যার মুখোমুখি হচ্ছে যার জন্য পারমাণবিক শক্তিধর দেশগুলির কাছ থেকে বাস্তব পদক্ষেপ নেওয়া প্রয়োজন যাতে "পারমাণবিক অস্ত্র ব্যবহারের প্রতিটি সিদ্ধান্ত মানুষ দ্বারা নেওয়া হয়, মেশিন বা অ্যালগরিদম দ্বারা নয়" - যেমনটি জাতিসংঘের মহাসচিব আন্তোনিও গুতেরেস আহ্বান জানিয়েছেন।
নগুয়েন খান










মন্তব্য (0)