
ইকোলিক এবং কৃত্রিম বুদ্ধিমত্তার সম্ভাব্য ঝুঁকি
প্রতিবেদন লেখায় সহায়তা করা, ইমেলের উত্তর দেওয়া থেকে শুরু করে তথ্য বিশ্লেষণ করা পর্যন্ত প্রতিটি কাজের অংশ হয়ে ওঠার সাথে সাথে ব্যবহারকারীরা অভূতপূর্ব সুবিধার যুগে বাস করছেন বলে মনে হচ্ছে। কিন্তু সুবিধার অন্ধকার দিকটিও ফুটে উঠতে শুরু করেছে, বিশেষ করে যখন নিরাপত্তার কথা আসে।
ইকোলিক নামে পরিচিত একটি সাম্প্রতিক নিরাপত্তা দুর্বলতার কারণে মাইক্রোসফ্ট কোপাইলট পরিষেবার ব্যবহারকারীরা কোনও পদক্ষেপ না নিলে তাদের সংবেদনশীল তথ্য ফাঁস হওয়ার ঝুঁকিতে পড়েছেন।
যখন AI একটি নিরাপত্তা দুর্বলতা হয়ে ওঠে
Tuoi Tre Online- এর গবেষণা অনুসারে, EchoLeak হল একটি নিরাপত্তা দুর্বলতা যা CVE-2025-32711 কোড দিয়ে রেকর্ড করা হয়েছে, যা বিশেষজ্ঞরা NIST-এর স্কেল অনুসারে 9.3/10 এ বিপজ্জনক হিসাবে রেট করেছেন।
নিরাপত্তা বিশেষজ্ঞদের উদ্বিগ্ন করার বিষয় হল এর "জিরো-ক্লিক" প্রকৃতি: আক্রমণকারীরা কোপাইলট থেকে ডেটা ব্যবহার করতে পারে, ব্যবহারকারীকে ক্লিক না করে, কোনও ফাইল খুলতে না দিয়ে, এমনকি কিছু ঘটছে তা না জেনেও।
এটি কোনও সাধারণ বাগ নয়। এই দুর্বলতা আবিষ্কারকারী Aim Labs-এর গবেষণা দল বিশ্বাস করে যে EchoLeak RAG (retrieval-augmented generation) এবং এজেন্ট-ভিত্তিক AI সিস্টেমের একটি সাধারণ নকশা ত্রুটি প্রতিফলিত করে। যেহেতু Copilot হল Microsoft 365 অ্যাপ্লিকেশন স্যুটের অংশ যা লক্ষ লক্ষ ব্যবহারকারীর ইমেল, নথি, স্প্রেডশিট এবং মিটিং শিডিউল ধারণ করে, তাই ডেটা ফাঁসের ঝুঁকি খুবই গুরুতর।
সমস্যাটি কেবল নির্দিষ্ট কোডেই নয়, বরং বৃহৎ ভাষা মডেল (LLM) কীভাবে কাজ করে তাতেও। সঠিকভাবে প্রতিক্রিয়া জানাতে AI-দের প্রচুর প্রেক্ষাপটের প্রয়োজন হয়, এবং তাই তাদের প্রচুর পরিমাণে ব্যাকগ্রাউন্ড ডেটাতে অ্যাক্সেস দেওয়া হয়। ইনপুট এবং আউটপুটের উপর স্পষ্ট নিয়ন্ত্রণ ছাড়াই, AI-গুলিকে এমনভাবে "চালিত" করা যেতে পারে যা ব্যবহারকারীরা জানেন না। এটি কোডের ত্রুটির কারণে নয়, বরং AI-গুলি মানুষের বোধগম্যতার বাইরে আচরণ করে বলে একটি নতুন ধরণের "ব্যাকডোর" তৈরি করে।
মাইক্রোসফট দ্রুত একটি প্যাচ প্রকাশ করেছে, এবং এখনও পর্যন্ত বাস্তব জগতের কোনও ক্ষতির খবর পাওয়া যায়নি। কিন্তু ইকোলিক থেকে শিক্ষাটি স্পষ্ট: যখন এআই কার্যকরী সিস্টেমে গভীরভাবে সংহত হয়, তখন প্রেক্ষাপট বোঝার ক্ষেত্রে ছোটখাটো ত্রুটিও বড় ধরনের নিরাপত্তার পরিণতি ডেকে আনতে পারে।
যত বেশি সুবিধাজনক AI, ব্যক্তিগত তথ্য তত বেশি ভঙ্গুর
ইকোলিকের ঘটনাটি একটি উদ্বেগজনক প্রশ্ন উত্থাপন করে: ব্যবহারকারীরা কি কৃত্রিম বুদ্ধিমত্তার উপর এতটাই আস্থাশীল যে তারা বুঝতেই পারছেন না যে তাদের ট্র্যাক করা যেতে পারে অথবা শুধুমাত্র একটি টেক্সট মেসেজের মাধ্যমে তাদের ব্যক্তিগত তথ্য প্রকাশ করা যেতে পারে ? একটি নতুন আবিষ্কৃত দুর্বলতা যা হ্যাকারদের কোনও বোতাম টিপে ছাড়াই নীরবে ডেটা বের করতে দেয়, যা একসময় কেবল বিজ্ঞান কল্পকাহিনীর সিনেমায় দেখা যেত, কিন্তু এখন বাস্তবে পরিণত হয়েছে।
যদিও AI অ্যাপ্লিকেশনগুলি ক্রমবর্ধমানভাবে জনপ্রিয় হয়ে উঠছে যেমন Copilot, ব্যাংকিং, শিক্ষার চ্যাটবট, এমনকি AI প্ল্যাটফর্ম যা কন্টেন্ট লেখে, ইমেল প্রক্রিয়া করে, বেশিরভাগ লোককে তাদের ডেটা কীভাবে প্রক্রিয়াজাত এবং সংরক্ষণ করা হয় সে সম্পর্কে সতর্ক করা হয় না।
একটি AI সিস্টেমের সাথে "চ্যাট" এখন আর কেবল সুবিধার জন্য কয়েকটি প্রশ্ন জিজ্ঞাসা করার মতো নয়, বরং অসাবধানতাবশত আপনার অবস্থান, অভ্যাস, আবেগ, এমনকি অ্যাকাউন্টের তথ্যও প্রকাশ করতে পারে।
ভিয়েতনামে, অনেকেই ডিজিটাল নিরাপত্তার মৌলিক জ্ঞান ছাড়াই ফোন এবং কম্পিউটারে AI ব্যবহার করার সাথে পরিচিত। অনেকেই AI এর সাথে ব্যক্তিগত তথ্য শেয়ার করেন কারণ তারা বিশ্বাস করেন "এটি কেবল একটি মেশিন"। কিন্তু বাস্তবে, এর পিছনে এমন একটি সিস্টেম রয়েছে যা অন্য কোথাও ডেটা রেকর্ড করতে, শিখতে এবং প্রেরণ করতে পারে, বিশেষ করে যখন AI প্ল্যাটফর্মটি তৃতীয় পক্ষ থেকে আসে এবং নিরাপত্তার জন্য স্পষ্টভাবে পরীক্ষা করা হয়নি।
ঝুঁকি সীমিত করার জন্য, ব্যবহারকারীদের প্রযুক্তি ত্যাগ করতে হবে না, তবে আরও সচেতন হতে হবে: তাদের সাবধানে পরীক্ষা করা উচিত যে তারা যে AI অ্যাপ্লিকেশনটি ব্যবহার করছেন তার একটি নির্ভরযোগ্য উৎস আছে কিনা, ডেটা এনক্রিপ্ট করা আছে কিনা, এবং বিশেষ করে আইডি নম্বর, ব্যাংক অ্যাকাউন্ট, স্বাস্থ্য তথ্যের মতো সংবেদনশীল তথ্য... স্পষ্টভাবে সতর্ক না করে কোনও AI সিস্টেমের সাথে শেয়ার করবেন না ।
ঠিক যেমন ইন্টারনেটের জন্ম হয়েছিল, ঠিক তেমনই AI-এরও নিখুঁত হতে সময় প্রয়োজন এবং সেই সময়ের মধ্যে, ব্যবহারকারীদেরই প্রথমে নিজেদের সুরক্ষার জন্য সক্রিয়ভাবে কাজ করা উচিত।
তুমি কি কখনো AI এর সাথে খুব বেশি শেয়ার করছো?
"আমার জন্য এই প্রতিবেদনটি পুনর্লিখন করুন কিন্তু আরও বন্ধুত্বপূর্ণ উপায়ে" অথবা "গতকালের সভার সারসংক্ষেপ" কমান্ড টাইপ করার সময়, অনেকেই মনে করেন না যে তারা যে সমস্ত তথ্য প্রবেশ করান, যার মধ্যে অভ্যন্তরীণ বিবরণ, ব্যক্তিগত অনুভূতি বা কাজের অভ্যাস অন্তর্ভুক্ত, তা AI দ্বারা রেকর্ড করা যেতে পারে। আমরা ধীরে ধীরে স্মার্ট টুল দিয়ে চ্যাট করতে অভ্যস্ত হয়ে পড়েছি, সুবিধা এবং গোপনীয়তার মধ্যে সীমানা ভুলে গেছি।
সূত্র: https://tuoitre.vn/lo-hong-bao-mat-trong-microsoft-copilot-canh-bao-moi-ve-nguy-co-ro-ri-du-lieu-tu-ai-20250620103045262.htm






মন্তব্য (0)