প্রযুক্তি-ভিত্তিক জালিয়াতির সংখ্যা ক্রমশ বৃদ্ধি পাচ্ছে, তাই ডিপফেক এখন একটি বড় উদ্বেগের বিষয়।
ডার্কনেট ফোরামে গবেষণা করার পর, যেখানে সাইবার অপরাধীরা প্রায়শই কাজ করে, নিরাপত্তা বিশেষজ্ঞরা দেখেছেন যে জালিয়াতির জন্য ডিপফেক ব্যবহার করে এত বেশি অপরাধী ছিল যে চাহিদা বর্তমানে বাজারে থাকা ডিপফেক সফ্টওয়্যারের সরবরাহকে অনেক বেশি ছাড়িয়ে গেছে।
চাহিদা সরবরাহকে ছাড়িয়ে যাওয়ার সাথে সাথে, ক্যাসপারস্কি বিশেষজ্ঞরা ভবিষ্যদ্বাণী করেছেন যে ডিপফেক কেলেঙ্কারি আরও বৈচিত্র্যময় এবং পরিশীলিত রূপে বৃদ্ধি পাবে: উচ্চমানের ছদ্মবেশী ভিডিও অফার করা থেকে শুরু করে ভুয়া সোশ্যাল মিডিয়া লাইভস্ট্রিমে সেলিব্রিটিদের ছবি ব্যবহার করা, ভুক্তভোগী যে পরিমাণ অর্থ পাঠিয়েছেন তার দ্বিগুণ অর্থ প্রদানের প্রতিশ্রুতি দেওয়া।
রেগুলা ইনফরমেশন রেফারেন্স সিস্টেম অনুসারে, বিশ্বব্যাপী ৩৭% ব্যবসা ডিপফেক ভয়েস জালিয়াতির সম্মুখীন হয়েছে এবং ২৯% ডিপফেক ভিডিওর শিকার হয়েছে।
এই প্রযুক্তি ভিয়েতনামে সাইবার নিরাপত্তার জন্য হুমকি হয়ে দাঁড়িয়েছে, যেখানে সাইবার অপরাধীরা প্রায়শই আত্মীয়স্বজন এবং বন্ধুদের কাছ থেকে টাকা ধার করার জন্য ব্যক্তিদের ছদ্মবেশে ভুয়া ভিডিও কল ব্যবহার করে।
একটি ডিপফেক ভিডিও কল মাত্র এক মিনিট স্থায়ী হতে পারে, যার ফলে ভুক্তভোগীদের আসল এবং নকলের মধ্যে পার্থক্য করা কঠিন হয়ে পড়ে।
অত্যাধুনিক অনলাইন জালিয়াতির ক্ষেত্রে ডিপফেক ধীরে ধীরে একটি "দুঃস্বপ্ন" হয়ে উঠছে।
" ডিপফেক নারী ও সমাজের জন্য এক দুঃস্বপ্নে পরিণত হয়েছে। সাইবার অপরাধীরা কৃত্রিম বুদ্ধিমত্তা (এআই) ব্যবহার করে অশ্লীল ছবি এবং ভিডিওতে, পাশাপাশি প্রচারণামূলক প্রচারণায় ভুক্তভোগীদের মুখ ঢোকাচ্ছে।"
"এই ফর্মগুলির লক্ষ্য হল মিথ্যা তথ্য ছড়িয়ে জনমতকে কাজে লাগানো, এমনকি সংস্থা বা ব্যক্তির সুনামের ক্ষতি করা, " ক্যাসপারস্কির ভিয়েতনাম আঞ্চলিক পরিচালক মিসেস ভো ডুওং তু দিয়েম বলেন।
যদিও অপরাধীরা দূষিত উদ্দেশ্যে কৃত্রিম বুদ্ধিমত্তার অপব্যবহার করছে, তবুও ব্যক্তি এবং ব্যবসা প্রতিষ্ঠানগুলি ডিপফেকস সনাক্ত করতে কৃত্রিম বুদ্ধিমত্তা ব্যবহার করতে পারে, যা কেলেঙ্কারীর সাফল্যের সম্ভাবনা হ্রাস করে।
তদনুসারে, ব্যবহারকারীদের কাছে স্ক্যাম থেকে নিজেদের রক্ষা করার জন্য কিছু কার্যকর সমাধান থাকবে, যেমন AI-জেনারেটেড কন্টেন্ট সনাক্তকরণ সফ্টওয়্যার ব্যবহার করা (ছবি/ভিডিও/শব্দের সম্পাদনার স্তর বিশ্লেষণ এবং নির্ধারণের জন্য উন্নত অ্যালগরিদম ব্যবহার করা)।
ডিপফেক ভিডিওর জন্য, এমন কিছু সরঞ্জাম উপলব্ধ রয়েছে যা মুখের নড়াচড়া এবং কথা বলার অমিল সনাক্ত করতে পারে। কিছু প্রোগ্রাম এমনকি ভিডিও রেজোলিউশন বিশ্লেষণ করে ত্বকের নীচে অস্বাভাবিক রক্ত প্রবাহ সনাক্ত করতে যথেষ্ট শক্তিশালী কারণ হৃদপিণ্ড রক্ত পাম্প করার সময় মানুষের শিরার রঙ পরিবর্তন করে।
এছাড়াও, ছবি, ভিডিও ইত্যাদিতে একটি ওয়াটারমার্কও রয়েছে যা লেখকদের AI পণ্যের কপিরাইট সুরক্ষিত করতে সাহায্য করার জন্য একটি শনাক্তকরণ চিহ্ন হিসেবে কাজ করে। এই বৈশিষ্ট্যটি ডিপফেকের বিরুদ্ধে একটি অস্ত্র হয়ে উঠতে পারে কারণ এটি কৃত্রিম বুদ্ধিমত্তা তৈরি করে এমন প্ল্যাটফর্মের উৎপত্তি সনাক্ত করতে সহায়তা করে। প্রযুক্তিগত জ্ঞানের স্তরের ব্যবহারকারীরা AI এর "হাত" দ্বারা মূল ডেটা কীভাবে সম্পাদনা করা হয়েছে তা তুলনা করার জন্য সামগ্রীর উৎপত্তি সনাক্ত করার একটি উপায় খুঁজে পেতে পারেন।
বর্তমানে, কিছু উদীয়মান প্রযুক্তি ভিডিওতে নির্দিষ্ট সময়ের ব্যবধানে হ্যাশ মান সন্নিবেশ করার জন্য এনক্রিপশন অ্যালগরিদম ব্যবহার করে। যদি ভিডিওটি সম্পাদনা করা হয়ে থাকে, তাহলে হ্যাশ মান পরিবর্তন হবে এবং সেখান থেকে ব্যবহারকারীরা যাচাই করতে পারবেন যে সামগ্রীতে কোনও পরিবর্তন করা হয়েছে কিনা।
ভিডিওগুলিতে অসঙ্গতি খুঁজে বের করার বিষয়ে অতীতে কিছু টিউটোরিয়াল ছিল, উদাহরণস্বরূপ, রঙের বিচ্যুতি, অস্বাভাবিক পেশীর নড়াচড়া, চোখের নড়াচড়া... তবে, AI ক্রমশ স্মার্ট হয়ে উঠছে তাই এই মানগুলি সবসময় সঠিক ফলাফল দেয় না।
ভিডিওর নির্ভরযোগ্যতা যাচাইয়ের প্রক্রিয়াটি এখন আর খালি চোখে দেখার উপর ভিত্তি করে নয় বরং জাল বিষয়বস্তু প্রতিরোধ এবং সনাক্তকরণের উদ্দেশ্যে তৈরি প্রযুক্তিগত সরঞ্জামের প্রয়োজন।
খান লিন
[বিজ্ঞাপন_২]
উৎস
মন্তব্য (0)