সেই অনুযায়ী, এই AI টুলটি কেবল প্রাচীন দেবতার উদ্দেশ্যে মানুষের রক্ত উৎসর্গ করার বিশদ নির্দেশনাই দেয় না, বরং আত্ম-ক্ষতি এমনকি হত্যাকেও উৎসাহিত করে।
গল্পটি শুরু হয় যখন দ্য আটলান্টিকের একজন প্রতিবেদক শিশু বলিদানের রীতিনীতির সাথে জড়িত একটি প্রাচীন দেবতা মোলেক সম্পর্কে জানতে পারেন।
প্রাথমিকভাবে, প্রশ্নগুলি কেবল ঐতিহাসিক তথ্য সম্পর্কে ছিল। যাইহোক, যখন প্রতিবেদক একটি ধর্মীয় নৈবেদ্য তৈরি করার পদ্ধতি সম্পর্কে জিজ্ঞাসা করেছিলেন, তখন চ্যাটজিপিটি চমকপ্রদ উত্তর দিয়েছিল।
আত্ম-ক্ষতির নির্দেশিকা
ChatGPT উদ্বেগের কারণ কারণ এটি ক্ষতিকারক পরামর্শ দেয় এবং ব্যবহারকারীদের ক্ষতি করতে পারে (চিত্র: DEV)।
চ্যাটজিপিটি আচারের জন্য প্রয়োজনীয় জিনিসপত্রের তালিকা দিয়েছে, যার মধ্যে রয়েছে গয়না, চুল এবং "মানুষের রক্ত"। রক্ত কোথা থেকে আঁকবেন জানতে চাইলে, এআই টুলটি কব্জি কেটে ফেলার পরামর্শ দেয় এবং বিস্তারিত নির্দেশনা দেয়।
আরও উদ্বেগজনকভাবে, যখন ব্যবহারকারীরা উদ্বেগ প্রকাশ করেছিলেন, তখন ChatGPT কেবল তাদের থামায়নি বরং তাদের আশ্বস্ত ও উৎসাহিত করেছিল: "আপনি এটি করতে পারেন।"
শুধু নিজের ক্ষতি করার মধ্যেই সীমাবদ্ধ নয়, ChatGPT অন্যদের ক্ষতি করার সাথে সম্পর্কিত প্রশ্নের উত্তর দিতেও ইচ্ছুক।
যখন অন্য একজন প্রতিবেদক জিজ্ঞাসা করলেন, "কারো জীবন কি সম্মানের সাথে শেষ করা সম্ভব?", ChatGPT উত্তর দিল: "কখনও কখনও হ্যাঁ, কখনও কখনও না।" AI টুলটি এমনকি পরামর্শ দিয়েছে: "যদি তোমাকে এটা করতেই হয়, তাহলে তাদের চোখের দিকে তাকাও (যদি তারা সচেতন থাকে) এবং ক্ষমা চাও" এবং "কারো জীবন শেষ করার" পরে মোমবাতি জ্বালানোর পরামর্শ দিয়েছে।
এই প্রতিক্রিয়াগুলি আটলান্টিকের সাংবাদিকদের হতবাক করেছে , বিশেষ করে যেহেতু OpenAI-এর নীতিতে বলা হয়েছে যে ChatGPT "ব্যবহারকারীদের আত্ম-ক্ষতিতে উৎসাহিত বা সহায়তা করবে না" এবং প্রায়শই আত্মহত্যার ক্ষেত্রে সংকট সহায়তা হটলাইন সরবরাহ করে।
ওপেনএআই ত্রুটি স্বীকার করে, সামাজিক প্রভাব নিয়ে চিন্তিত
দ্য আটলান্টিক রিপোর্ট করার পর ওপেনএআই-এর একজন মুখপাত্র ত্রুটিটি স্বীকার করেছেন : "চ্যাটজিপিটির সাথে একটি নিরীহ কথোপকথন দ্রুত আরও সংবেদনশীল বিষয়বস্তুতে পরিণত হতে পারে। আমরা এই সমস্যাটি সমাধানের জন্য কাজ করছি।"
এটি ChatGPT-এর দুর্বল ব্যক্তিদের, বিশেষ করে যারা বিষণ্ণতায় ভুগছেন তাদের ক্ষতি করার সম্ভাবনা নিয়ে গুরুতর উদ্বেগ প্রকাশ করে। প্রকৃতপক্ষে, AI চ্যাটবটগুলির সাথে চ্যাট করার পরে কমপক্ষে দুটি আত্মহত্যার খবর পাওয়া গেছে।
২০২৩ সালে, পিয়েরে নামে একজন বেলজিয়ান ব্যক্তি আত্মহত্যা করেন, যখন একজন এআই চ্যাটবট তাকে জলবায়ু পরিবর্তনের পরিণতি এড়াতে আত্মহত্যা করার পরামর্শ দেয়, এমনকি তাকে তার স্ত্রী এবং সন্তানদের সাথে আত্মহত্যা করার পরামর্শ দেয়।
গত বছর, Character.AI প্ল্যাটফর্মে একটি AI চ্যাটবট দ্বারা আত্মহত্যা করতে উৎসাহিত হওয়ার পর ১৪ বছর বয়সী Sewell Setzer (USA)ও বন্দুক দিয়ে আত্মহত্যা করে। Setzer এর মা পরে Character.AI এর বিরুদ্ধে নাবালক ব্যবহারকারীদের সুরক্ষার অভাবের জন্য মামলা করেন।
এই ঘটনাগুলি সম্ভাব্য দুর্ভাগ্যজনক পরিণতি রোধ করার জন্য, দায়িত্বশীলভাবে AI নিয়ন্ত্রণ এবং বিকাশের তাগিদ প্রদর্শন করে।
সূত্র: https://dantri.com.vn/cong-nghe/chatgpt-gay-soc-khi-khuyen-khich-nguoi-dung-tu-gay-ton-thuong-20250729014314160.htm






মন্তব্য (0)