![]() |
এআই চ্যাটবটগুলি পরোক্ষভাবে একটি প্রতিক্রিয়া ব্যবস্থার মাধ্যমে নেতিবাচক আচরণ প্রচার করছে যা সর্বদা ব্যবহারকারীর চুক্তিকে অগ্রাধিকার দেয়। ছবি: দ্য ডিকোডার । |
স্ট্যানফোর্ড বিশ্ববিদ্যালয়ের এক চমকপ্রদ গবেষণায় কৃত্রিম বুদ্ধিমত্তার অন্ধকার দিকটি উন্মোচিত হয়েছে। চ্যাটজিপিটি এবং জেমিনির মতো জনপ্রিয় মডেলগুলি ব্যবহারকারীদের প্রতি ক্রমশ অতিরিক্ত আপত্তিকর হয়ে উঠছে। তারা কেবল ব্যক্তিগত মতামতের সাথেই একমত নয়, অনৈতিক আচরণকেও সমর্থন করে।
এটি মানুষের মনস্তাত্ত্বিক এবং জ্ঞানীয় বিকাশের জন্য বিপজ্জনক পরিণতি তৈরি করে। আমরা ধীরে ধীরে নিজেদের আরও খারাপ সংস্করণে পরিণত হচ্ছি কারণ প্রতিটি ভুলের ক্ষেত্রে আমরা ক্রমাগত কৃত্রিম বুদ্ধিমত্তার দ্বারা সান্ত্বনা পাচ্ছি।
"তোষামোদ" এর ঘটনা
কম্পিউটার বিজ্ঞানে , "চাটুকার" নামে একটি শব্দ আছে, যা ব্যবহারকারীকে তোষামোদ করার জন্য AI কীভাবে তার প্রতিক্রিয়াগুলিকে সামঞ্জস্য করে তা বোঝায়।
স্ট্যানফোর্ডের একটি গবেষণা দল ১১,৫০০ টিরও বেশি বাস্তব জীবনের ব্যবহারকারীর কথোপকথন বিশ্লেষণ করেছে। ফলাফলে দেখা গেছে যে AI মডেলগুলি প্রকৃত মানুষের তুলনায় ব্যবহারকারীদের সাথে ৫০% বেশি একমত হয়েছে। যখন ব্যবহারকারীরা পক্ষপাতদুষ্ট প্রশ্ন জিজ্ঞাসা করেছিলেন, তখন AI বস্তুনিষ্ঠ তথ্য প্রদানের পরিবর্তে তাদের সাথেই চলতে থাকে।
একটি পরীক্ষায় রেডডিট ফোরামের পোস্টগুলিতে মানুষের এবং চ্যাটবটের প্রতিক্রিয়াগুলির তুলনা করা হয়েছে যেখানে ব্যবহারকারীরা সম্প্রদায়কে তাদের আচরণ বিচার করতে বলেছিলেন।
যদিও সম্প্রদায়টি একজনকে গাছের ডালে আবর্জনার ব্যাগ ঝুলিয়ে রাখার জন্য কঠোর সমালোচনা করেছিল কারণ তারা আবর্জনার ক্যান খুঁজে পায়নি, ChatGPT-4o এর প্রশংসা করে বলেছিল, "তুমি চলে যাওয়ার পরে পরিষ্কার করার তোমার উদ্দেশ্য প্রশংসনীয়।"
![]() |
বিশেষজ্ঞরা ব্যবহারকারীদের এআই-এর পরিবর্তে পরিবার এবং বন্ধুদের কাছ থেকে পরামর্শ নেওয়ার পরামর্শ দিচ্ছেন। ছবি: ব্লুমবার্গ |
আরও উদ্বেগের বিষয় হলো, জেমিনি বা চ্যাটজিপিটির মতো চ্যাটবটগুলি ব্যবহারকারীর অভিপ্রায় যাচাই করে চলেছে, এমনকি যখন এটি দায়িত্বজ্ঞানহীন, প্রতারণামূলক, অথবা আত্ম-ক্ষতির উদ্দেশ্যে তৈরি হয়।
"বড় আকারের ভাষা মডেলগুলি ব্যবহারকারীর বিশ্বাস সংশোধন করার পরিবর্তে তাদের প্রতিফলিত করতে শিখছে," গবেষণার প্রধান লেখক মাইরা চেং সতর্ক করে বলেছেন।
তার মতে, উচ্চ রেটিং পাওয়ার জন্য মানুষকে খুশি করার লক্ষ্য কৃত্রিম বুদ্ধিমত্তাকে একটি অসৎ হাতিয়ারে পরিণত করেছে।
"যদি AI মডেলগুলি মানুষের সাথে ধারাবাহিকভাবে একমত হয়, তাহলে তারা নিজেদের, সম্পর্ক এবং তাদের চারপাশের জগৎ সম্পর্কে ব্যবহারকারীদের ধারণা বিকৃত করতে পারে। এটা বোঝা কঠিন যে এই মডেলগুলি আমাদের পূর্ব-বিদ্যমান বিশ্বাস, অনুমান এবং সিদ্ধান্তগুলিকে সূক্ষ্মভাবে শক্তিশালী করছে," বিশেষজ্ঞ আরও বলেন।
ডঃ আলেকজান্ডার লাফার (উইনচেস্টার বিশ্ববিদ্যালয়) যুক্তি দেন যে এই তোষামোদ প্রশিক্ষণ পদ্ধতি এবং বাণিজ্যিক চাপের একটি স্বাভাবিক পরিণতি।
"এআই কীভাবে প্রশিক্ষিত হয় তার উপরই চাটুকারিতা নির্ভর করে। বাস্তবতা হলো তাদের বাণিজ্যিক সাফল্য প্রায়শই ব্যবহারকারীদের আকর্ষণ করার ক্ষমতার উপর নির্ভর করে বিচার করা হয়," লাফার পর্যবেক্ষণ করেন।
এই সমস্যা সমাধানের জন্য, মিসেস চেং ব্যবহারকারীদের কেবল এআই-এর উপর নির্ভর না করার পরামর্শ দেন।
"শুধুমাত্র AI উত্তরের উপর নির্ভর করার পরিবর্তে, প্রকৃত মানুষদের কাছ থেকে দৃষ্টিভঙ্গি খোঁজা অত্যন্ত গুরুত্বপূর্ণ যারা প্রেক্ষাপট এবং আপনি কে তা বোঝেন," চেং পরামর্শ দেন।
একই সাথে, ডঃ লাফার প্রস্তুতকারকের দায়িত্বের উপরও জোর দেন।
"আমাদের ডিজিটাল মূল্যায়ন ক্ষমতা উন্নত করতে হবে... ডেভেলপারদেরও এই সিস্টেমগুলি তৈরি এবং পরিমার্জন করার দায়িত্ব রয়েছে যাতে তারা সত্যিকার অর্থে ব্যবহারকারীদের উপকার করতে পারে," ডাক্তার বলেন।
নিজের "খারাপ সংস্করণ" থাকার পরিণতি।
গবেষণায় জোর দেওয়া হয়েছে যে AI-এর চাটুকারিতা একটি ব্যক্তিগতকৃত "তথ্য প্রতিধ্বনি চেম্বার" তৈরি করে, যা সমালোচনামূলক চিন্তাভাবনার প্রয়োজনীয়তা দূর করে যা ব্যক্তিদের পরিপক্ক হতে এবং তাদের ভুলগুলি স্বীকৃতি দিতে সাহায্য করবে।
"এআই-এর সাথে কথোপকথনের সময়, আপনাকে কখনই বুদ্ধিবৃত্তিকভাবে চ্যালেঞ্জ করা হবে না। এআই সর্বদা বলবে যে আপনি ঠিক এবং অন্য ব্যক্তির দোষ আছে। এটি ব্যবহারকারীদের মধ্যে একটি মিথ্যা আত্মবিশ্বাস তৈরি করে, এমনকি যখন তারা বিদ্বেষপূর্ণ আচরণ করছে," গবেষণায় বলা হয়েছে।
এই প্রক্রিয়াটি মানুষের সমালোচনামূলক চিন্তাভাবনার ক্ষমতা সম্পূর্ণরূপে নষ্ট করে দেয়। আত্ম-প্রতিফলনের পরিবর্তে, আমরা আমাদের নিজস্ব অনুমান যাচাই করার জন্য AI কে একটি হাতিয়ার হিসেবে ব্যবহার করি।
সময়ের সাথে সাথে, সমাজে বোঝাপড়া এবং আপোষের ক্ষমতা মারাত্মকভাবে হ্রাস পাবে। আমাদের চারপাশের মানুষের ভিন্ন মতামত গ্রহণ করা আমাদের জন্য কঠিন হয়ে পড়বে। কারণ কৃত্রিম বুদ্ধিমত্তার জগতে, আমরা সর্বদা কেন্দ্রবিন্দুতে এবং সর্বদা সঠিক।
![]() |
এআই পরোক্ষভাবে "চাটুকার" এর ভূমিকা পালন করছে, যা এর ব্যবহারকারীদের ব্যক্তিত্ব এবং নৈতিকতা ধ্বংস করছে। ছবি: শাটারস্টক। |
গবেষণা জীবনে একটি বিপজ্জনক চক্র তৈরি হওয়ার বিষয়ে সতর্ক করে। প্রথমত, ব্যবহারকারীরা অন্যদের ক্ষতি করার জন্য একটি ভুল চিন্তাভাবনা বা অভিপ্রায় তৈরি করে। তারা আত্মবিশ্বাস বা পরামর্শের জন্য AI-এর দিকে ঝুঁকে পড়ে। এই মুহুর্তে, AI নিশ্চিত করে যে কাজটি সম্পূর্ণরূপে ন্যায্য এবং ব্যবহারকারীকে সমর্থন করে। ব্যবহারকারী আরও আত্মবিশ্বাসী বোধ করেন এবং বাস্তব জীবনে কোনও অনুশোচনা ছাড়াই আচরণটি সম্পাদন করেন।
ফলস্বরূপ, মানুষ আর সম্পর্ক মেরামত করতে বা নিজেদের উন্নত করতে চায় না। আমরা ক্রমবর্ধমানভাবে AI-কে সম্পূর্ণরূপে বিশ্বাস করি কারণ এটি সান্ত্বনার অনুভূতি প্রদান করে। "সান্ত্বনা পাওয়ার" উপর এই নির্ভরতা আমাদের বস্তুনিষ্ঠ বাস্তবতা থেকে দূরে সরিয়ে দেয়।
এআই এখন আর কেবল একটি বুদ্ধিমান সহায়তার হাতিয়ার নয়। এটি একটি পরোক্ষ "চাটুকার" হয়ে উঠেছে যা এর ব্যবহারকারীদের চরিত্র এবং নৈতিকতা ধ্বংস করে।
সূত্র: https://znews.vn/dung-nghe-loi-chatgpt-post1634436.html









মন্তব্য (0)