গুগল এবং অন্যান্য ইন্টারনেট সার্চ ইঞ্জিনে কেন ChatGPT কথোপকথন দেখা যায়?
ড্যান ট্রাই রিপোর্ট করেছেন যে , ব্যবহারকারী এবং চ্যাটজিপিটির মধ্যে কথোপকথনের একটি সিরিজ হঠাৎ করে গুগল সার্চ ফলাফল এবং অন্যান্য ইন্টারনেট সার্চ ইঞ্জিনে প্রকাশ্যে প্রকাশিত হয়েছে।
এর কারণ হল ChatGPT-এর একটি স্বল্প পরিচিত বৈশিষ্ট্য রয়েছে যা ব্যবহারকারীদের ChatGPT-তে তাদের কথোপকথনের বিষয়বস্তু অন্য ব্যক্তির সাথে শেয়ার করার জন্য একটি লিঙ্ক তৈরি করতে বা সামাজিক নেটওয়ার্কগুলিতে এই বিষয়বস্তু শেয়ার করার অনুমতি দেয়।
ব্যবহারকারীরা চ্যাটজিপিটিতে "শেয়ার" বোতাম টিপে কথোপকথনের বিষয়বস্তু (স্ক্রিনশট) শেয়ার করতে পারেন।
যাদের সাথে শেয়ার করা হয়েছে তাদের এই লিঙ্কে ক্লিক করে ব্যবহারকারী এবং ChatGPT-এর মধ্যে সম্পূর্ণ কথোপকথন দেখতে হবে যাতে তারা ChatGPT-এর ক্ষমতা আরও ভালভাবে বুঝতে পারে, সেইসাথে ChatGPT কীভাবে একটি নির্দিষ্ট সমস্যার প্রতি সাড়া দেয় তা জানতে পারে।
তবে, যখন আপনি এই শেয়ার বোতামে ক্লিক করবেন, তখন Google ChatGPT-তে চ্যাট কন্টেন্ট সম্বলিত ওয়েবসাইটের লিঙ্কটিও সূচী করবে। এর অর্থ হল চ্যাট কন্টেন্টটি সর্বজনীন হবে এবং Google-এ অনুসন্ধানযোগ্য হবে।
আসলে, অনেকেই তাদের কথোপকথন এবং ChatGPT এর বিষয়বস্তু কিছু পরিচিতদের সাথে শেয়ার করতে চান অথবা কোনও উদ্দেশ্যে সোশ্যাল নেটওয়ার্কে শেয়ার করতে চান, কিন্তু কথোপকথনের বিষয়বস্তু গুগল এবং অনলাইন সার্চ ইঞ্জিনে সর্বজনীন করার কোনও ইচ্ছা তাদের নেই।
ওপেনএআই গুগল এবং অন্যান্য অনলাইন সার্চ ইঞ্জিনের সাথে কাজ করছে যাতে ইন্টারনেটে ব্যবহারকারী এবং চ্যাটজিপিটির মধ্যে হাজার হাজার কথোপকথন ডি-ইনডেক্স করা যায়।
আপনি যদি কখনও ChatGPT-এর সাথে আপনার চ্যাট কন্টেন্ট শেয়ার করার জন্য কোনও লিঙ্ক তৈরি না করে থাকেন, তাহলে এই বিষয়ে চিন্তা করবেন না।
আমার ChatGPT কথোপকথনের বিষয়বস্তু ইন্টারনেটে প্রকাশ করা হবে কিনা তা কি উদ্বেগজনক?
সৌভাগ্যবশত, ChatGPT চ্যাটে নির্দিষ্ট ব্যবহারকারীদের ট্যাগ করে না, যার অর্থ হল চ্যাটের বিষয়বস্তু ফাঁস হয়ে গেলে, বাইরের লোকেরা জানতে পারবে না যে ChatGPT-এর সাথে কে এই কথোপকথন করছে।
তবে, যদি ব্যবহারকারীরা ব্যক্তিগত এবং ব্যক্তিগত তথ্য যেমন পুরো নাম, বাড়ির ঠিকানা, ইমেল, কাজের বিবরণ এমনকি ব্যক্তিগত পরিচয় নম্বর, ব্যাংক অ্যাকাউন্ট... শেয়ার করে, তাহলে এই তথ্য সম্পূর্ণরূপে খারাপ লোকদের দখলে চলে যেতে পারে।
ChatGPT কথোপকথন সর্বজনীন করার ঝুঁকি
- ব্যক্তিগত তথ্য ফাঁস: অনেক ব্যবহারকারী খোলাখুলিভাবে তাদের ব্যক্তিগত এবং ব্যক্তিগত তথ্য ChatGPT-এর সাথে শেয়ার করেন, যদিও তারা জানেন না যে এই তথ্য ফাঁস হতে পারে, যার ফলে তথ্য চুরি হয়ে যাওয়ার এবং খারাপ লোকদের দ্বারা শোষণের ঝুঁকি থাকে।
- খ্যাতির ক্ষতি: ChatGPT-এর সাথে কথোপকথনের বিষয়বস্তুর সাথে সম্পর্কিত ব্যক্তিগত এবং ব্যক্তিগত তথ্য, যদি কথোপকথনে ব্যক্তিগত, সংবেদনশীল বিষয়বস্তু থাকে তবে একজন ব্যক্তির খ্যাতির উপর প্রভাব ফেলতে পারে।
- পেশাদার এবং কাজের তথ্য ফাঁস: যদি ChatGPT কাজ, প্রকল্প বা পরিকল্পিত প্রচারণার বিষয়ে পরামর্শের জন্য ব্যবহার করা হয় এবং কথোপকথন ফাঁস হয়ে যায়, তাহলে কোম্পানির গোপনীয়তা প্রভাবিত হবে।
ChatGPT-এর সাথে চ্যাটে কখনও ব্যক্তিগত, ব্যক্তিগত এবং গুরুত্বপূর্ণ তথ্য শেয়ার করবেন না (চিত্র: গেটি)।
ChatGPT আরও নিরাপদে ব্যবহার করার জন্য নোটস
এই ঘটনা থেকে, একটি বিষয় যা উদ্বিগ্ন হওয়া দরকার তা হল বিশেষ করে ChatGPT এবং সাধারণভাবে AI টুলগুলি নিরাপদে ব্যবহার করা। বিশেষজ্ঞরা এটি করার জন্য কিছু পরামর্শ দিয়েছেন:
- শুধু ChatGPT নয়, কোনও AI টুলের সাথে কোনও কথোপকথনে সংবেদনশীল, ব্যক্তিগত তথ্য শেয়ার করবেন না।
- একেবারে প্রয়োজন না হলে, ChatGPT-এর সাথে কথোপকথনের বিষয়বস্তু শেয়ার করার জন্য বোতাম টিপবেন না। যদি আপনি শেয়ার করতে চান, তাহলে কথোপকথনের বিষয়বস্তু সাবধানে পরীক্ষা করে দেখুন যাতে এতে কোনও ব্যক্তিগত, ব্যক্তিগত তথ্য না থাকে।
- যখন আপনি কোনও কথোপকথনের বিষয়বস্তু শেয়ার করতে চান, তখন সেই কথোপকথনটি সরাসরি অ্যাক্সেস করার জন্য কোনও লিঙ্ক তৈরি করার পরিবর্তে আপনার কেবল একটি স্ক্রিনশট নেওয়া উচিত। স্ক্রিনশট নেওয়ার সময়, কথোপকথনের বিষয়বস্তু এবং ব্যক্তিগত তথ্য ঢেকে রাখতে ভুলবেন না।
AI চ্যাটবট টুল ব্যবহার করার সময় সর্বদা সতর্ক থাকুন (চিত্র: Pinterest)।
ChatGPT-এর ঘটনাটি ব্যবহারকারী সম্প্রদায়ের জন্য একটি সতর্কতা হিসেবে বিবেচিত, যাতে তারা সমস্ত ব্যক্তিগত এবং ব্যক্তিগত তথ্য ভাগ করে নেওয়ার জন্য AI সরঞ্জামগুলিতে খুব বেশি বিশ্বাস না করে। যদিও আমরা কাজ, অধ্যয়ন বা গবেষণার জন্য AI সরঞ্জামগুলি ক্রমবর্ধমানভাবে ব্যবহার করছি, তবুও আমাদের এই সরঞ্জামগুলি সম্পর্কে সর্বদা সতর্ক এবং সতর্ক থাকা উচিত।
সূত্র: https://dantri.com.vn/cong-nghe/noi-dung-tro-chuyen-voi-chatgpt-bi-cong-khai-tren-mang-co-dang-lo-ngai-20250804164714417.htm
মন্তব্য (0)