Vietnam.vn - Nền tảng quảng bá Việt Nam

خطرات امنیتی هنگام استفاده از ChatGPT

Báo Thanh niênBáo Thanh niên16/04/2023


بزرگترین بانک آمریکا، جی‌پی‌مورگان چیس، آمازون و شرکت فناوری اکسنچر، همگی به دلیل نگرانی‌های مربوط به امنیت داده‌ها، استفاده از ChatGPT را برای کارمندان خود محدود کرده‌اند.

طبق گزارش CNN، نگرانی‌های این کسب‌وکارها کاملاً بجاست. در ۲۰ مارس، چت‌بات OpenAI دچار خطایی شد که اطلاعات کاربران را افشا می‌کرد. اگرچه این خطا به سرعت برطرف شد، اما این شرکت فاش کرد که این حادثه ۱.۲٪ از کاربران ChatGPT Plus را تحت تأثیر قرار داده است. اطلاعات فاش شده شامل نام کامل، آدرس ایمیل، آدرس صورتحساب، چهار رقم آخر شماره کارت اعتباری و تاریخ انقضای کارت بود.

در ۳۱ مارس، پس از افشای آسیب‌پذیری توسط OpenAI، مرجع حفاظت از داده‌های ایتالیا (گارانته) با استناد به نگرانی‌های مربوط به حریم خصوصی، ممنوعیت موقت ChatGPT را صادر کرد.

مارک مک‌کرری، رئیس مشترک امنیت داده‌ها و حریم خصوصی در شرکت حقوقی Fox Rothschild LLP، به CNN گفت که نگرانی‌های امنیتی پیرامون ChatGPT اغراق‌آمیز نیستند. او این چت‌بات هوش مصنوعی را به یک «جعبه سیاه» تشبیه کرد.

ChatGPT در نوامبر ۲۰۲۲ توسط OpenAI راه‌اندازی شد و به سرعت به دلیل توانایی‌اش در نوشتن مقاله، سرودن داستان یا ترانه با ارائه دستورالعمل‌هایی به آنها، توجه‌ها را به خود جلب کرد. غول‌های فناوری مانند گوگل و مایکروسافت نیز ابزارهای هوش مصنوعی راه‌اندازی کرده‌اند که به طور مشابه کار می‌کنند و از مدل‌های زبانی بزرگی که بر روی ذخایر عظیم داده آنلاین آموزش دیده‌اند، پشتیبانی می‌شوند.

chatgpt.jpg

پس از اقدام ایتالیا، آلمان نیز در حال بررسی ممنوعیت ChatGPT است.

آقای مک‌کری افزود، وقتی کاربران اطلاعات را در این ابزارها وارد می‌کنند، نمی‌دانند که چگونه از آن استفاده خواهد شد. این موضوع برای شرکت‌ها نگران‌کننده است، زیرا تعداد فزاینده‌ای از کارمندان از ابزارهایی برای نوشتن ایمیل‌های کاری یا یادداشت‌برداری برای جلسات استفاده می‌کنند که منجر به خطر بیشتر افشای اسرار تجاری می‌شود.

استیو میلز، مدیر اخلاق هوش مصنوعی در گروه مشاوره بوستون (BCG)، گفت که شرکت‌ها نگران افشای تصادفی اطلاعات حساس توسط کارمندان خود هستند. اگر از داده‌های ورودی افراد برای آموزش این ابزار هوش مصنوعی استفاده شود، آنها کنترل داده‌ها را به شخص دیگری واگذار کرده‌اند.

طبق سیاست حفظ حریم خصوصی OpenAI، این شرکت ممکن است تمام اطلاعات و داده‌های شخصی کاربران سرویس را برای بهبود مدل‌های هوش مصنوعی خود جمع‌آوری کند. آن‌ها ممکن است از این اطلاعات برای بهبود یا تجزیه و تحلیل سرویس‌های خود، انجام تحقیقات، ارتباط با کاربران و توسعه برنامه‌ها و سرویس‌های جدید استفاده کنند.

سیاست حفظ حریم خصوصی بیان می‌کند که OpenAI ممکن است اطلاعات شخصی را بدون اطلاع کاربران، مگر اینکه طبق قانون الزامی باشد، در اختیار اشخاص ثالث قرار دهد. OpenAI همچنین سند شرایط خدمات خود را دارد، اما این شرکت بخش عمده‌ای از مسئولیت را بر عهده کاربران می‌گذارد تا هنگام تعامل با ابزارهای هوش مصنوعی، اقدامات مناسب را انجام دهند.

مالکان ChatGPT در وبلاگ خود در مورد رویکردشان به هوش مصنوعی امن مطلبی منتشر کرده‌اند. این شرکت تأکید می‌کند که از داده‌ها برای فروش خدمات، تبلیغات یا ساخت پروفایل کاربران استفاده نمی‌کند. در عوض، OpenAI از داده‌ها برای مفیدتر کردن مدل‌های خود استفاده می‌کند. به عنوان مثال، از مکالمات کاربران برای آموزش ChatGPT استفاده خواهد شد.

06DRHXAVI9Fvj02541vbBqy-1.webp

سیاست حفظ حریم خصوصی ChatGPT کاملاً مبهم تلقی می‌شود.

گوگل، شرکت پشتیبان Bard AI، تمهیدات حریم خصوصی بیشتری برای کاربران هوش مصنوعی خود در نظر گرفته است. این شرکت بخش کوچکی از مکالمه را انتخاب کرده و با استفاده از ابزارهای خودکار، اطلاعات شخصی قابل شناسایی را حذف می‌کند که به بهبود Bard و در عین حال محافظت از حریم خصوصی کاربران کمک خواهد کرد.

مکالمات نمونه توسط مربیان انسانی بررسی و تا سه سال، جدا از حساب گوگل کاربر، ذخیره خواهند شد. گوگل همچنین به کاربران یادآوری می‌کند که اطلاعات شخصی خود یا دیگران را در مکالمات Bard AI قرار ندهند. این غول فناوری تأکید می‌کند که از این مکالمات برای اهداف تبلیغاتی استفاده نخواهد شد و تغییرات را در آینده اعلام خواهد کرد.

هوش مصنوعی بارد به کاربران اجازه می‌دهد تا از ذخیره مکالمات در حساب‌های گوگل خود انصراف دهند، و همچنین مکالمات را از طریق یک لینک بررسی یا حذف کنند. علاوه بر این، این شرکت دارای تمهیداتی است که مانع از گنجاندن اطلاعات شخصی در پاسخ‌ها توسط بارد می‌شود.

استیو میلز می‌گوید گاهی اوقات کاربران و توسعه‌دهندگان تنها زمانی متوجه خطرات امنیتی پنهان در فناوری‌های جدید می‌شوند که خیلی دیر شده است. برای مثال، توابع تکمیل خودکار فرم می‌توانند به‌طور تصادفی شماره تأمین اجتماعی کاربران را فاش کنند.

آقای میلز گفت کاربران نباید چیزی را که نمی‌خواهند با دیگران به اشتراک گذاشته شود، در این ابزارها قرار دهند.



لینک منبع

نظر (0)

No data
No data

در همان موضوع

در همان دسته‌بندی

حفظ روحیه جشنواره اواسط پاییز از طریق رنگ‌های مجسمه‌ها
تنها روستای ویتنام را در بین ۵۰ روستای زیبای جهان کشف کنید
چرا فانوس‌های پرچم قرمز با ستاره‌های زرد امسال محبوب هستند؟
ویتنام برنده مسابقه موسیقی Intervision 2025 شد

از همان نویسنده

میراث

شکل

کسب و کار

No videos available

اخبار

نظام سیاسی

محلی

محصول