بزرگترین بانک آمریکا، جیپیمورگان چیس، آمازون و شرکت فناوری اکسنچر، همگی به دلیل نگرانیهای مربوط به امنیت دادهها، استفاده از ChatGPT را برای کارمندان خود محدود کردهاند.
طبق گزارش CNN، نگرانیهای این کسبوکارها کاملاً بجاست. در ۲۰ مارس، چتبات OpenAI دچار خطایی شد که اطلاعات کاربران را افشا میکرد. اگرچه این خطا به سرعت برطرف شد، اما این شرکت فاش کرد که این حادثه ۱.۲٪ از کاربران ChatGPT Plus را تحت تأثیر قرار داده است. اطلاعات فاش شده شامل نام کامل، آدرس ایمیل، آدرس صورتحساب، چهار رقم آخر شماره کارت اعتباری و تاریخ انقضای کارت بود.
در ۳۱ مارس، پس از افشای آسیبپذیری توسط OpenAI، مرجع حفاظت از دادههای ایتالیا (گارانته) با استناد به نگرانیهای مربوط به حریم خصوصی، ممنوعیت موقت ChatGPT را صادر کرد.
مارک مککرری، رئیس مشترک امنیت دادهها و حریم خصوصی در شرکت حقوقی Fox Rothschild LLP، به CNN گفت که نگرانیهای امنیتی پیرامون ChatGPT اغراقآمیز نیستند. او این چتبات هوش مصنوعی را به یک «جعبه سیاه» تشبیه کرد.
ChatGPT در نوامبر ۲۰۲۲ توسط OpenAI راهاندازی شد و به سرعت به دلیل تواناییاش در نوشتن مقاله، سرودن داستان یا ترانه با ارائه دستورالعملهایی به آنها، توجهها را به خود جلب کرد. غولهای فناوری مانند گوگل و مایکروسافت نیز ابزارهای هوش مصنوعی راهاندازی کردهاند که به طور مشابه کار میکنند و از مدلهای زبانی بزرگی که بر روی ذخایر عظیم داده آنلاین آموزش دیدهاند، پشتیبانی میشوند.
پس از اقدام ایتالیا، آلمان نیز در حال بررسی ممنوعیت ChatGPT است.
آقای مککری افزود، وقتی کاربران اطلاعات را در این ابزارها وارد میکنند، نمیدانند که چگونه از آن استفاده خواهد شد. این موضوع برای شرکتها نگرانکننده است، زیرا تعداد فزایندهای از کارمندان از ابزارهایی برای نوشتن ایمیلهای کاری یا یادداشتبرداری برای جلسات استفاده میکنند که منجر به خطر بیشتر افشای اسرار تجاری میشود.
استیو میلز، مدیر اخلاق هوش مصنوعی در گروه مشاوره بوستون (BCG)، گفت که شرکتها نگران افشای تصادفی اطلاعات حساس توسط کارمندان خود هستند. اگر از دادههای ورودی افراد برای آموزش این ابزار هوش مصنوعی استفاده شود، آنها کنترل دادهها را به شخص دیگری واگذار کردهاند.
طبق سیاست حفظ حریم خصوصی OpenAI، این شرکت ممکن است تمام اطلاعات و دادههای شخصی کاربران سرویس را برای بهبود مدلهای هوش مصنوعی خود جمعآوری کند. آنها ممکن است از این اطلاعات برای بهبود یا تجزیه و تحلیل سرویسهای خود، انجام تحقیقات، ارتباط با کاربران و توسعه برنامهها و سرویسهای جدید استفاده کنند.
سیاست حفظ حریم خصوصی بیان میکند که OpenAI ممکن است اطلاعات شخصی را بدون اطلاع کاربران، مگر اینکه طبق قانون الزامی باشد، در اختیار اشخاص ثالث قرار دهد. OpenAI همچنین سند شرایط خدمات خود را دارد، اما این شرکت بخش عمدهای از مسئولیت را بر عهده کاربران میگذارد تا هنگام تعامل با ابزارهای هوش مصنوعی، اقدامات مناسب را انجام دهند.
مالکان ChatGPT در وبلاگ خود در مورد رویکردشان به هوش مصنوعی امن مطلبی منتشر کردهاند. این شرکت تأکید میکند که از دادهها برای فروش خدمات، تبلیغات یا ساخت پروفایل کاربران استفاده نمیکند. در عوض، OpenAI از دادهها برای مفیدتر کردن مدلهای خود استفاده میکند. به عنوان مثال، از مکالمات کاربران برای آموزش ChatGPT استفاده خواهد شد.
سیاست حفظ حریم خصوصی ChatGPT کاملاً مبهم تلقی میشود.
گوگل، شرکت پشتیبان Bard AI، تمهیدات حریم خصوصی بیشتری برای کاربران هوش مصنوعی خود در نظر گرفته است. این شرکت بخش کوچکی از مکالمه را انتخاب کرده و با استفاده از ابزارهای خودکار، اطلاعات شخصی قابل شناسایی را حذف میکند که به بهبود Bard و در عین حال محافظت از حریم خصوصی کاربران کمک خواهد کرد.
مکالمات نمونه توسط مربیان انسانی بررسی و تا سه سال، جدا از حساب گوگل کاربر، ذخیره خواهند شد. گوگل همچنین به کاربران یادآوری میکند که اطلاعات شخصی خود یا دیگران را در مکالمات Bard AI قرار ندهند. این غول فناوری تأکید میکند که از این مکالمات برای اهداف تبلیغاتی استفاده نخواهد شد و تغییرات را در آینده اعلام خواهد کرد.
هوش مصنوعی بارد به کاربران اجازه میدهد تا از ذخیره مکالمات در حسابهای گوگل خود انصراف دهند، و همچنین مکالمات را از طریق یک لینک بررسی یا حذف کنند. علاوه بر این، این شرکت دارای تمهیداتی است که مانع از گنجاندن اطلاعات شخصی در پاسخها توسط بارد میشود.
استیو میلز میگوید گاهی اوقات کاربران و توسعهدهندگان تنها زمانی متوجه خطرات امنیتی پنهان در فناوریهای جدید میشوند که خیلی دیر شده است. برای مثال، توابع تکمیل خودکار فرم میتوانند بهطور تصادفی شماره تأمین اجتماعی کاربران را فاش کنند.
آقای میلز گفت کاربران نباید چیزی را که نمیخواهند با دیگران به اشتراک گذاشته شود، در این ابزارها قرار دهند.
لینک منبع
نظر (0)