قامت أكبر بنوك الولايات المتحدة، جي بي مورجان تشيس، وأمازون، وشركة التكنولوجيا أكسنتشر، بتقييد استخدام ChatGPT لدى موظفيها بسبب مخاوف تتعلق بأمن البيانات.
وفقًا لشبكة CNN، فإن مخاوف هذه الشركات مبررة. في 20 مارس، واجه روبوت الدردشة التابع لشركة OpenAI خطأً أدى إلى كشف بيانات المستخدمين. ورغم إصلاح الخطأ بسرعة، كشفت الشركة أن الحادثة أثرت على 1.2% من مستخدمي ChatGPT Plus. وشملت المعلومات المسربة الأسماء الكاملة، وعناوين البريد الإلكتروني، وعناوين الفواتير، والأرقام الأربعة الأخيرة من أرقام بطاقات الائتمان، وتواريخ انتهاء صلاحية البطاقات.
في 31 مارس، أصدرت هيئة حماية البيانات الإيطالية (Garante) حظرًا مؤقتًا على ChatGPT مشيرة إلى مخاوف تتعلق بالخصوصية بعد أن كشفت OpenAI عن الثغرة الأمنية.
صرح مارك ماكرياري، الرئيس المشارك لقسم أمن البيانات والخصوصية في شركة فوكس روتشيلد للمحاماة، لشبكة CNN بأن المخاوف الأمنية المحيطة بـ ChatGPT ليست مبالغًا فيها. وشبّه روبوت الدردشة الذكي بـ"الصندوق الأسود".
أطلقت OpenAI برنامج ChatGPT في نوفمبر 2022، وسرعان ما نال اهتمامًا واسعًا لقدرته على كتابة المقالات والقصص وكلمات الأغاني من خلال توجيه الأوامر. كما أصدرت شركات تقنية عملاقة مثل جوجل ومايكروسوفت أدوات ذكاء اصطناعي مماثلة، مدعومة بنماذج لغوية ضخمة مُدرّبة على مستودعات بيانات ضخمة على الإنترنت.
بعد الخطوة الإيطالية، تدرس ألمانيا أيضًا حظر ChatGPT
أضاف ماكراي أنه عندما يُدخل المستخدمون معلوماتهم في هذه الأدوات، فإنهم لا يعرفون كيف ستُستخدم. وهذا يُثير قلق الشركات، إذ يتزايد عدد الموظفين الذين يستخدمون هذه الأدوات لكتابة رسائل البريد الإلكتروني الخاصة بالعمل أو تدوين ملاحظات الاجتماعات، مما يزيد من خطر كشف الأسرار التجارية.
قال ستيف ميلز، مدير أخلاقيات الذكاء الاصطناعي في مجموعة بوسطن الاستشارية (BCG)، إن الشركات تشعر بالقلق إزاء كشف موظفيها عن معلومات حساسة عن طريق الخطأ. فإذا استُخدمت البيانات التي يُدخلها الموظفون لتدريب أداة الذكاء الاصطناعي هذه، فإنهم بذلك يفقدون السيطرة على البيانات لصالح شخص آخر.
وفقًا لسياسة الخصوصية الخاصة بشركة OpenAI، يجوز للشركة جمع جميع المعلومات والبيانات الشخصية لمستخدمي الخدمات لتحسين نماذج الذكاء الاصطناعي. ويمكنها استخدام هذه المعلومات لتحسين خدماتها أو تحليلها، وإجراء البحوث، والتواصل مع المستخدمين، وتطوير برامج وخدمات جديدة.
تنص سياسة الخصوصية على أن OpenAI قد تُقدّم معلومات شخصية لأطراف ثالثة دون إخطار المستخدمين، إلا إذا كان ذلك مطلوبًا بموجب القانون. كما أن OpenAI لديها وثيقة شروط خدمة خاصة بها، إلا أن الشركة تُحمّل المستخدمين مسؤولية كبيرة لاتخاذ التدابير المناسبة عند استخدام أدوات الذكاء الاصطناعي.
نشر مالكو ChatGPT على مدونتهم نهجهم في الذكاء الاصطناعي الآمن. وأكدت الشركة أنها لا تستخدم البيانات لبيع الخدمات أو الإعلان عنها أو بناء ملفات تعريف المستخدمين، بل تستخدم OpenAI البيانات لجعل نماذجها أكثر فائدة. على سبيل المثال، سيتم استخدام محادثات المستخدمين لتدريب ChatGPT.
تعتبر سياسة الخصوصية الخاصة بـ ChatGPT غامضة إلى حد كبير.
جوجل، الشركة المطورة لـ Bard AI، تُقدم بنودًا إضافية تتعلق بخصوصية مستخدمي الذكاء الاصطناعي. ستختار الشركة جزءًا صغيرًا من المحادثة وتستخدم أدوات آلية لإزالة المعلومات الشخصية، مما يُسهم في تحسين Bard مع حماية خصوصية المستخدم.
سيراجع مدربون بشريون نماذج المحادثات، وسيُحفظون لمدة تصل إلى ثلاث سنوات، منفصلة عن حساب المستخدم على جوجل. كما تُذكّر جوجل المستخدمين بعدم تضمين معلوماتهم الشخصية أو معلومات الآخرين في محادثاتهم على بارد إيه آي. وتؤكد الشركة العملاقة أن هذه المحادثات لن تُستخدم لأغراض إعلانية، وستُعلن عن أي تغييرات في المستقبل.
يتيح تطبيق Bard AI للمستخدمين إلغاء حفظ المحادثات في حساباتهم على جوجل، بالإضافة إلى مراجعة المحادثات أو حذفها عبر رابط. كما توفر الشركة ضمانات لمنع Bard من تضمين معلومات شخصية في الردود.
يقول ستيف ميلز إن المستخدمين والمطورين أحيانًا لا يكتشفون المخاطر الأمنية الكامنة في التقنيات الجديدة إلا بعد فوات الأوان. على سبيل المثال، قد تكشف وظائف الإكمال التلقائي عن طريق الخطأ أرقام الضمان الاجتماعي للمستخدمين.
وقال ميلز إنه لا ينبغي للمستخدمين أن يضعوا في هذه الأدوات أي شيء لا يرغبون في مشاركته مع الآخرين.
[إعلان 2]
رابط المصدر
تعليق (0)