تسببت الاستثمارات الضخمة لشركات التكنولوجيا الكبرى في الذكاء الاصطناعي وروبوتات الدردشة في مشاكل كبيرة لقادة أمن المعلومات في الشركات. ووفقًا لشبكة CNBC ، فإن الذكاء الاصطناعي يتغلغل في أماكن العمل، ويتعين على قادة أمن المعلومات التعامل مع هذه التكنولوجيا بحذر وإعداد دفاعات.
تُسمى التقنية التي تُبنى عليها تقنية GPT نموذج اللغة الكبير (LLM). لا تمتلك كل شركة نموذج GPT خاصًا بها، لذا من المهم مراقبة كيفية استخدام الموظفين له. يقول مايكل تشوي، الشريك في معهد ماكينزي العالمي، إن الناس سيستخدمون الذكاء الاصطناعي التوليدي إذا وجدوه مفيدًا. ويُشبّهه باستخدام جهاز كمبيوتر أو هاتف في العمل.
حتى مع حظرها، سيظل الموظفون يجدون طرقًا للتسلل. تاريخيًا، كانت هناك تقنيات جذابة للغاية لدرجة أن الناس كانوا على استعداد لدفع ثمنها. على سبيل المثال، اشتروا هواتف محمولة قبل أن توفر لهم شركاتهم أجهزة شخصية، وفقًا لتشوي.
يواجه مسؤولو أمن المعلومات، الذين يواجهون بالفعل خطر الهجمات الإلكترونية، الآن قلقًا جديدًا بشأن الذكاء الاصطناعي وتقنية GPT. ووفقًا لتشوي، يمكن للشركات ترخيص منصة ذكاء اصطناعي لمراقبة ما يكشفه الموظفون لروبوتات الدردشة، وضمان حماية المعلومات التي يشاركونها.
يقول تشوي: "كشركة، لا ترغب في أن يُطلع موظفوك على معلومات سرية لروبوت محادثة عام" . لذا، من المهم اتخاذ تدابير تقنية، مثل ترخيص البرامج وتوقيع اتفاقيات قانونية تحدد وجهة بياناتك.
يقول سمير بيناكالاباتي، الرئيس التنفيذي لشركة سيبال، إن الخيار الآمن هو أن تُطوّر الشركة برنامج GPT خاصًا بها أو أن تُوظّف مطوري GPT لإنشاء نسختها الخاصة. إذا أنشأتَ برنامج GPT خاصًا بك، فسيحتوي البرنامج على المعلومات التي ترغب الشركة في أن يصل إليها موظفوها. كما يُمكنه حماية المعلومات التي يُدخلها الموظفون. بغض النظر عن الحل الذي تختاره، يجب عليك توخي الحذر بشأن البيانات المُدرجة في برنامج GPT.
(وفقا لشبكة CNBC)
[إعلان 2]
مصدر
تعليق (0)