على وجه التحديد، نصحت شركة Alphabet، الشركة الأم لـ Google، موظفيها بعدم إدخال مستنداتهم السرية في روبوتات الدردشة التي تعمل بالذكاء الاصطناعي. وبحسب مصادر داخل شركة ألفابت نفسها حصلت عليها رويترز، حذرت الشركة مهندسيها أيضًا من تجنب استخدام الكود الحاسوبي الذي يمكن أن تولدها برامج الدردشة الآلية بشكل مباشر.
كما تشعر شركة التكنولوجيا العملاقة جوجل بالقلق بشأن تسرب المعلومات من خلال برنامج الدردشة الآلي الخاص بها. الصورة: رويترز
وتستخدم برامج المحادثة الآلية، التي تشمل Bard وChatGPT، ما يسمى بالذكاء الاصطناعي العام لإجراء محادثات تشبه المحادثات البشرية مع المستخدمين. وبحسب الخبراء، يمكن لروبوتات المحادثة إعادة إنتاج البيانات التي تمتصها أثناء عملية الاستجابة، مما يخلق خطر تسرب معلومات المستخدم.
وتظهر المخاوف كيف تريد جوجل تجنب الضرر التجاري الناجم عن البرنامج الذي أطلقته للتنافس مع ChatGPT. ويعكس حذر جوجل أيضًا اتجاهًا متزايدًا للخوف في جميع أنحاء العالم، بما في ذلك تحذير الشركات من الكشف عن المعلومات حول برامج الدردشة الآلية.
لقد وضعت عدد متزايد من الشركات في جميع أنحاء العالم ضمانات على برامج المحادثة التي تعمل بالذكاء الاصطناعي، بما في ذلك سامسونج وأمازون ودويتشه بنك.
وبحسب استطلاع أجرته شركة Fishbowl الأمريكية على ما يقرب من 12 ألف شخص، فإن حوالي 43% من المتخصصين في مجال التكنولوجيا كانوا يستخدمون ChatGPT أو أدوات الذكاء الاصطناعي الأخرى اعتبارًا من يناير/كانون الثاني، غالبًا دون إخبار رؤسائهم.
وبحلول شهر فبراير/شباط، طلبت شركة جوجل من موظفي روبوت الدردشة Bard عدم تقديم أي معلومات داخلية، حسبما أفاد موقع Insider. تقوم Google حاليًا بطرح Bard في أكثر من 180 دولة وبـ 40 لغة.
يتم تطبيق تقنية الذكاء الاصطناعي من Google على الأدوات التي تقوم تلقائيًا بإنشاء رسائل البريد الإلكتروني والمستندات وحتى إنشاء البرامج. ومع ذلك، يمكن أن تحتوي هذه الوظائف على معلومات خاطئة، وهو ما يحمل أيضًا خطر تسرب المعلومات.
بوي هوي (وفقا لرويترز، إنسايدر)
[إعلان 2]
مصدر
تعليق (0)