منعت وزارة الصناعة في كوريا الجنوبية مؤقتًا موظفيها من الوصول إلى نموذج الذكاء الاصطناعي الخاص بشركة DeepSeek بسبب المخاوف بشأن خطر تسرب المعلومات وجمع البيانات من المستخدمين.
كوريا الجنوبية تمنع مؤقتًا موظفيها من الوصول إلى نموذج الذكاء الاصطناعي الخاص بشركة DeepSeek بسبب مخاوف بشأن تسريب المعلومات |
في وقت سابق، في 5 فبراير، طلبت الحكومة الكورية الجنوبية من الوزارات توخي الحذر عند استخدام خدمات الذكاء الاصطناعي في أماكن العمل. وإلى جانب DeepSeek، تشمل القائمة أيضًا ChatGPT ومنصات ذكاء اصطناعي أخرى، وذلك بسبب مخاوف من خطر تسرب البيانات.
وفقًا لمسؤولين حكوميين، قامت عدة جهات كورية جنوبية رئيسية، منها وزارة الصناعة، ووزارة الدفاع الوطني ، ووزارة الخارجية، ووزارة التجارة والطاقة، بحظر الوصول إلى منصة DeepSeek للذكاء الاصطناعي على أجهزة عمل موظفي الخدمة المدنية في آنٍ واحد. وتهدف هذه الخطوة إلى تعزيز الأمن، ومنع خطر تسرب البيانات، وحماية المعلومات الحساسة في الأنظمة الحكومية.
علاوةً على ذلك، اتخذت شركة كوريا للطاقة الكهرومائية والنووية المملوكة للدولة إجراءاتٍ مماثلة منذ أوائل فبراير، لا سيما في ظل تزايد المخاوف بشأن الأمن السيبراني وجمع البيانات من منصات الذكاء الاصطناعي الأجنبية. تعكس هذه الإجراءات حذر كوريا الجنوبية في تنظيم تقنيات الذكاء الاصطناعي، وخاصةً النماذج التي يمكنها الوصول إلى بيانات وطنية مهمة.
وفقًا لوكالة يونهاب للأنباء، فرضت وزارة الخارجية الكورية الجنوبية قيودًا على الوصول إلى منصة DeepSeek للذكاء الاصطناعي على أجهزة الكمبيوتر المتصلة بشبكات خارجية. ومع ذلك، لم تكشف الوكالة عن الإجراءات الأمنية المحددة المطبقة، مما يشير إلى توخي الحذر في حماية المعلومات الحساسة.
يُعدّ تقييد استخدام DeepSeek جزءًا من الجهود الشاملة التي تبذلها الحكومة الكورية الجنوبية للسيطرة على المخاطر المتعلقة بتكنولوجيا الذكاء الاصطناعي، وخاصةً مخاطر تسريب البيانات وجمع المعلومات غير المصرح بها من منصات الذكاء الاصطناعي الأجنبية. ويعكس هذا قلق الحكومة المتزايد بشأن الأمن السيبراني في ظل التطور السريع للذكاء الاصطناعي، والذي قد يؤثر على مجالات مهمة كالدبلوماسية والدفاع والاقتصاد.
أصبحت كوريا الجنوبية أحدث دولة تُعرب عن مخاوفها بشأن نماذج الذكاء الاصطناعي الصينية. وفي وقت سابق، حذّرت أستراليا وتايوان (الصين) من أن DeepSeek يُشكّل خطرًا أمنيًا، مما أثار مخاوف عالمية بشأن مخاطر منصات الذكاء الاصطناعي الأجنبية.
في يناير 2025، قامت هيئة حماية البيانات الإيطالية بحظر الوصول إلى برنامج الدردشة الآلي الخاص بالشركة الناشئة الصينية لأن الشركة فشلت في تلبية متطلبات سياسة الخصوصية.
وتقوم الحكومات في أوروبا والولايات المتحدة والهند أيضًا بتقييم المخاطر المحتملة المرتبطة باستخدام DeepSeek، وهو ما يعكس المخاوف العالمية بشأن أمن وخصوصية البيانات من منصة الذكاء الاصطناعي.
في كوريا الجنوبية، تخطط السلطات لطلب شرح مفصل من شركة DeepSeek حول كيفية جمعها وتخزينها ومعالجتها لمعلومات المستخدمين الشخصية. تهدف هذه الخطوة إلى ضمان امتثال منصة الذكاء الاصطناعي للوائح أمن البيانات والخصوصية، وتقييم مستوى المخاطر التي قد تنشأ عن عمليات الشركة في البلاد.
أعلنت شركة كاكاو، المطورة لتطبيق المراسلة الأكثر شعبية في كوريا الجنوبية، أنها منعت موظفيها من استخدام تطبيق DeepSeek. يأتي هذا القرار، الذي يأتي بعد يوم واحد فقط من إعلان كاكاو عن شراكتها مع OpenAI، ليعكس نهج الشركة الحذر تجاه منصات الذكاء الاصطناعي، ويعكس توجهًا نحو تشديد الرقابة على تقنيات الذكاء الاصطناعي الناشئة في الصين.
بشكل عام، أصبحت شركات التكنولوجيا في كوريا الجنوبية أكثر حذرًا تجاه منصات الذكاء الاصطناعي التوليدية. وقد اعتمدت شركة SK Hynix، إحدى الشركات الرائدة في تصنيع شرائح الذكاء الاصطناعي، سياسة رقابة صارمة، تحد من استخدام خدمات الذكاء الاصطناعي داخليًا. ولا تسمح الشركة بالوصول إليها إلا عند الضرورة القصوى، لتقليل مخاطر تسريب المعلومات المهمة وضمان أمن البيانات في بيئة العمل.
في هذه الأثناء، أعلنت شركة نافير، إحدى شركات تشغيل بوابات الويب الرائدة في كوريا الجنوبية، أنها أصدرت لائحة تحظر على الموظفين استخدام منصات الذكاء الاصطناعي التي تخزن البيانات خارج نظام الشركة، وذلك بهدف تعزيز الأمن وحماية المعلومات الداخلية.
[إعلان 2]
مصدر
تعليق (0)