إن انفجار الذكاء الاصطناعي يجلب فوائد عظيمة للبشرية ولكنه ينطوي أيضًا على عواقب لا حصر لها: بدءًا من التحيز العنصري والاحتيال المتطور عبر الإنترنت إلى خطر تحول البلدان النامية إلى "مناجم بيانات" رخيصة.
في ضوء هذا الواقع، هل ينبغي أن يكون الاستخدام المسؤول للذكاء الاصطناعي طوعيًا أم إلزاميًا؟ ما الذي ينبغي على فيتنام فعله عند بناء ممر قانوني لهذا المجال؟
على هامش فعالية أسبوع العلوم والتكنولوجيا في فين فيوتشر، أجرى المراسل محادثة مع البروفيسور توبي والش - جامعة نيو ساوث ويلز (أستراليا)، عضو الأكاديمية في جمعية الكمبيوتر الأمريكية.
ويقدم الأستاذ رؤى حول كيفية "تصرفنا" مع الذكاء الاصطناعي، بدءًا من تحميل "الآلات" المسؤولية إلى تقديم النصائح للعائلات لحماية أنفسهم من موجة عمليات الاحتيال عالية التقنية.
من المسؤول عن الذكاء الاصطناعي؟
أستاذ، هل ينبغي أن يكون الاستخدام المسؤول للذكاء الاصطناعي طوعيًا أم إلزاميًا؟ وكيف ينبغي لنا أن نتعامل مع الذكاء الاصطناعي؟
أعتقد اعتقادًا راسخًا أن الاستخدام المسؤول للذكاء الاصطناعي يجب أن يكون إلزاميًا . هناك حوافز غير منطقية ، حيث تُجنى مبالغ طائلة من الذكاء الاصطناعي، والطريقة الوحيدة لضمان السلوك السليم هي فرض لوائح صارمة ، بحيث تكون المصلحة العامة دائمًا متوازنة مع المصالح التجارية .
عندما يرتكب الذكاء الاصطناعي خطأً، من المسؤول؟ وخاصةً مع وكلاء الذكاء الاصطناعي، هل لدينا القدرة على إصلاح آليات عملهم؟
تكمن المشكلة الأساسية في أخطاء الذكاء الاصطناعي في عدم قدرتنا على محاسبته. فهو ليس بشريًا، وهذا عيبٌ في كل نظام قانوني في العالم . البشر وحدهم هم من يتحملون مسؤولية قراراتهم وأفعالهم.

فجأة، أصبح لدينا "وكيل" جديد، الذكاء الاصطناعي، الذي يمكنه - إذا سمحنا له بذلك - اتخاذ القرارات واتخاذ الإجراءات في عالمنا، الأمر الذي يفرض تحديًا: من سنحاسبه؟
الجواب هو: يجب أن تتحمل الشركات التي تنشر وتشغل أنظمة الذكاء الاصطناعي مسؤولية العواقب التي تسببها هذه "الآلات".
تتحدث العديد من الشركات أيضًا عن الذكاء الاصطناعي المسؤول. كيف يمكننا الوثوق بها؟ كيف نتأكد من جديتها وشموليتها، وليس مجرد حيلة تسويقية؟
نحن بحاجة إلى تعزيز الشفافية. من المهم فهم قدرات وقيود أنظمة الذكاء الاصطناعي. علينا أيضًا "التصويت بالممارسة"، أي اختيار استخدام الخدمات بمسؤولية.
أعتقد حقًا أن الطريقة التي تستخدم بها الشركات الذكاء الاصطناعي بشكل مسؤول ستصبح عاملًا مميزًا في السوق، مما يمنحها ميزة تجارية.
إذا احترمت الشركة بيانات عملائها، فستستفيد منها وتجذب عملاء جدد. ستدرك الشركات أن التصرف الصحيح ليس أخلاقيًا فحسب، بل سيساعدها أيضًا على تحقيق المزيد من النجاح. أرى هذا وسيلةً للتمييز بين الشركات، والشركات المسؤولة هي التي نشعر بالراحة في التعامل معها.
تحتاج فيتنام إلى حماية القيم الثقافية بشكل استباقي.
فيتنام من الدول القليلة التي تُفكّر في إصدار قانون الذكاء الاصطناعي. ما تقييمكم لهذا الأمر؟ برأيكم، ما هي التحديات المتعلقة بالأخلاقيات والسلامة في تطوير الذكاء الاصطناعي بالنسبة للدول النامية مثل فيتنام؟
يسعدني جدًا أن تكون فيتنام من الدول الرائدة التي ستُصدر قانونًا متخصصًا في الذكاء الاصطناعي. هذا مهم لأن لكل دولة قيمها وثقافتها الخاصة، وتحتاج إلى قوانين لحماية هذه القيم.
تختلف القيم والثقافة الفيتنامية عن تلك الموجودة في أستراليا والصين والولايات المتحدة. لا يمكننا أن نتوقع من شركات التكنولوجيا الصينية أو الأمريكية حماية الثقافة واللغة الفيتناميتين تلقائيًا. يجب على فيتنام أن تبادر بحماية هذه القيم.
أُدرك أن العديد من الدول النامية قد مرّت في الماضي بفترة استعمار مادي. إذا لم نتوخَّ الحذر، فقد نمرّ بفترة "استعمار رقمي". ستُستغل بياناتك وستُصبح موردًا رخيصًا.
وهذا الأمر معرض للخطر إذا قامت الدول النامية بتطوير صناعة الذكاء الاصطناعي بطريقة تستغل البيانات فقط دون السيطرة على مصالحها أو حمايتها.
فكيف نتغلب على هذا الوضع؟
الأمر بسيط: استثمروا في الموارد البشرية. طوّروا مهاراتهم، وتأكدوا من فهمهم للذكاء الاصطناعي. ادعموا رواد الأعمال، وشركات الذكاء الاصطناعي، والجامعات. كونوا سباقين. بدلًا من انتظار دول أخرى لنقل التكنولوجيا أو توجيهنا، يجب أن نكون سباقين ونتقن التكنولوجيا.

البروفيسور توبي والش يشارك في أسبوع العلوم والتكنولوجيا في فينفوتشر (الصورة: اللجنة المنظمة).
ثانيا، نحن بحاجة إلى الدعوة بقوة إلى أن تعمل منصات التواصل الاجتماعي على خلق بيئة آمنة للمستخدمين في فيتنام، مع عدم التأثير على الديمقراطية في البلاد.
في الواقع، هناك أمثلة عديدة لكيفية تأثير محتوى وسائل التواصل الاجتماعي على نتائج الانتخابات، وتقسيم الدول، وحتى التحريض على الإرهاب.
لقد أمضيتُ أربعين عامًا أعمل في مجال الذكاء الاصطناعي. خلال الثلاثين عامًا الأولى، كنتُ مهتمًا بكيفية تعزيز قوة الذكاء الاصطناعي. وفي السنوات العشر الأخيرة، ازداد اهتمامي ودفاعي عن تطوير الذكاء الاصطناعي بمسؤولية.
هل يمكنك تقديم بعض النصائح لفيتنام في الوقت الحالي بشأن صياغة قانون الذكاء الاصطناعي؟
هناك حالات كثيرة لا تستدعي قوانين جديدة. لدينا بالفعل قوانين للخصوصية، وقوانين للمنافسة. هذه القوانين الحالية تنطبق على الفضاء الرقمي، تمامًا كما تنطبق على العالم المادي.
ومن المهم تطبيق هذه القوانين بصرامة في البيئة الرقمية كما نفعل في البيئة المادية.
ومع ذلك، هناك بعض المخاطر الجديدة الناشئة، وقد بدأنا نلاحظها. بدأ الناس بتكوين علاقات مع الذكاء الاصطناعي، مستخدمين إياه كمعالجين، وقد يُسبب ذلك أحيانًا ضررًا للمستخدمين، لذا علينا توخي الحذر.
نحمّل المصنّعين مسؤولية إطلاق منتجاتهم دائمًا. على سبيل المثال، إذا أطلقت شركات الذكاء الاصطناعي منتجاتٍ تُلحق الضرر بالبشر، فيجب أن تُحمّلهم المسؤولية أيضًا.
إذن كيف يمكننا منع الذكاء الاصطناعي من التسبب في تأثيرات ضارة على الأطفال وخلق بيئة آمنة للأطفال عندما يظهر الذكاء الاصطناعي، يا سيدي؟
أعتقد أننا لم نتعلم الكثير من دروس وسائل التواصل الاجتماعي. بدأت دول عديدة تُدرك الآن أن لها فوائد عظيمة، لكن لها أيضًا عيوبًا كثيرة، لا سيما تأثيرها على الصحة النفسية، ومستويات القلق، وصورة الجسم لدى الشباب، وخاصةً الفتيات.
بدأت العديد من الدول بالفعل بتطبيق تدابير لمعالجة هذه المشكلة. في أستراليا، سيدخل الحد الأدنى لسن استخدام وسائل التواصل الاجتماعي حيز التنفيذ في العاشر من ديسمبر. أعتقد أننا بحاجة إلى تدابير مماثلة للذكاء الاصطناعي.
نحن نبني أدوات يمكن أن يكون لها تأثيرات إيجابية ولكنها قد تسبب الضرر أيضًا، ونحن بحاجة إلى حماية عقول وقلوب أطفالنا من هذه التأثيرات السلبية.
بالإضافة إلى ذلك، آمل أن تقوم البلدان أيضًا بإصدار قواعد صارمة لإدارة شبكات التواصل الاجتماعي، وبالتالي خلق بيئة آمنة حقًا للجميع عند استخدام الذكاء الاصطناعي.
في الواقع، ليس الأطفال وحدهم، بل الكبار أيضًا، هم من يواجهون مخاطر الذكاء الاصطناعي. فكيف يُمكن للناس استخدام الذكاء الاصطناعي لتحسين حياتهم دون أن يُشكّلوا خطرًا؟
يُستخدم الذكاء الاصطناعي في مجالات عديدة، مما يُسهم في تحسين جودة حياتنا. ففي الطب، يُساعد الذكاء الاصطناعي على اكتشاف أدوية جديدة. وفي التعليم ، يُحقق الذكاء الاصطناعي أيضًا فوائد إيجابية عديدة.
مع ذلك، يُعدّ إتاحة الوصول إلى الذكاء الاصطناعي دون ضمانات كافية أمرًا محفوفًا بالمخاطر. فقد شهدنا دعاوى قضائية في الولايات المتحدة رفعها آباءٌ ضد شركات تقنية دفعت أطفالهم إلى الانتحار بعد تفاعلهم مع روبوتات الدردشة الذكية.
على الرغم من أن نسبة مستخدمي ChatGPT الذين يعانون من مشاكل الصحة العقلية لا تشكل سوى نسبة ضئيلة، مع وجود مئات الملايين من المستخدمين، فإن العدد الفعلي يصل إلى مئات الآلاف.
البيانات بالغة الأهمية لتطوير الذكاء الاصطناعي، ولكن من منظور إداري، إذا كانت إدارة البيانات مُحكمة للغاية، فستعيق تطوير الذكاء الاصطناعي. برأيك، ما هي المخاطر التي قد يُسببها التراخي في إدارة البيانات؟ كيف يُمكن الموازنة بين جمع البيانات وإدارتها الآمنة وتطوير الذكاء الاصطناعي؟
أوافق تمامًا. البيانات هي جوهر تقدم الذكاء الاصطناعي ، لأنها هي التي تُحركه. بدون بيانات، لن نحقق أي تقدم. البيانات عالية الجودة هي جوهر كل ما نقوم به. في الواقع، تأتي القيمة التجارية والميزة التنافسية التي تكتسبها الشركات من البيانات. وسواء كانت لدينا بيانات عالية الجودة أم لا، فهذه هي المسألة الأساسية.
من المُثير للغضب أن نرى كتبَ مؤلفين حول العالم - بما فيهم كتابي - تُستخدَم دون إذنٍ أو تعويض. إنه سرقةٌ لثمار عمل الآخرين. إذا استمر هذا الوضع، سيفقد المؤلفون دافعهم لكتابة الكتب، وسنفقد نحن القيم الثقافية التي نعتز بها.
نحن بحاجة إلى إيجاد حل أكثر إنصافًا مما لدينا الآن.
في الوقت الحالي، يستحوذ "وادي السيليكون" على المحتوى والإبداع من المؤلفين دون دفع ثمنهما - وهذا أمرٌ غير مستدام. أُقارن الوضع الحالي بـ"نابستر" وبدايات الموسيقى الإلكترونية في العقد الأول من القرن الحادي والعشرين. في ذلك الوقت، كانت الموسيقى الإلكترونية تُسرق بالكامل، لكن هذا الوضع لم يدم طويلًا، لأن الموسيقيين كانوا بحاجة إلى دخل لمواصلة إبداعهم.
أخيرًا، لدينا منصات بث مدفوعة ، مثل Spotify أو Apple Music، أو موسيقى مدعومة بإعلانات، حيث يعود جزء من إيراداتها إلى الفنان. علينا أن نفعل الشيء نفسه مع الكتب، حتى يستفيد المؤلفون من بياناتهم. وإلا، لن يكون هناك دافع لكتابة الكتب، وسيكون العالم أسوأ حالًا بدون تأليف كتب جديدة.

في إطار أسبوع العلوم والتكنولوجيا في فينفوتشر، سيقام أيضًا معرض "Toa V - نقطة اتصال العلوم" في مركز فينكوم رويال سيتي للفن المعاصر (الصورة: اللجنة المنظمة).
الذكاء الاصطناعي متطور للغاية في فيتنام. في الآونة الأخيرة، اعتمدت فيتنام العديد من السياسات لتعزيزه، لكنها تواجه أيضًا مشكلة الاحتيال الناجم عن الذكاء الاصطناعي. فكيف ينبغي لفيتنام، وفقًا للأستاذ، التعامل مع هذا الوضع؟ ما هي نصيحته لمستخدمي الذكاء الاصطناعي اليوم لضمان سلامتهم وحماية بياناتهم؟
أعتقد أن أبسط طريقة لكل فرد هي التحقق من المعلومات. على سبيل المثال، عند تلقي مكالمة هاتفية أو بريد إلكتروني، من بنك مثلاً، نحتاج إلى التحقق مرة أخرى: يمكننا معاودة الاتصال برقم المشترك أو التواصل مع البنك مباشرةً للتحقق من المعلومات.
تنتشر هذه الأيام الكثير من رسائل البريد الإلكتروني المزيفة، وأرقام الهواتف المزيفة، وحتى مكالمات زووم المزيفة. هذه الحيل بسيطة وغير مكلفة ولا تستغرق وقتًا طويلاً.
في عائلتي، لدينا أيضًا إجراء أمني خاص بنا: "سؤال سري" لا يعرفه إلا أفراد العائلة، مثل اسم أرنبنا الأليف. هذا يضمن بقاء المعلومات المهمة ضمن العائلة وعدم تسريبها.
وقد أدرجت فيتنام أيضًا تعليم الذكاء الاصطناعي في التعليم العام، فماذا يجب ملاحظته في هذه العملية؟
يُغيّر الذكاء الاصطناعي ما يُدرّس وكيفية تدريسه. فهو يؤثر على مهارات المستقبل المهمة، مثل التفكير النقدي، ومهارات التواصل، والذكاء الاجتماعي، والذكاء العاطفي. وستُصبح هذه المهارات أساسية.
يمكن للذكاء الاصطناعي أن يساعد في تدريس هذه المهارات، على سبيل المثال كمدرس شخصي، ومساعد دراسة شخصي، وتوفير أدوات تعليمية فعالة للغاية من خلال تطبيقات الذكاء الاصطناعي.
شكرا لك أستاذ على تخصيص الوقت للدردشة معنا!
المصدر: https://dantri.com.vn/cong-nghe/viet-nam-can-lam-gi-de-tranh-nguy-co-tro-thanh-nguon-luc-re-tien-20251203093314154.htm






تعليق (0)