ستتعاون الشركتان مع معهد سلامة الذكاء الاصطناعي الأمريكي، التابع للمعهد الوطني للمعايير والتكنولوجيا (NIST)، وهو وكالة اتحادية أمريكية. تُعدّ هذه خطوةً مهمةً في إدارة تكنولوجيا الذكاء الاصطناعي والإشراف عليها، والتي كانت مصدر قلقٍ كبيرٍ منذ إطلاق OpenAI لـ ChatGPT.
وقالت إليزابيث كيلي، مديرة معهد سلامة الذكاء الاصطناعي في الولايات المتحدة: "هذه مجرد البداية، لكنها معلم مهم في الجهود المبذولة لإدارة مستقبل الذكاء الاصطناعي بشكل مسؤول".
بموجب الاتفاقية، سيقدم معهد سلامة الذكاء الاصطناعي الأمريكي ملاحظاته لكلا الشركتين حول التحسينات المحتملة للسلامة في نماذجهما، قبل وبعد نشرها للجمهور. كما سيتعاون المعهد بشكل وثيق مع معهد سلامة الذكاء الاصطناعي البريطاني خلال هذه العملية.
قال جاك كلارك، المؤسس المشارك ورئيس قسم السياسات في أنثروبيك: "تستفيد شراكتنا مع المعهد الأمريكي لسلامة الذكاء الاصطناعي من خبرته الواسعة لاختبار نماذجنا بدقة قبل نشرها على نطاق واسع. وهذا يعزز قدرتنا على تحديد المخاطر والحد منها، مما يعزز التطوير المسؤول للذكاء الاصطناعي".
وتأتي هذه الخطوة في إطار الجهود المبذولة لتنفيذ الأمر التنفيذي للبيت الأبيض بشأن الذكاء الاصطناعي والذي من المقرر إصداره في عام 2023، والذي يهدف إلى إنشاء إطار قانوني للنشر السريع لنماذج الذكاء الاصطناعي في الولايات المتحدة.
ولكن بينما تنتهج الحكومة الفيدرالية نهجًا تطوعيًا، أقرّ المشرعون في كاليفورنيا، مركز التكنولوجيا الأمريكي، مشروع قانون سلامة الذكاء الاصطناعي على مستوى الولاية في 28 أغسطس/آب. وإذا وقّع الحاكم على مشروع القانون، فسيفرض لوائح أكثر صرامة على صناعة الذكاء الاصطناعي.
أعرب سام ألتمان، الرئيس التنفيذي لشركة OpenAI، عن دعمه لتنظيم الذكاء الاصطناعي على المستوى الوطني بدلاً من مستوى الولايات، بحجة أن هذا من شأنه أن يساعد في تجنب خطر إعاقة البحث والابتكار في مجال الذكاء الاصطناعي.
وتُظهر الخطوة نحو التعاون بين شركات التكنولوجيا الرائدة والحكومة الأمريكية اتجاهاً نحو تحقيق التوازن بين الابتكار والسلامة في مجال الذكاء الاصطناعي سريع التطور.
[إعلان 2]
المصدر: https://nhandan.vn/openai-va-anthropic-chia-se-moi-nhat-ai-voi-chinh-phu-my-post827601.html






تعليق (0)