أطلقت شركة Meta مشروع Purple Llama، وهو مشروع مخصص لإنشاء أدوات مفتوحة المصدر للمطورين لتقييم وتحسين موثوقية وسلامة نماذج الذكاء الاصطناعي التوليدي (AI) قبل وضعها موضع الاستخدام.
وشدد ميتا على ضرورة بذل جهود تعاونية لضمان سلامة الذكاء الاصطناعي، مؤكدا أن تحديات الذكاء الاصطناعي لا يمكن حلها بمعزل عن غيرها.
وتقول الشركة إن هدف Purple Llama هو إنشاء منصة مشتركة لتطوير الذكاء الاصطناعي التوليدي الأكثر أمانًا مع تزايد المخاوف بشأن نماذج اللغة الكبيرة وتقنيات الذكاء الاصطناعي الأخرى.
ويصف جاريث ليندال وايز، كبير مسؤولي أمن المعلومات في شركة الأمن السيبراني Ontinue، Purple Llama بأنها "خطوة إيجابية واستباقية" نحو تكنولوجيا الذكاء الاصطناعي الأكثر أمانًا.
يتعاون مشروع Purple Llama مع مطوري الذكاء الاصطناعي؛ وخدمات الحوسبة السحابية مثل AWS وGoogle Cloud؛ وشركات أشباه الموصلات مثل Intel وAMD وNvidia؛ وشركات البرمجيات، بما في ذلك Microsoft.
أول مجموعة أدوات تم إصدارها من خلال Purple Llama هي CyberSecEval - وهي أداة لتقييم مخاطر الأمن السيبراني في البرامج التي تم إنشاؤها بواسطة الذكاء الاصطناعي.
يحتوي على نموذج لغوي يحدد النصوص غير المناسبة أو الضارة، بما في ذلك المناقشات حول العنف أو النشاط غير القانوني.
يمكن للمطورين استخدام CyberSecEval لاختبار ما إذا كانت نماذج الذكاء الاصطناعي الخاصة بهم عرضة لإنشاء تعليمات برمجية غير آمنة أو دعم الهجمات الإلكترونية.
توصلت الأبحاث إلى أن نماذج اللغة الكبيرة تشير غالبًا إلى وجود أكواد ضعيفة، مما يسلط الضوء على أهمية الاختبار والتحسين المستمرين لأمن الذكاء الاصطناعي.
Llama Guard هي مجموعة أدوات أخرى - وهي نموذج لغوي كبير تم تدريبه لتحديد اللغة الضارة أو المسيئة المحتملة.
يمكن للمطورين استخدام Llama Guard للتحقق مما إذا كان نموذجهم يولد أو يقبل محتوى غير آمن، مما يساعد في تصفية المطالبات التي قد تؤدي إلى إخراج غير مناسب.
(وفقا لـ IFW)
المملكة المتحدة تستثمر "بشكل هائل" في الذكاء الاصطناعي، وتطلق 5 مشاريع كمية جديدة
حزام AI GUIDi يحل محل العكازات للأشخاص ذوي الإعاقة البصرية
تحالف الذكاء الاصطناعي مفتوح المصدر لشركات التكنولوجيا العملاقة سيتنافس مع OpenAI
اتجاه فريد في تطوير روبوتات الدردشة بالذكاء الاصطناعي في الصين
[إعلان 2]
مصدر
تعليق (0)