يحسن VeGraph الدقة بنسبة 2 - 5% مقارنة بالطرق الحالية.
NAACL 2025 (المؤتمر السنوي لجمعية الأمم الأمريكية لعلم اللغويات الحاسوبية) هو المنتدى العلمي الرائد في العالم في مجال معالجة اللغة الطبيعية وعلم اللغويات الحاسوبية.
وفقًا لمعلومات من شركة فيتيل بعد ظهر يوم 16 مايو، أدى الانتشار الواسع للإنترنت وشبكات التواصل الاجتماعي إلى ازدياد شعبية المحتوى الذي يُنشئه المستخدمون، وفي الوقت نفسه، أدى إلى انتشار واسع النطاق لموجة من الأخبار الكاذبة وغير الرسمية. هذه المعلومات الكاذبة لا تُسبب ارتباكًا للناس في مجالات حساسة كالصحة والكوارث الطبيعية والسياسات العامة فحسب، بل تُؤدي أيضًا إلى عواقب وخيمة، مثل الخسائر الاقتصادية، وتدهور سمعة المؤسسات، وتهديد الأمن القومي.
في الماضي، كان تأثير هذه المعلومات يقتصر على وقت ونطاق محددين، أما الآن، فقد أصبح أكثر خطورةً عندما أصبح جزءًا من بيانات الإدخال لأنظمة الذكاء الاصطناعي. ففي عملية البحث عن المعلومات وجمعها للرد على المستخدمين، أصبحت أنظمة مثل برامج الدردشة الآلية والمساعدين الافتراضيين قادرةً تمامًا على استخدام أو إنشاء أو نشر معلومات كاذبة إذا لم تكن لديها القدرة على التحقق الذاتي، وفقًا لممثل شركة فيتيل.
التحقق من صحة المعلومات هو عملية التحقق من صحة أو زيف معلومة ما. على سبيل المثال، يهدف التحقق من صحة عبارة "ناسا وجدت حياة على المريخ" إلى التحقق مما إذا كانت المعلومات مبنية على حقائق منشورة من مصادر موثوقة كالصحف والبيانات العلمية وقواعد المعرفة. للتحقق من صحة المعلومات ذاتيًا، يجب أن تكون أنظمة الذكاء الاصطناعي قادرة على فهم العبارة، والعثور على المعلومات ذات الصلة، واستخلاص استنتاجات منطقية بناءً على بيانات موضوعية.
VeGraph (التحقق في الرسم البياني) هي طريقة للتحقق من المعلومات، قام فريق من المهندسين في مركز فيتيل لخدمات بيانات الذكاء الاصطناعي والذكاء الاصطناعي (Viettel AI) ببحثها وتطويرها وتقديمها في مؤتمر NAACL 2025، أحد أعرق ثلاثة مؤتمرات دولية في مجال معالجة اللغات الطبيعية. تُظهر النتائج التجريبية على مجموعتي بيانات تحقق شائعتين، HoVer وFEVEROUS، أن VeGraph تُحسّن الدقة بنسبة 2-5% مقارنةً بالطرق الحالية.
وفقًا لخبراء الذكاء الاصطناعي في شركة فيتيل، لا تزال معظم أساليب التحقق من المعلومات الحالية تواجه صعوبة في التعامل مع العبارات الغامضة أو المجازية أو متعددة الطبقات، والتي تُستخدم غالبًا لإخفاء المعلومات الزائفة؛ وفي الوقت نفسه، لا تفسر هذه الأساليب بوضوح سبب اعتبار محتوى ما زائفًا، مما يُصعّب على المستخدمين الثقة بالنتائج. كما تعتمد العديد من الأساليب بشكل رئيسي على نماذج اللغة الكبيرة (LLM) دون القدرة على التحقق من مصادر المعرفة الرسمية، مما يؤدي إلى خطر التوصل إلى استنتاجات خاطئة، تُعرف أيضًا باسم "الهلوسة".
بخلاف الأدوات التي تُجري استدلالات داخلية فقط ضمن النموذج، يُفصّل VeGraph طلب التحقق من المعلومات بشكل استباقي إلى بنود صغيرة، ثم يُقارنه بمراجع موثوقة مثل الوثائق القانونية، وقواعد البيانات الحكومية ، والوثائق المتخصصة، وغيرها. عملية التحقق مُنظّمة بالكامل في خطوات واضحة، مما يُسهّل على المستخدمين المراقبة والتحقق، ويزيد من الدقة والشفافية - وهما عاملان يتزايدان أهميتهما في تطبيقات الذكاء الاصطناعي. كما تُمكّن هذه الميزة المؤسسات من تعديل النظام وتحسينه بسرعة عند الحاجة.
يهدف VeGraph إلى توفير بيئة رقمية شفافة وآمنة، ويحظى بتقدير كبير لتطبيقاته العملية. فبالإضافة إلى إمكانية دمجه في أنظمة الذكاء الاصطناعي لزيادة الدقة والموثوقية، يمكن تطوير هذه التقنية لتصبح نظامًا للتحقق من المعلومات في مجالات عديدة، مثل الرعاية الصحية والصحافة والقانون وإدارة الدولة. وبفضل ذلك، يمكن للأشخاص التحقق ذاتيًا من المعلومات المهمة التي تتطلب دقة عالية، مثل الأخبار الحالية، ومعلومات الأدوية واللقاحات والمستحضرات الصيدلانية، واللوائح القانونية.
في المستقبل، سيتم توسيع VeGraph للتعامل مع تنسيقات البيانات المتنوعة مثل الصور ومقاطع الفيديو والصوت وما إلى ذلك، والتعرف على أشكال اللغة المعقدة مثل الاستعارات والآثار المترتبة على ذلك، ودمج الرسوم البيانية المعرفية لتعزيز قدرات التفكير.
هذا العام، استقطب مؤتمر NAACL 2025 عددًا قياسيًا من الأوراق البحثية، تجاوز 3000 ورقة، مع نسبة قبول تنافسية للغاية للأوراق البحثية الأولية (حوالي 22%)، جامعًا بذلك أبرز الأبحاث الرائدة. يركز مؤتمر NAACL 2025 تحديدًا على التطورات الرائدة في تطوير نماذج اللغات الكبيرة، ومعالجة اللغات الطبيعية متعددة الثقافات واللغات، وقدرات الاستدلال الناشئة، والذكاء الاصطناعي المسؤول.
وفقًا لصحيفة الأخبار والشعب
المصدر: https://doanhnghiepvn.vn/cong-nghe/khi-ai-biet-kiem-chung-su-that-buoc-tien-moi-tu-viettel-ai-tai-naacl-2025/20250519080205067
تعليق (0)