
لا يزال هناك طريقة لتدريب الذكاء الاصطناعي دون مشاركة بيانات المستخدم
في العصر الرقمي، تُعدّ البيانات الشخصية بمثابة "الوقود" لتطوير الذكاء الاصطناعي. ولكن من هنا، تظهر مفارقة: كلما زاد فهم الذكاء الاصطناعي للبشر، زاد تعرضنا للتدقيق.
لقد أدت تسريبات المعلومات، والإعلانات المخصصة بشكل مفرط، وممارسات جمع البيانات غير الشفافة إلى جعل المستخدمين حذرين بشكل متزايد من "تسليم" بياناتهم إلى المنصات.
وفي هذا السياق، بدأ مجتمع التكنولوجيا في البحث عن طريقة لتمكين الذكاء الاصطناعي من التعلم دون جمع بيانات خاصة، وهذا ما يسمى بالتعلم الفيدرالي.
كيف يتعلم الذكاء الاصطناعي دون رؤية البيانات
بخلاف نموذج التدريب التقليدي، يجب إرسال جميع البيانات، مثل الرسائل والصور وعادات الاستخدام، إلى الخادم ليتعلمها الذكاء الاصطناعي. وهذا يُثير قلق الكثيرين، إذ يُمكن جمع البيانات الشخصية أو تسريبها.
مع التعلم المُوَحَّد، تنعكس العملية: يحدث التعلم مباشرةً على جهازك، تمامًا مثل هاتفك. يكتفي الذكاء الاصطناعي بـ"مراقبة" كيفية كتابتك أو استخدامك للتطبيق لرسم تجربة التعلم الخاصة به، دون إرسال بيانات فعلية إلى الخادم.
ثم يقوم الهاتف بإرسال ملخص للنتائج التي تم تعلمها فقط (في شكل أرقام أو صيغ رياضية) إلى النظام المركزي للتوليف.
تخيل هذا: ملايين الهواتف تتشارك "تجارب التعلم" بدلاً من "مهام العمل". الذكاء الاصطناعي يزداد ذكاءً باستمرار، لكن بياناتك الخاصة لا تغادر هاتفك أبدًا.
في عام 2017، قدمت Google ميزة التعلم الفيدرالي إلى Gboard، لوحة المفاتيح الافتراضية لنظام Android، حتى يتمكن التطبيق من تعلم كيفية كتابتك، والتنبؤ بكلمتك التالية، وتصحيح الأخطاء الإملائية دون إرسال رسائل مرة أخرى إلى خوادمه.
لا يتوقف الأمر عند هذا الحد، بل يفتح التعلم الفيدرالي آفاقًا واسعة في المجال الطبي . فبدلاً من جمع بيانات المرضى، وهو أمرٌ مقيدٌ بلوائح صارمة مثل قانون HIPAA (الولايات المتحدة الأمريكية) أو اللائحة العامة لحماية البيانات (أوروبا)، يمكن للمستشفيات تدريب نماذج التشخيص معًا دون مشاركة السجلات الفعلية.
ويعد مشروع EXAM (2020) الذي بدأته شركة NVIDIA مثالاً رئيسيًا: حيث قامت أكثر من 20 مستشفى عالميًا بتدريب نظام مشترك للتنبؤ بحالات مرضى COVID-19 دون تبادل أي بيانات شخصية.
ليس جوجل فحسب، بل أيضًا آبل (المُطبّقة في Siri ولوحة مفاتيح QuickType)، وميتا (مع منصة اختبار FLUTE)، بالإضافة إلى مؤسسات مالية مثل WeBank وAnt Group، والعديد من الجامعات الرائدة مثل ستانفورد ومعهد ماساتشوستس للتكنولوجيا، تُجري أبحاثًا حول التعلم المُوحّد أو تُطبّقه. من المتوقع أن تُصبح هذه التقنية المعيار الجديد لأنظمة الذكاء الاصطناعي التي تحترم خصوصية المستخدمين.
مفتاح الذكاء الاصطناعي العادل والشفاف
يُشكّل التدريب على ملايين الأجهزة ذات التكوينات المتنوعة، والاتصالات غير المستقرة، وسعة البطارية المحدودة، تحدياتٍ عديدة من حيث سرعة ودقة التعلم. إضافةً إلى ذلك، يُجبر خطر هجمات النموذج العكسي المطورين على دمج التعلم الفيدرالي مع تقنيات أمنية أخرى، مثل التشفير المتجانس أو الخصوصية التفاضلية.
يتحسن فهم الذكاء الاصطناعي لك، لكن التعلم الاتحادي يُبشّر بتغيير طريقة تفاعلنا مع التكنولوجيا. فبدلاً من جمع البيانات بشكل سلبي، يتعلم الذكاء الاصطناعي الآن مباشرةً على جهازك دون الحاجة إلى الوصول إلى بياناتك الشخصية الفعلية.
وهذا لا يحمي الخصوصية فحسب، بل يخلق أيضًا شراكة جديدة بين البشر والذكاء الاصطناعي حيث يرافقك الذكاء الاصطناعي ويتعلم منك، بدلاً من انتهاك خصوصيتك.
حول العالم ، تسعى العديد من الشركات والباحثين إلى تحقيق هذا الهدف. ومن المتوقع أن يصبح التعلم الفيدرالي مفتاحًا لمستقبل ذكاء اصطناعي شفاف وعادل يحترم المستخدم، حيث يتعلم الذكاء الاصطناعي "معك" بدلًا من "معرفة الكثير" عنك.
المصدر: https://tuoitre.vn/cong-nghe-moi-giup-ai-hoc-cung-chu-khong-soi-du-lieu-nguoi-dung-20251008164916799.htm
تعليق (0)