البروفيسور يان ليكون، أحد أبرز العلماء العالميين، سيشارك في جلسة نقاشية بعنوان "تطبيق الذكاء الاصطناعي عمليًا" تُعقد في هانوي يوم 4 ديسمبر. هذه هي الجلسة النقاشية الثالثة ضمن سلسلة نقاشات "العلم من أجل الحياة"، ضمن أسبوع العلوم والتكنولوجيا "فينفيوتشر 2024".
وهو يشغل حاليًا منصب نائب الرئيس ورئيس علماء الذكاء الاصطناعي في شركة ميتا، وأستاذ في جامعة نيويورك بالولايات المتحدة الأمريكية.
يان ليكون (مواليد باريس، فرنسا، عام ١٩٦٠) هو أحد رواد مجال التعلم العميق والشبكات العصبية التلافيفية (CNN). طوّر هذا العالم الفرنسي نموذج LeNet في تسعينيات القرن الماضي، وهو أول نموذج CNN يُستخدم للتعرف على الكتابة اليدوية.
البروفيسور يان ليكون.
في الوقت الحالي، أصبحت CNN أداة مهمة في مجال الرؤية الحاسوبية ومعالجة الصور، وهي الأساس للعديد من المنتجات والخدمات التي تنشرها شركات مثل Facebook وGoogle وMicrosoft وBaidu وIBM وNEC وAT&T في التعرف على الفيديو والمستندات والصور والصوت.
كما اقترح نموذج Deep Q-Network (DQN) في عام 2013. وهي طريقة تستخدم التعلم العميق لتدريب أنظمة الذكاء الاصطناعي على لعب ألعاب الفيديو.
نشر البروفيسور ليكون أكثر من 200 ورقة بحثية حول هذا الموضوع بالإضافة إلى التعرف على الكتابة اليدوية، وضغط الصور، والأجهزة المخصصة للذكاء الاصطناعي.
في عام 2018، حصل البروفيسور ليكون واثنان من العلماء، جيفري هينتون ويوشوا بينجيو، على جائزة تورينج - والتي تعتبر بمثابة جائزة نوبل في مجال علوم الكمبيوتر.
يستطيع الذكاء الاصطناعي الإجابة على جميع الأسئلة ومساعدتنا في حياتنا اليومية. قد يصبح الذكاء الاصطناعي يومًا ما أذكى من البشر. لكن لا ينبغي أن نشعر بالتهديد من ذلك، بل يجب أن نشعر بوجود فرصة للاستفادة من الذكاء الاصطناعي لتحسين حياتنا. تخيل أن لديك فريقًا من الموظفين الأذكياء الذين يستخدمون تقنيات الذكاء الاصطناعي لمساعدتك في العمل، كما أوضح البروفيسور ليكون.
بخلاف معظم الباحثين في هذا المجال، يُبدي البروفيسور ليكون تفاؤلاً بشأن مستقبل الذكاء الاصطناعي وإمكاناته. وقال: "أثق بالمنظمات والمعاهد البحثية التي ستُحقق أقصى استفادة من تقنية الذكاء الاصطناعي. علينا مواصلة تطوير ذكاء اصطناعي أكثر ذكاءً، فكلما كان أكثر ذكاءً، كان أكثر أمانًا" .
[إعلان 2]
المصدر: https://vtcnews.vn/giao-su-yann-lecun-cha-de-cua-ai-sap-sang-viet-nam-ar909728.html
تعليق (0)