مكتب البريد العام
تقدم كاسبرسكي المبادئ الأخلاقية لتطبيق الذكاء الاصطناعي (AI) أو التعلم الآلي (ML) في تطوير واستخدام أنظمة الشركات لتعزيز التزامها بتطوير التكنولوجيا بشكل مسؤول وشفاف.
تستخدم Kaspersky خوارزميات التعلم الآلي - وهي مجموعة فرعية من الذكاء الاصطناعي - في حلولها المؤسسية منذ ما يقرب من 20 عامًا. |
مع تزايد أهمية دور خوارزميات الذكاء الاصطناعي في مجال الأمن السيبراني، تشرح المبادئ الواردة في الورقة البيضاء لشركة كاسبرسكي كيف يمكن للشركات ضمان موثوقية تقنية الذكاء الاصطناعي وتوجيه الشركات في الصناعة للتخفيف من المخاطر المرتبطة باستخدام خوارزميات الذكاء الاصطناعي/التعلم الآلي.
مكّن الجمع بين الذكاء الاصطناعي والخبرة البشرية حلول كاسبرسكي من اكتشاف مجموعة واسعة من تهديدات الأمن السيبراني ومكافحتها بفعالية. ويلعب التعلم الآلي دورًا هامًا في أتمتة اكتشاف التهديدات وتحديد الشذوذ، مع تحسين دقة اكتشاف البرامج الضارة.
لتحفيز الابتكار، طورت كاسبيرسكي مبادئ أخلاقية لتطوير واستخدام الذكاء الاصطناعي/التعلم الآلي، والتي تمت مشاركتها أيضًا علنًا مع الصناعة من أجل الدبلوماسية المتعددة الأطراف لضمان استخدام الذكاء الاصطناعي بشكل أخلاقي لخلق عالم أفضل.
يعكس مبدأ الشفافية إيمان كاسبرسكي الراسخ بضرورة إطلاع الشركات عملائها على تقنيات الذكاء الاصطناعي/التعلم الآلي المستخدمة في منتجاتها وخدماتها. تلتزم كاسبرسكي بهذا المبدأ من خلال تطوير أنظمة ذكاء اصطناعي/تعلم آلي سهلة الاستخدام قدر الإمكان، ومشاركة المعلومات مع الجهات المعنية حول كيفية عمل الحلول وكيفية استفادة كاسبرسكي من تقنيات الذكاء الاصطناعي/التعلم الآلي.
وفقًا لكاسبيرسكي، لتسهيل تطوير واستخدام الذكاء الاصطناعي والتعلم الآلي، يجب مراعاة المبادئ الستة التالية: الشفافية، والسلامة، والتحكم البشري، والخصوصية، والالتزام بالاستخدام لأغراض الأمن السيبراني، والانفتاح على الحوار...
[إعلان 2]
مصدر
تعليق (0)