SGGPO
카스퍼스키는 기업 시스템의 개발 및 사용에 인공지능(AI)이나 머신러닝(ML)을 적용하기 위한 윤리 원칙을 제시하여 책임감 있고 투명하게 기술을 개발하려는 노력을 강화합니다.
카스퍼스키는 약 20년 동안 기업 솔루션에서 ML 알고리즘(AI의 하위 집합)을 사용해 왔습니다. |
사이버 보안에서 AI 알고리즘의 역할이 점점 더 중요해짐에 따라, 카스퍼스키 백서의 원칙은 기업이 AI 기술의 신뢰성을 보장하고 업계의 회사가 AI/ML 알고리즘 사용과 관련된 위험을 완화할 수 있는 방법을 설명합니다.
카스퍼스키 솔루션은 인공지능과 인간의 전문 지식을 결합하여 광범위한 사이버 보안 위협을 효과적으로 탐지하고 대응할 수 있도록 지원했습니다. 머신러닝(ML)은 위협 탐지 및 이상 징후 식별을 자동화하는 동시에 맬웨어 탐지 정확도를 높이는 데 중요한 역할을 합니다.
혁신을 촉진하기 위해 카스퍼스키는 AI/ML 개발 및 활용에 대한 윤리 원칙을 수립했습니다. 이러한 원칙은 AI가 더 나은 세상을 만드는 데 현명하게 사용되도록 하는 다자간 외교 의 목적으로 업계와도 공개적으로 공유됩니다.
투명성 원칙은 기업이 자사 제품 및 서비스에 사용되는 AI/ML 기술에 대해 고객에게 알려야 한다는 카스퍼스키의 확고한 신념을 반영합니다. 카스퍼스키는 최대한 사용하기 쉬운 AI/ML 시스템을 개발하고, 솔루션의 작동 방식과 카스퍼스키가 AI/ML 기술을 활용하는 방식에 대한 정보를 이해관계자와 공유함으로써 이 원칙을 고수합니다.
카스퍼스키에 따르면 AI/ML의 개발과 사용을 촉진하기 위해서는 투명성, 안전성, 인간의 통제, 개인정보 보호, 사이버 보안 목적의 사용에 대한 노력, 대화에 대한 개방성 등 6가지 원칙을 고려해야 합니다.
[광고_2]
원천
댓글 (0)