빅테크 기업들의 인공지능(AI)과 챗봇에 대한 막대한 투자는 기업 정보 보안 책임자들에게 골칫거리를 안겨주고 있습니다. CNBC 에 따르면, AI가 직장에 침투하고 있으며, 정보 보안 책임자들은 이 기술에 신중하게 접근하고 방어 체계를 구축해야 합니다.
GPT의 기반 기술은 대규모 언어 모델(LLM)입니다. 모든 회사가 자체 GPT를 보유하고 있는 것은 아니므로 직원들이 GPT를 어떻게 사용하는지 모니터링하는 것이 중요합니다. 맥킨지 글로벌 연구소의 파트너인 마이클 추이는 생성적 AI가 유용하다고 생각되면 사람들이 이를 활용할 것이라고 말합니다. 그는 이를 직장에서 컴퓨터나 휴대전화를 사용하는 것에 비유합니다.
금지된 경우에도 직원들은 여전히 몰래 침투할 방법을 찾을 것입니다. 역사적으로 사람들이 기꺼이 돈을 지불할 만큼 매력적인 기술들이 있었습니다. 예를 들어, 추이에 따르면, 사람들은 회사에서 개인 기기를 제공하기 전에 휴대폰을 구매했습니다.
이미 사이버 공격 위협에 대처하고 있는 CISO들은 이제 AI와 GPT(개인정보보호)에 대한 또 다른 우려를 안고 있습니다. 추이에 따르면, 기업은 AI 플랫폼을 라이선스하여 직원들이 챗봇에 공개하는 내용을 모니터링하고, 직원들이 공유하는 정보를 안전하게 보호할 수 있습니다.
"기업으로서 직원들이 공개 챗봇에 기밀 정보를 요구하는 것을 원치 않을 것입니다." 라고 추이는 말합니다. 따라서 소프트웨어 라이선스를 취득하고 데이터 이동 경로에 대한 법적 계약을 체결하는 등 기술적 조치를 마련하는 것이 중요합니다.
Ceipal의 CEO인 Sameer Penakalapati는 안전한 선택은 회사가 자체 GPT를 개발하거나 GPT 개발자를 고용하여 자체 버전을 만드는 것이라고 말합니다. 자체 GPT를 만들면 소프트웨어는 회사가 직원들에게 접근하도록 원하는 정보를 정확하게 보유하게 됩니다. 또한 직원들이 입력하는 정보를 보호할 수도 있습니다. 어떤 솔루션을 선택하든 GPT에 입력되는 데이터에 주의해야 합니다.
(CNBC에 따르면)
[광고_2]
원천
댓글 (0)