인스타그램의 모회사인 메타(Meta)는 청소년이 메타 플랫폼을 사용할 때 보호받을 수 있는 새로운 안전 기능을 발표했습니다. 여기에는 메시지를 보낸 계정에 대한 정보를 표시하는 기능과 단 한 번의 탭으로 차단 및 신고하는 옵션이 포함됩니다.
메타는 회사 블로그에 올린 성명을 통해 성적으로 노골적인 댓글을 남기거나 노골적인 사진을 요청한 수천 개의 계정을 삭제했다고 밝혔습니다. 해당 계정들은 성인으로 확인되었지만 13세 미만 아동으로 위장한 것으로 드러났습니다. 이 중 13만 5천 개는 댓글을 위한 계정이었고, 50만 개는 "부적절한 상호작용"을 위한 계정이었습니다.
이러한 조치는 소셜 미디어 플랫폼이 젊은 사용자의 정신 건강과 안전에 미치는 영향에 대한 감시가 강화되는 가운데 나온 것으로, 특히 누드 사진을 이용해 협박하는 범죄자들의 표적이 될 수 있다는 우려가 커지고 있다.
Meta에 따르면, 사용자에게 "개인 메시지를 보낼 때 주의하고, 불편함을 주는 것을 발견하면 신고하세요"라는 안전 알림 덕분에 100만 개 이상의 계정이 차단되었고 100만 건 이상의 위반 사항이 신고되었습니다.
올해 초, Meta는 13세 이상만 이용 가능한 플랫폼인 Instagram에서 나이를 속인 사용자를 감지하기 위해 인공지능(AI) 기술을 테스트하기 시작했습니다.
위반 사항이 감지되면 해당 계정은 자동으로 성인 계정보다 제한 사항이 더 많은 주니어 계정으로 전환됩니다.
청소년 계정은 기본적으로 비공개로 설정되어 팔로우하거나 이전에 연락했던 사람의 메시지만 허용됩니다. 이 정책은 2024년부터 적용됩니다.
메타는 현재 미국 수십 개 주에서 여러 건의 소송에 직면해 있습니다. 소송 내용은 회사가 인스타그램과 페이스북에 의도적으로 중독성 있는 기능을 설계하여 청소년의 정신 건강을 해쳤다는 것입니다.
(베트남 통신/Vietnam+)
출처: https://www.vietnamplus.vn/meta-tang-cuong-bien-phap-bao-ve-thieu-nien-tren-instagram-post1051542.vnp
댓글 (0)