В последние месяцы эксперты и исследователи по безопасности детей предупреждают о риске того, что искусственный ИИ может усугубить насилие в Интернете.
Генеральный директор Meta Марк Цукерберг выступает на слушаниях в Судебном комитете Сената США 31 января 2024 года перед толпой участников, держащих в руках изображения, созданные с помощью искусственного интеллекта. Фото: Reuters
NCMEC пока не опубликовал общее количество сообщений о материалах, связанных с жестоким обращением с детьми, полученных им из всех источников в 2023 году. Однако в 2022 году он получил сообщения о примерно 88,3 миллиона файлов, касающихся этой проблемы.
«Мы получаем отчеты от самих инновационных компаний в области ИИ, (онлайн) платформ и представителей общественности», — сказал Джон Шехан, вице-президент NCMEC.
Руководители Meta, X, TikTok, Snap и Discord дали показания на слушаниях в Сенате США по безопасности детей на онлайн-платформах в среду (31 января). Американские законодатели задали владельцам социальных сетей вопросы об их усилиях по защите детей от «онлайн-хищников».
Исследователи из Стэнфордской интернет-обсерватории в своем отчете, опубликованном в июне прошлого года, заявили, что генеративный ИИ может использоваться злоумышленниками для неоднократного причинения вреда реальным детям путем создания их поддельных изображений.
Фэллон Макналти, директор CyberTipline NCMEC, которая принимает сообщения об эксплуатации детей в Интернете, заявил, что контент, создаваемый ИИ, становится «все более фотореалистичным», что затрудняет определение того, являются ли жертвы реальными людьми.
По словам Макналти, компания OpenAI, создавшая ChatGPT, разработала процесс отправки отчетов в NCMEC, и организация ведет переговоры с другими компаниями в сфере ИИ.
Хоанг Хай (по данным Reuters, FT)
Источник
Комментарий (0)