Дата обновления: 31/03/2024 05:42:42
Согласно сообщению в блоге OpenAI, в котором приводятся результаты небольшого тестирования «Voice Engine», инструмент по сути может клонировать чей-то голос на основе 15-секундного аудиофрагмента.
Фото: OpenAI
Компания OpenAI только что представила инструмент для клонирования голоса, но он будет находиться под строгим контролем до тех пор, пока не будут приняты меры безопасности, чтобы предотвратить введение слушателей в заблуждение с помощью поддельных аудиозаписей.
OpenAI признает, что генерация голоса несет в себе серьезные риски, особенно в год выборов. Тем не менее, компания заявила, что сотрудничает с отечественными и международными партнерами из правительства, СМИ, индустрии развлечений, образования , гражданского общества и других секторов для сбора отзывов с целью безопасного создания и развития этого инструмента.
OpenAI заявляет, что реализовала ряд мер безопасности, включая маркировку источника любого звука, генерируемого Voice Engine, и активный мониторинг использования инструмента.
Исследователи дезинформации обеспокоены рисками массового злоупотребления приложениями на базе искусственного интеллекта в решающий предвыборный год, поскольку инструменты клонирования голоса становятся все более дешевыми, простыми в использовании и трудно отслеживаемыми.
Одним из примеров является сгенерированный искусственным интеллектом звонок, придуманный лоббистом конгрессмена из Миннесоты Дина Филлипса, который звучит так, будто президент Джо Байден призывает людей не голосовать на праймериз в Нью-Гэмпшире в январе 2024 года.
Инцидент вызвал обеспокоенность у экспертов по поводу волны дезинформации с использованием искусственного интеллекта (поддельных аудио- или видеоматериалов ) в ходе предвыборной гонки за Белый дом в 2024 году и других крупных мировых выборов в этом году.
По данным VNA/NDO
Источник
Комментарий (0)