Ник Клегг, президент по глобальным вопросам компании Meta, сообщил, что компания будет использовать набор маркеров, встроенных в файлы. Компания будет добавлять метки к любому контенту, публикуемому в своих сервисах Facebook, Instagram и Threads, давая пользователям понять, что изображения (которые могут казаться настоящими фотографиями) на самом деле являются цифровыми творениями искусственного интеллекта. Компания также маркирует контент, созданный с помощью собственных инструментов искусственного интеллекта, сообщает Reuters.
После запуска новой системы Meta будет делать то же самое для изображений, созданных на сервисах OpenAI, Microsoft, Adobe, Midjourney, Shutterstock и Alphabet. Это объявление стало первой новостью о новом стандарте, который технологические компании разрабатывают для снижения негативного влияния генеративного ИИ, способного создавать поддельный контент из обычного.
Маркировка изображений с помощью искусственного интеллекта поможет бороться с дезинформацией и мошенничеством
Подход основан на схеме, выработанной компаниями за последнее десятилетие для координации удаления запрещенного контента на платформах, такого как изображения массового насилия и эксплуатации детей.
Клегг полагает, что на данном этапе компании могут надежно маркировать изображения, созданные с помощью ИИ, но при этом отмечает, что более сложные инструменты маркировки аудио- и видеоконтента все еще находятся в стадии разработки.
В ближайшем будущем Meta начнёт требовать от пользователей маркировать изменённый аудио- и видеоконтент и будет вводить штрафы за невыполнение этого требования. Однако, по словам Клегга, в настоящее время не существует эффективного механизма маркировки текста, созданного с помощью инструментов искусственного интеллекта, таких как ChatGPT.
Независимый надзорный совет Meta раскритиковал политику компании в отношении вводящих в заблуждение отредактированных видеороликов, заявив, что контент следует маркировать, а не удалять, поэтому Клегг заявил, что новый шаг Meta может помочь лучше классифицировать такой контент.
Ссылка на источник
Комментарий (0)