owa9jl4othzdfxl13gzphyn13jiax1j7.jpg
Ожидается, что новая технология станет ключом к эффективному решению проблемы дипфейков.

Дипфейк (Deepfake) — это термин, образованный путём слияния слов «глубокое обучение» (Deep Learning) и «фейк» (Fake). Проще говоря, это технология имитации и создания поддельных аудио-, графических и даже видеоматериалов .

С бурным развитием искусственного интеллекта (ИИ) проблема дипфейков стала всё более актуальной, порождая волны дезинформации в прессе. Поэтому проактивная аутентификация происхождения изображений и видео является актуальной задачей для ведущих мировых производителей камер.

Ожидается, что Sony, Canon и Nikon выпустят цифровые камеры, поддерживающие цифровую подпись непосредственно на своих беззеркальных (или цифровых зеркальных) камерах. Внедрение цифровой подписи на камерах — чрезвычайно важная мера, позволяющая подтвердить происхождение и целостность изображений.

Эти цифровые подписи будут содержать информацию о дате, времени, месте и фотографе и будут защищены от несанкционированного доступа. Это особенно важно для фотожурналистов и других специалистов, чья работа требует аутентификации.

Три гиганта индустрии фотоаппаратов согласовали глобальный стандарт цифровых подписей, совместимый с онлайн-инструментом верификации Verify. Этот инструмент, запущенный коалицией международных новостных агентств, технологических компаний и производителей фотоаппаратов, позволит бесплатно проверить подлинность любого изображения. Если изображения созданы или изменены с использованием искусственного интеллекта, Verify пометит их как «Без проверки содержимого».

Важность технологий борьбы с дипфейками обусловлена быстрым ростом числа дипфейков известных личностей, таких как бывший президент США Дональд Трамп и премьер-министр Японии Фумио Кисида.

Кроме того, исследователи из Университета Цинхуа в Китае разработали новую генеративную модель ИИ, способную генерировать около 700 000 изображений в день.

deepfake 01.jpg
Новые технологии помогут восстановить доверие и сформировать наше восприятие мира.

Помимо производителей камер, к борьбе с дипфейками присоединяются и другие технологические компании. Google выпустила инструмент для добавления цифровых водяных знаков на изображения, созданные с помощью искусственного интеллекта, а Intel разработала технологию, анализирующую изменения тона кожи на фотографиях для определения их подлинности. Hitachi также работает над технологией предотвращения мошенничества с использованием онлайн-личностей.

Ожидается, что новая технология станет доступна в начале 2024 года. Sony планирует продвигать технологию в средствах массовой информации и уже провела полевые испытания в октябре 2023 года. Canon сотрудничает с Thomson Reuters и Starling Data Preservation Lab (исследовательским институтом, основанным Стэнфордским университетом и Университетом Южной Калифорнии) для дальнейшего совершенствования технологии.

Производители камер надеются, что новая технология поможет восстановить общественное доверие к изображениям, которые, в свою очередь, формируют наше восприятие мира.

(по данным OL)

Заплатил 5000 долларов Facebook за распространение фейкового видео о мошенничестве с инвестициями

Заплатил 5000 долларов Facebook за распространение фейкового видео о мошенничестве с инвестициями

Мошенник заплатил Facebook более 5000 долларов за отправку фейкового видео 100 000 человек в Австралии. Видео содержало поддельное интервью и призывало инвестировать ради огромной прибыли.
Новое вредоносное ПО захватывает контроль над смартфонами, а фейковые видеоролики становятся все более изощренными

Новое вредоносное ПО захватывает контроль над смартфонами, а фейковые видеоролики становятся все более изощренными

Новые вредоносные программы могут обходить барьеры безопасности и захватывать контроль над смартфонами; Видеоролики с дипфейком становятся все более изощренными и реалистичными;... — главные технологические новости прошедшей недели.
Видео с дипфейками становятся все более изощренными и реалистичными

Видео с дипфейками становятся все более изощренными и реалистичными

В условиях постоянно развивающейся технологии появились инструменты, позволяющие создавать фейковые видеоролики, которые на 70–80 % соответствуют реальности и которые легко сбивают с толку при просмотре невооруженным глазом.
Чего не следует делать

Что делать, чтобы не попасть в ловушку фейковых видеозвонков, мошеннических денежных переводов?

Если вам позвонили с просьбой о срочном переводе денег, сначала сохраняйте спокойствие и проверьте информацию, так как, скорее всего, вас обманывают с помощью Deepfake-видеозвонка.
Дипфейки используются для размещения лиц жертв в порновидео

Дипфейки используются для размещения лиц жертв в порновидео

Искусственный интеллект (ИИ) и дипфейк постепенно используются киберпреступниками в вредоносных целях, превращаясь в инструменты мошенничества и даже унижения других.