Vietnam.vn - Nền tảng quảng bá Việt Nam

Deepfake: технология стирает грань между реальностью и подделкой

Вы можете «сказать» то, чего никогда не говорили, и «сделать» то, чего никогда не делали, с помощью одной лишь фотографии. Дипфейки опасно размывают грань между реальностью и подделкой.

Báo Tuổi TrẻBáo Tuổi Trẻ28/05/2025

Deepfake: Công nghệ làm mờ ranh giới thật - giả - Ảnh 1.

Технология Deepfake делает грань между реальностью и подделкой опасно размытой

Что такое Дипфейк?

Вы открываете телефон и с ужасом видите вирусное видео : ваше лицо и голос, произносящие спорную речь на мероприятии, на котором вы никогда не были. Хоть я и знал, что это не я, видео было слишком реальным, чтобы сомневаться. Это не научно-фантастический фильм, а продукт технологии глубокого фейка, которая может заставить вас «делать» то, чего вы никогда раньше не делали.

В эпоху, когда правда и ложь размываются, дипфейки — это больше, чем просто онлайн-развлечение. Его можно использовать для выдачи себя за другое лицо, клеветы, мошенничества и даже угрозы личной безопасности. Так что же такое дипфейк? И что нам — обычным пользователям — следует делать, чтобы распознать и защитить себя?

Deepfake — это технология, которая использует глубокое обучение — раздел искусственного интеллекта — для создания поддельных изображений, видео или аудиозаписей, которые выглядят настолько реалистично, что их трудно отличить от реальности.

По сути, система «изучит» сотни, даже тысячи оригинальных фотографий и видео человека, фиксируя детали — от походки, выражения лица до интонации голоса. Затем ИИ смешивает эти движения или звуки с любым оригинальным контентом, заставляя персонажа на видео или говорящего на записи «говорить» слова, которые они никогда не произносили.

Недавно на YouTube и в социальных сетях появилась серия видеороликов, на которых запечатлено пышное бракосочетание Бэррона Трампа и принцессы Леонор Испанской. Однако это полностью продукт искусственного интеллекта, созданный каналом «Lovely Trump Family» в развлекательных целях.

Хотя эти видеоролики маркируются как созданные с использованием искусственного интеллекта, они все равно вызывают недоумение и споры среди общественности.

Как Deepfake «изучает» ваше лицо и голос?

Представьте себе ИИ как сверхбыстрого художника и «мастера подражания» певцу. Чтобы нарисовать ваше лицо, понадобится всего лишь фотография или несколько секунд видео:

Распознавание лиц: ИИ внимательно изучает каждую деталь на фотографии: расстояние между глазами, форму носа и рта, морщины при улыбке. Затем он «перерисовывает» это лицо на другой кадр, словно художник копирует эскиз и добавляет цвет и детали. В результате ваше лицо естественным образом появляется в оригинальном видео, даже если вас там не было.

Обучение голосу: ИИ слушает вашу речь в течение нескольких секунд, запоминая высоту голоса, ритм и тон. Затем он снова «поет» с новым содержанием, как исполнитель кавер-версий, но сохраняет «качество» вашего голоса.

Благодаря этому, используя всего 1-2 фотографии и 3-5 секунд аудиозаписи, deepfake может «подражать» вам, создавая поддельные видео или аудио. Эта технология быстрая, удобная и… немного «волшебная», но из-за этого ее очень легко злоупотреблять для подделки личностей и распространения ложной информации.

Насколько опасен дипфейк?

Дипфейк не просто предназначен для развлечения или удовлетворения любопытства, он также представляет множество опасностей для отдельных людей и общества:

Выдача себя за другое лицо, финансовое мошенничество: мошенники могут использовать поддельные голоса, чтобы выдавать себя за начальников или родственников, звонящих с просьбой о срочном переводе денег. Всего несколько секунд записи вашего настоящего голоса, телефон звучит точь-в-точь как голос «босса» или «родителей», жертву очень легко застать врасплох.

Яркий пример: в 2019 году британский руководитель был обманут и перевел 220 000 евро после того, как получил фейковый звонок от имени генерального директора его материнской компании.

Ущемление чести, клевета на отдельных лиц: Видеоролики с наложением лиц на сцены деликатного характера (порнографические фильмы, сцены насилия и т. д.) могут стать вирусными, нанося серьезный моральный и репутационный ущерб людям, изображенным на видео. После того, как такие видео появились в сети, их очень сложно полностью удалить, даже если доказано, что они являются поддельными.

Распространение фейковых новостей, манипулирование общественным мнением: в деликатном политическом контексте фейковые видеоролики лидеров, говорящих то, чего они никогда не говорили, могут вызвать путаницу и потерю доверия к СМИ и правительству.

Угроза личной и национальной безопасности: Используя достаточно сложные технологии, злоумышленники могут распространять фейковые видеоролики о фейковых чрезвычайных ситуациях (таких как войны, катастрофы), сея панику и социальный хаос. Органы безопасности также сталкиваются с серьезной проблемой при различении реальной и фальшивой опасной разведывательной информации.

Хотя дипфейки открывают массу возможностей для развлечений и творчества, они также становятся изощренным «оружием», требующим бдительности как от отдельных лиц, так и от властей. В следующем разделе мы узнаем, как защитить себя от этой опасности.

Как защитить себя от дипфейков?

Хотя полностью избежать риска стать «целью» дипфейков невозможно, вы все равно можете минимизировать этот риск несколькими простыми, но эффективными способами:

Ограничьте публичный обмен личными фотографиями и видео: чем больше данных о лице и голосе вы публикуете в социальных сетях, тем больше материала у ИИ для создания дипфейков. Сохраняйте конфиденциальность и думайте, прежде чем что-то публиковать.

Будьте осторожны с подозрительными звонками и видео: если вы получили звонок или видео от кого-то из знакомых, но с необычным содержанием (например, просьба перевести деньги, странные заявления и т. д.), не верьте этому. Пожалуйста, проверьте, позвонив напрямую или отправив сообщение через другой канал.

Используйте инструменты обнаружения дипфейков: несколько платформ и компаний, занимающихся безопасностью, разработали инструменты для проверки изображений/видео на наличие признаков вмешательства ИИ. Хоть они и не идеальны, но являются полезным первым шагом к пониманию.

Сохраняйте свой цифровой след в безопасности: не публикуйте голосовые записи или видео со своим лицом в неконтролируемых средах (например, в странных чат-ботах или приложениях неизвестного происхождения). Также можно извлечь короткую аудиозапись, которая выдаст вас за другого человека.

Будьте информированы и бдительны: не паникуйте, но поймите: дипфейки вышли за рамки развлекательных технологий. Пожалуйста, поделитесь этими знаниями с вашими близкими, особенно с пожилыми людьми и детьми — группами, которых легко обмануть контентом, выглядящим «реальным».

Вы не можете остановить развитие ИИ, но вы можете полностью защитить себя с помощью осведомленности, бдительности и проактивности. В мире , где правда и ложь находятся всего в нескольких кликах друг от друга, знание — лучшая защита.

ТХАНЬ ЧЕТ

Источник: https://tuoitre.vn/deepfake-cong-nghe-lam-mo-ranh-gioi-that-gia-20250528100957532.htm


Комментарий (0)

No data
No data

Та же категория

Дикая природа острова Катба
Долгое путешествие по Каменному плато
Кат Ба - Симфония лета
Найдите свой собственный Северо-Запад

Тот же автор

Наследство

Фигура

Бизнес

No videos available

Новости

Политическая система

Местный

Продукт