Vietnam.vn - Nền tảng quảng bá Việt Nam

Дипфейк: технологии стирают грань между реальностью и подделкой

С помощью одной лишь фотографии можно «сказать» то, чего никогда не говорил, и «сделать» то, чего никогда не делал. Дипфейки опасно размывают грань между реальностью и фейком.

Báo Tuổi TrẻBáo Tuổi Trẻ28/05/2025

Deepfake: Công nghệ làm mờ ranh giới thật - giả - Ảnh 1.

Технология Deepfake делает грань между реальностью и подделкой опасно размытой

Что такое Дипфейк?

Вы открываете телефон и с ужасом видите вирусное видео : ваше лицо и голос, когда вы произносите спорную речь на мероприятии, на котором вы никогда не были. Хотя вы знаете, что это не вы, видео слишком реально, чтобы вызывать подозрения. Это не научная фантастика, а продукт дипфейков — технологии искусственного интеллекта, которая может заставить вас «делать» то, чего вы никогда раньше не делали.

В эпоху, когда правда и ложь размываются, дипфейк — это не просто увлекательная онлайн-игра. Его можно использовать для выдачи себя за другое лицо, клеветы, мошенничества и даже для создания угроз личной безопасности. Так что же такое дипфейк? И что нам, обычным пользователям, следует делать, чтобы распознать его и защитить себя?

Deepfake — это технология, которая использует глубокое обучение — раздел искусственного интеллекта — для создания поддельных изображений, видео или аудиозаписей, которые выглядят настолько реалистично, что их трудно отличить от реальности.

По сути, система «изучит» сотни или даже тысячи оригинальных фотографий и видео человека, фиксируя детали — от походки, мимики до интонации голоса. Затем ИИ будет встраивать эти движения или звуки в любой оригинальный контент, создавая впечатление, что персонаж на видео или говорящий на записи «произносят» слова, которые они никогда не произносили.

Недавно на YouTube и в социальных сетях распространилась серия видеороликов, на которых запечатлена роскошная церемония бракосочетания Бэррона Трампа и принцессы Леонор Испанской. Однако это полностью плод работы искусственного интеллекта, созданный каналом «Lovely Trump Family» в развлекательных целях.

Хотя эти видеоролики и подразумевают, что они созданы с использованием ИИ, они все равно вызывают недоумение и споры среди общественности.

Как Deepfake «узнаёт» ваше лицо и голос?

Представьте себе ИИ как сверхбыстрого художника и певца-«мастера подражания». Чтобы нарисовать ваше лицо, ему достаточно фотографии или нескольких секунд видео:

Распознавание лиц: ИИ внимательно изучает каждую деталь на фотографии: расстояние между глазами, форму носа и рта, морщины, возникающие при улыбке. Затем он «рисует» это лицо на другом кадре, словно художник копирует набросок, добавляя цвет и детали. В результате получается лицо, которое выглядит естественно в исходном видео, даже если вас там не было.

Обучение голосу: ИИ слушает вас несколько секунд, запоминая высоту голоса, ритм и тон. Затем он «поёт» то же самое, как кавер-исполнитель, но сохраняя ваш голос «аутентичным».

Благодаря этому, используя всего 1-2 фотографии и 3-5 секунд аудио, Deepfake может «подражать» вам, создавая фейковые видео или аудио. Эта технология быстрая, удобная и… немного «волшебная», но из-за этого её очень легко использовать для подделки личных данных и распространения ложной информации.

Насколько опасен дипфейк?

Дипфейк существует не только для развлечения или удовлетворения любопытства, он также представляет множество опасностей для отдельных лиц и общества:

Выдача себя за другое лицо, финансовое мошенничество: мошенники могут использовать поддельные голоса, чтобы выдавать себя за начальство или родственников, звонящих с просьбой о срочном переводе денег. Всего несколько секунд записи вашего настоящего голоса, и телефон звучит точь-в-точь как голос «начальника» или «родителя», что может легко сбить жертву с толку.

Яркий пример: в 2019 году британский руководитель был обманным путем вынужден перевести 220 000 евро после того, как получил фейковый звонок от имени генерального директора его материнской компании.

Оскорбление чести и достоинства, клевета на отдельных лиц: Видеоролики с наложением лиц на сцены деликатного характера (порнографические фильмы, сцены насилия и т. д.) могут стать вирусными, нанося серьёзный моральный и репутационный ущерб участникам видео. После попадания в сеть такие видео очень сложно полностью удалить, даже если будет доказано, что они поддельные.

Распространение фейковых новостей, манипулирование общественным мнением: в деликатном политическом контексте фейковые видеоролики лидеров, говорящих то, чего они никогда не говорили, могут вызвать путаницу и потерю доверия к СМИ и правительству.

Угрозы личной и национальной безопасности: Используя достаточно сложные технологии, мошенники могут распространять фейковые видеоролики о фейковых чрезвычайных ситуациях (таких как войны, катастрофы), сея панику и общественный хаос. Службы безопасности также сталкиваются с серьёзными трудностями при различении реальной и поддельной информации, сталкиваясь с опасными разведданными.

Хотя дипфейки открывают множество возможностей для развлечений и творчества, они также стали изощрённым «оружием», требующим бдительности как от отдельных лиц, так и от властей. В следующем разделе мы узнаем, как защитить себя от этой опасности.

Как защитить себя от дипфейков?

Хотя полностью избежать риска стать жертвой дипфейков невозможно, вы все равно можете свести этот риск к минимуму несколькими простыми, но эффективными способами:

Ограничьте публичный доступ к личным фотографиям и видео: чем больше данных о лице и голосе вы публикуете в социальных сетях, тем больше возможностей для создания искусственным интеллектом дипфейков. Сохраняйте настройки конфиденциальными и тщательно обдумывайте, прежде чем публиковать что-либо.

Будьте осторожны с подозрительными звонками и видео: если вы получили звонок или видео от знакомого человека, но содержание необычное (например, просьба перевести деньги, странные заявления и т. д.), не стоит сразу верить. Проверьте, позвонив напрямую или отправив сообщение по другому каналу.

Используйте инструменты обнаружения дипфейков: несколько платформ и компаний, занимающихся безопасностью, разработали инструменты, которые могут проверять изображения/видео на наличие признаков манипуляции со стороны искусственного интеллекта. Хотя они не идеальны, они являются полезным первым шагом.

Сохраните свой цифровой след в безопасности: не делитесь голосовыми записями или видеозаписями своего лица в неконтролируемых средах (например, в незнакомых чат-ботах или приложениях неизвестного происхождения). Даже короткую запись можно извлечь, чтобы выдать себя за вас.

Будьте в курсе событий и бдительны: не паникуйте, но поймите: дипфейки вышли за рамки развлекательных технологий. Поделитесь этой информацией с близкими, особенно с пожилыми людьми и детьми — людьми, которых легко обмануть «настоящим» контентом.

Остановить развитие искусственного интеллекта невозможно, но можно защитить себя, проявляя бдительность, осведомлённость и проактивность. В мире , где истина и ложь находятся всего в нескольких кликах, знание — лучшая защита.

ТХАНЬ ТХУ

Источник: https://tuoitre.vn/deepfake-cong-nghe-lam-mo-ranh-gioi-that-gia-20250528100957532.htm


Комментарий (0)

No data
No data
PIECES of HUE - Pieces of Hue
Волшебное зрелище на холме с перевернутыми чашами чая в Пху Тхо
Три острова в Центральном регионе сравнивают с Мальдивами, привлекая туристов летом.
Полюбуйтесь сверкающим прибрежным городом Куинён в Гиалай ночью.
Изображение террасных полей в Пху Тхо, пологих, ярких и прекрасных, как зеркала перед началом посевной.
Фабрика Z121 готова к финалу Международного фестиваля фейерверков
Известный журнал о путешествиях назвал пещеру Шондонг «самой великолепной на планете»
Таинственная пещера привлекает западных туристов, ее сравнивают с пещерой Фонгня в Тханьхоа.
Откройте для себя поэтическую красоту залива Винь-Хи
Как обрабатывается самый дорогой чай в Ханое, стоимостью более 10 миллионов донгов за кг?

Наследство

Фигура

Бизнес

No videos available

Новости

Политическая система

Местный

Продукт