Технология Deepfake делает грань между реальностью и подделкой опасно размытой
Что такое Дипфейк?
Вы открываете телефон и с ужасом видите вирусное видео : ваше лицо и голос, когда вы произносите спорную речь на мероприятии, на котором вы никогда не были. Хотя вы знаете, что это не вы, видео слишком реально, чтобы вызывать подозрения. Это не научная фантастика, а продукт дипфейков — технологии искусственного интеллекта, которая может заставить вас «делать» то, чего вы никогда раньше не делали.
В эпоху, когда правда и ложь размываются, дипфейк — это не просто увлекательная онлайн-игра. Его можно использовать для выдачи себя за другое лицо, клеветы, мошенничества и даже для создания угроз личной безопасности. Так что же такое дипфейк? И что нам, обычным пользователям, следует делать, чтобы распознать его и защитить себя?
Deepfake — это технология, которая использует глубокое обучение — раздел искусственного интеллекта — для создания поддельных изображений, видео или аудиозаписей, которые выглядят настолько реалистично, что их трудно отличить от реальности.
По сути, система «изучит» сотни или даже тысячи оригинальных фотографий и видео человека, фиксируя детали — от походки, мимики до интонации голоса. Затем ИИ будет встраивать эти движения или звуки в любой оригинальный контент, создавая впечатление, что персонаж на видео или говорящий на записи «произносят» слова, которые они никогда не произносили.
Недавно на YouTube и в социальных сетях распространилась серия видеороликов, на которых запечатлена роскошная церемония бракосочетания Бэррона Трампа и принцессы Леонор Испанской. Однако это полностью плод работы искусственного интеллекта, созданный каналом «Lovely Trump Family» в развлекательных целях.
Хотя эти видеоролики и подразумевают, что они созданы с использованием ИИ, они все равно вызывают недоумение и споры среди общественности.
Как Deepfake «узнаёт» ваше лицо и голос?
Представьте себе ИИ как сверхбыстрого художника и певца-«мастера подражания». Чтобы нарисовать ваше лицо, ему достаточно фотографии или нескольких секунд видео:
Распознавание лиц: ИИ внимательно изучает каждую деталь на фотографии: расстояние между глазами, форму носа и рта, морщины, возникающие при улыбке. Затем он «рисует» это лицо на другом кадре, словно художник копирует набросок, добавляя цвет и детали. В результате получается лицо, которое выглядит естественно в исходном видео, даже если вас там не было.
Обучение голосу: ИИ слушает вас несколько секунд, запоминая высоту голоса, ритм и тон. Затем он «поёт» то же самое, как кавер-исполнитель, но сохраняя ваш голос «аутентичным».
Благодаря этому, используя всего 1-2 фотографии и 3-5 секунд аудио, Deepfake может «подражать» вам, создавая фейковые видео или аудио. Эта технология быстрая, удобная и… немного «волшебная», но из-за этого её очень легко использовать для подделки личных данных и распространения ложной информации.
Насколько опасен дипфейк?
Дипфейк существует не только для развлечения или удовлетворения любопытства, он также представляет множество опасностей для отдельных лиц и общества:
Выдача себя за другое лицо, финансовое мошенничество: мошенники могут использовать поддельные голоса, чтобы выдавать себя за начальство или родственников, звонящих с просьбой о срочном переводе денег. Всего несколько секунд записи вашего настоящего голоса, и телефон звучит точь-в-точь как голос «начальника» или «родителя», что может легко сбить жертву с толку.
Яркий пример: в 2019 году британский руководитель был обманным путем вынужден перевести 220 000 евро после того, как получил фейковый звонок от имени генерального директора его материнской компании.
Оскорбление чести и достоинства, клевета на отдельных лиц: Видеоролики с наложением лиц на сцены деликатного характера (порнографические фильмы, сцены насилия и т. д.) могут стать вирусными, нанося серьёзный моральный и репутационный ущерб участникам видео. После попадания в сеть такие видео очень сложно полностью удалить, даже если будет доказано, что они поддельные.
Распространение фейковых новостей, манипулирование общественным мнением: в деликатном политическом контексте фейковые видеоролики лидеров, говорящих то, чего они никогда не говорили, могут вызвать путаницу и потерю доверия к СМИ и правительству.
Угрозы личной и национальной безопасности: Используя достаточно сложные технологии, мошенники могут распространять фейковые видеоролики о фейковых чрезвычайных ситуациях (таких как войны, катастрофы), сея панику и общественный хаос. Службы безопасности также сталкиваются с серьёзными трудностями при различении реальной и поддельной информации, сталкиваясь с опасными разведданными.
Хотя дипфейки открывают множество возможностей для развлечений и творчества, они также стали изощрённым «оружием», требующим бдительности как от отдельных лиц, так и от властей. В следующем разделе мы узнаем, как защитить себя от этой опасности.
Как защитить себя от дипфейков?
Хотя полностью избежать риска стать жертвой дипфейков невозможно, вы все равно можете свести этот риск к минимуму несколькими простыми, но эффективными способами:
Ограничьте публичный доступ к личным фотографиям и видео: чем больше данных о лице и голосе вы публикуете в социальных сетях, тем больше возможностей для создания искусственным интеллектом дипфейков. Сохраняйте настройки конфиденциальными и тщательно обдумывайте, прежде чем публиковать что-либо.
Будьте осторожны с подозрительными звонками и видео: если вы получили звонок или видео от знакомого человека, но содержание необычное (например, просьба перевести деньги, странные заявления и т. д.), не стоит сразу верить. Проверьте, позвонив напрямую или отправив сообщение по другому каналу.
Используйте инструменты обнаружения дипфейков: несколько платформ и компаний, занимающихся безопасностью, разработали инструменты, которые могут проверять изображения/видео на наличие признаков манипуляции со стороны искусственного интеллекта. Хотя они не идеальны, они являются полезным первым шагом.
Сохраните свой цифровой след в безопасности: не делитесь голосовыми записями или видеозаписями своего лица в неконтролируемых средах (например, в незнакомых чат-ботах или приложениях неизвестного происхождения). Даже короткую запись можно извлечь, чтобы выдать себя за вас.
Будьте в курсе событий и бдительны: не паникуйте, но поймите: дипфейки вышли за рамки развлекательных технологий. Поделитесь этой информацией с близкими, особенно с пожилыми людьми и детьми — людьми, которых легко обмануть «настоящим» контентом.
Остановить развитие искусственного интеллекта невозможно, но можно защитить себя, проявляя бдительность, осведомлённость и проактивность. В мире , где истина и ложь находятся всего в нескольких кликах, знание — лучшая защита.
Источник: https://tuoitre.vn/deepfake-cong-nghe-lam-mo-ranh-gioi-that-gia-20250528100957532.htm
Комментарий (0)