Vietnam.vn - Nền tảng quảng bá Việt Nam

Этика работников СМИ при использовании технологий ИИ

Báo Quốc TếBáo Quốc Tế27/10/2024

Мы живём в эпоху промышленной революции 4.0, где искусственный интеллект (ИИ) постепенно становится неотъемлемой частью многих сфер общественной жизни. СМИ, выступая связующим звеном между общественностью и событиями, не могут оставаться в стороне от этого тренда.


Đạo đức của người làm truyền thông khi sử dụng công nghệ AI
Г-жа Нгуен Тхи Хай Ван, директор Центра подготовки журналистов Вьетнамской ассоциации журналистов , на семинаре по технологиям искусственного интеллекта. (Источник: Вьетнамская ассоциация журналистов)

Чтобы максимально эффективно использовать преимущества ИИ, специалистам по коммуникации необходимо вооружиться знаниями для эффективного использования ИИ, обеспечивая при этом надежность и этичность передачи информации.

Из «горячности» ИИ

Совершенно очевидно, что ИИ (искусственный интеллект) — одно из самых популярных ключевых слов сегодня. В сентябре 2024 года поиск в Google по ключевому слову «ИИ» за 0,3 секунды дал 15 миллиардов 900 миллионов результатов; по ключевому слову «инструменты ИИ» за 0,4 секунды было получено более 3 миллиардов 400 миллионов результатов. Эти огромные цифры отражают охват и интерес к ИИ и инструментам на его основе во всем мире.

В настоящее время появляется всё больше инструментов ИИ для различных областей, включая медиаиндустрию. Помимо широко известного ChatGPT, существует множество приложений ИИ, разработанных в специализированных направлениях для решения специализированных задач. Нетрудно перечислить множество инструментов, например: Bing AI, Clause, Zapier Central для групповых задач чат-ботов; Jasper, Copy.ai, Anyword для задач создания контента; Descript, Wondershare, Runway для задач видеопроизводства и редактирования; DALL-E3, Midjourney, Stable Diffusion для задач создания изображений; Murf, AIVA для задач аудиоконтента и т. д. Недавно гигант Amazon также представил разработанные им инструменты ИИ: Video Generator и Image Generator, с целью «вдохновлять творчество и приносить больше ценности».

Хотя инструменты ИИ очень разнообразны по масштабу или уровню специализации, по сути эта технология имеет две общие черты: инструменты ИИ разрабатываются на основе алгоритмов и данных для «обучения» инструментов ИИ.

Этический контроль использования ИИ в СМИ

Невозможно отрицать удобство, которое предоставляют инструменты ИИ, и с быстрым темпом обновления технологий будет появляться все больше и больше специализированных инструментов ИИ, отвечающих за задачи от простых до сложных в медиаиндустрии. Наряду с этим стремительным развитием возникает много вопросов, касающихся проблемы этического контроля при разработке и использовании инструментов ИИ в медиаиндустрии? Что произойдет, если алгоритмы и данные этого инструмента ИИ будут манипулироваться таким образом, что это нанесет вред обществу? Кто гарантирует права интеллектуальной собственности на входные данные, которые инструмент ИИ использует для обучения? Кто оценивает уровень причиняемого ими вреда?

Существует ли неравенство между группой людей, имеющих доступ к инструментам ИИ, и группой, не имеющей к ним доступа, при выполнении одной и той же задачи? Даже поднимались вопросы о потенциальном уровне неконтролируемого вреда от инструментов ИИ, особенно в чувствительных областях, которые могут затронуть многих людей в больших масштабах, таких как СМИ и социальные сети.

Осознавая вышеизложенные проблемы, многие организации, ассоциации, правительства и даже компании и корпорации, разрабатывающие инструменты ИИ, выпустили рекомендации, разъяснения и даже кодексы поведения, касающиеся этического контроля в сфере технологий ИИ. Декларация об этике искусственного интеллекта, принятая 193 странами в 2021 году (Рекомендация ЮНЕСКО), чётко гласит: « Быстрое развитие искусственного интеллекта (ИИ) создало множество возможностей во всём мире: от помощи в постановке медицинских диагнозов до обеспечения взаимодействия людей через социальные сети и повышения эффективности труда за счёт автоматизации задач».

Однако эти стремительные изменения также вызывают серьёзные этические проблемы. Подобные риски, связанные с ИИ, начали усугублять существующее неравенство, нанося ещё больший вред и без того обездоленным группам…». И далее «просим ЮНЕСКО разработать инструменты для поддержки государств-членов, включая Методологию оценки готовности — инструмент, позволяющий правительствам составить полное представление о своей готовности к этичному и ответственному внедрению ИИ в интересах всех своих граждан».

В рамках своего глобального подхода ЮНЕСКО создала Глобальную обсерваторию этики и управления ИИ, которая, по её словам, «предоставляет информацию о готовности стран к этичному и ответственному внедрению ИИ. В обсерватории также действует Лаборатория этики и управления ИИ, объединяющая вклады, важные исследования, инструментарий и передовой опыт по широкому кругу этических вопросов ИИ…»

Помимо глобальных организаций, таких как ЮНЕСКО, многие профессиональные ассоциации также разрабатывают собственные стандарты. Например, IABC (Международная ассоциация деловых коммуникаций), объединяющая тысячи членов по всему миру, разработала свод принципов этичного использования искусственного интеллекта специалистами в области коммуникаций. Этот свод принципов призван помочь членам IABC понять, насколько Кодекс этики IABC применим к ИИ. Эти принципы могут обновляться и дополняться по мере развития технологий искусственного интеллекта. В этом своде принципов содержится ряд конкретных положений, которых должен придерживаться специалист в области коммуникаций, например:

«Используемые ресурсы ИИ должны быть ориентированы на человека, чтобы создавать позитивный и прозрачный опыт, способствующий уважению и укреплению доверия к медиа-профессии. Важно быть в курсе профессиональных возможностей и рисков, связанных с инструментами ИИ. Информация должна предоставляться точно, объективно и справедливо. Инструменты ИИ могут быть подвержены множеству ошибок, несоответствий и других технических проблем. Для этого требуется человеческое суждение, чтобы независимо проверить, является ли мой контент, созданный с помощью ИИ, точным, прозрачным и содержит ли он плагиат.

Защищать личную и/или конфиденциальную информацию других лиц и не использовать её без их разрешения. Оценивать результаты работы ИИ, основываясь на человеческом участии и понимании сообщества, которому он призван служить. Максимально устранять предвзятость и учитывать культурные ценности и убеждения других.

Должны самостоятельно проверять факты и верифицировать свои результаты с необходимой профессиональной строгостью, чтобы гарантировать точность сторонних документов, информации или ссылок, наличие необходимой атрибуции и проверки, а также наличие надлежащей лицензии или разрешения на использование. Не пытайтесь скрыть или замаскировать использование ИИ в своих профессиональных результатах. Осознавать открытый исходный код ИИ и проблемы, связанные с конфиденциальностью, включая предоставление ложной, вводящей в заблуждение или обманной информации.

Компании и корпорации, владеющие, разрабатывающие и продающие инструменты ИИ, лучше всех разбираются во всех тонкостях ИИ-инструментов, знают базовые алгоритмы, на которых работают инструменты ИИ, и данные, на которых они обучаются. Поэтому этим компаниям также необходимо предоставлять информацию о принципах этики в разработке ИИ. Более того, есть компании, которые заинтересованы в этом вопросе.

Google обязуется не разрабатывать инструменты ИИ для областей, где существует значительный риск причинения вреда. Мы будем действовать только в тех случаях, когда считаем, что польза значительно перевешивает риски, и внедрим соответствующие меры безопасности. Оружие или другие технологии, основной целью или применением которых является причинение вреда человеку или непосредственное содействие его причинению. Технологии, собирающие или использующие информацию для наблюдения, нарушающие международно признанные нормы. Технологии, цель которых нарушает общепринятые принципы международного права и права человека.

В сфере безопасности Google заявляет: «Мы продолжим разрабатывать и внедрять надежные меры безопасности, чтобы избежать непреднамеренных последствий, создающих риск причинения вреда. Мы будем проектировать наши системы ИИ с учетом необходимой осторожности и стремиться разрабатывать их в соответствии с передовыми практиками исследований безопасности ИИ. Мы будем учитывать наши принципы конфиденциальности при разработке и использовании наших технологий ИИ. Мы будем предоставлять возможности для уведомления и согласия, поощрять архитектуры, защищающие конфиденциальность, а также обеспечивать необходимую прозрачность и контроль за использованием данных».

Подобно Google, компания Microsoft также опубликовала заявление о принципах и подходе к развитию ИИ, подчеркнув: «Мы стремимся обеспечить ответственную разработку систем ИИ, которая обеспечит доверие людей...». Кроме того, так или иначе, свои обязательства взяли на себя и крупные технологические компании, вкладывающие значительные средства в разработку инструментов ИИ, такие как Amazon и OpenAI.

Множество исторических примеров подтверждают двойственность технологий, как позитивных, так и негативных. Ведь, несмотря на то, что ИИ — весьма «высокотехнологичная» технологическая платформа, он по-прежнему основан на алгоритмах и данных, разработанных и собранных людьми; в то же время большинство продуктов ИИ являются частью бизнес-планов компаний, которым они принадлежат.

Следовательно, всегда существуют потенциальные риски, связанные как с технической стороной, так и со стороны команды разработчиков и менеджеров продукта. Проблема здесь заключается в масштабе воздействия инструментов ИИ на большинство, даже на социально-экономическом уровне сообщества. Своевременное внимание к этическому контролю при использовании технологий ИИ является позитивным знаком, учитывая участие крупных международных организаций, таких как ООН, правительства, отраслевые ассоциации и, прежде всего, непосредственно подразделений по разработке технологий.

Однако, поскольку список инструментов ИИ постоянно пополняется новыми версиями, каждая из которых сложнее и изощреннее предыдущей, кодексы, принципы и руководства также должны своевременно обновляться и дополняться, и, более того, должны быть упреждающими в предотвращении, ограничении и контроле разработчиков и пользователей продуктов в рамках, где возможность соблюдения этического контроля в технологиях ИИ в целом и работников СМИ в частности может обеспечить максимальную эффективность.



Источник

Комментарий (0)

Оставьте комментарий, чтобы поделиться своими чувствами!

Та же тема

Та же категория

Народный артист Сюань Бак был «ведущим церемонии» для 80 пар, поженившихся на пешеходной улице озера Хоан Кием.
Собор Парижской Богоматери в Хошимине ярко освещен в честь Рождества 2025 года
Девушки из Ханоя красиво «наряжаются» к Рождеству
Жители деревни хризантем Тет в Джиа Лай, ожившей после шторма и наводнения, надеются, что никаких отключений электроэнергии не произойдет, и растения спасутся.

Тот же автор

Наследство

Фигура

Бизнес

Кофейня в Ханое вызывает ажиотаж благодаря своей рождественской обстановке в европейском стиле

Текущие события

Политическая система

Местный

Продукт

Footer Banner Agribank
Footer Banner LPBank
Footer Banner MBBank
Footer Banner VNVC
Footer Banner Agribank
Footer Banner LPBank
Footer Banner MBBank
Footer Banner VNVC
Footer Banner Agribank
Footer Banner LPBank
Footer Banner MBBank
Footer Banner VNVC
Footer Banner Agribank
Footer Banner LPBank
Footer Banner MBBank
Footer Banner VNVC