Мы живём в эпоху технологической революции 4.0, где искусственный интеллект (ИИ) постепенно становится неотъемлемой частью многих сфер общественной жизни. СМИ, выступая связующим звеном между общественностью и событиями, не могут оставаться в стороне от этого тренда.
Г-жа Нгуен Тхи Хай Ван, директор Центра подготовки журналистов Вьетнамской ассоциации журналистов , на семинаре по технологиям искусственного интеллекта. (Источник: Вьетнамская ассоциация журналистов) |
Чтобы максимально эффективно использовать преимущества ИИ, специалистам по коммуникации необходимо вооружиться знаниями, которые позволят им эффективно использовать ИИ, обеспечивая при этом надежность и этичность передачи информации.
От «жара» ИИ
Очевидно, что ИИ (искусственный интеллект) — одно из самых популярных ключевых слов сегодня. В сентябре 2024 года поиск в Google по ключевому слову «ИИ» за 0,3 секунды дал 15 миллиардов 900 миллионов результатов; по ключевому слову «инструменты ИИ» за 0,4 секунды было получено более 3 миллиардов 400 миллионов результатов. Эти огромные цифры отражают охват и интерес к ИИ и инструментам на его основе во всем мире.
В настоящее время появляется всё больше инструментов ИИ для различных областей, включая медиаиндустрию. Помимо широко известного ChatGPT, существует множество приложений ИИ, разработанных в специализированных направлениях для решения специализированных задач. Нетрудно перечислить множество инструментов, например: Bing AI, Clause, Zapier Central для групповой работы с чат-ботами; Jasper, Copy.ai, Anyword для создания контента; Descript, Wondershare, Runway для видеопроизводства и редактирования; DALL-E3, Midjourney, Stable Diffusion для создания изображений; Murf, AIVA для аудиоконтента и т. д. Недавно гигант Amazon также представил разработанные им инструменты ИИ: Video Generator и Image Generator, с целью «вдохновить творчество и повысить ценность».
Хотя инструменты ИИ значительно различаются по масштабу и уровню специализации, по сути, у этой технологии есть две общие черты: инструменты ИИ разрабатываются на основе алгоритмов и данных для «обучения» инструмента ИИ.
Этический контроль использования ИИ в СМИ
Преимущества инструментов ИИ неоспоримы, и с быстрым темпом развития технологий будет появляться всё больше специализированных инструментов ИИ, способных решать как простые, так и сложные задачи в медиаиндустрии. Наряду с этим стремительным развитием возникает множество вопросов, касающихся этического контроля при разработке и использовании инструментов ИИ в медиаиндустрии? Что произойдёт, если алгоритмы и данные этого инструмента ИИ будут изменены таким образом, что это нанесёт вред сообществу? Кто гарантирует права интеллектуальной собственности на входные данные, которые инструмент ИИ использует для обучения? Кто оценивает уровень причиняемого ими вреда?
Существует ли неравенство между теми, у кого есть доступ к инструментам ИИ, и теми, у кого его нет, для выполнения одной и той же задачи? Даже поднимались вопросы о возможности неконтролируемого вреда от инструментов ИИ, особенно в чувствительных областях, которые могут затронуть многих людей в больших масштабах, таких как СМИ и социальные сети.
Осознавая вышеизложенные проблемы, многие организации, ассоциации, правительства и даже компании и корпорации, разрабатывающие инструменты ИИ, выпустили рекомендации, разъяснения и даже кодексы поведения, касающиеся этического контроля в сфере технологий ИИ. Декларация об этике искусственного интеллекта, принятая 193 странами в 2021 году (Рекомендация ЮНЕСКО), чётко гласит: «Быстрое развитие искусственного интеллекта (ИИ) создало множество возможностей во всём мире: от помощи в диагностике заболеваний до обеспечения взаимодействия людей через социальные сети и повышения эффективности труда за счёт автоматизации задач».
Однако эти стремительные изменения также вызывают серьёзные этические проблемы. Подобные риски, связанные с ИИ, начали усугублять существующее неравенство, нанося ещё больший вред и без того обездоленным группам…». Вслед за этим «ЮНЕСКО обратилось с просьбой разработать инструменты для поддержки государств-членов, включая Методологию оценки готовности — инструмент, позволяющий правительствам составить полное представление о своей готовности к этичному и ответственному внедрению ИИ в интересах всех своих граждан.
В рамках своего глобального подхода ЮНЕСКО создала Глобальную обсерваторию этики и управления ИИ, которая, по её словам, «предоставляет информацию о готовности стран к этичному и ответственному внедрению ИИ. В обсерватории также действует Лаборатория этики и управления ИИ, объединяющая вклады, важные исследования, инструментарий и передовой опыт по широкому кругу этических вопросов ИИ…»
Помимо глобальных организаций, таких как ЮНЕСКО, многие профессиональные ассоциации также работают над разработкой собственных кодексов поведения. Например, IABC (Международная ассоциация деловых коммуникаций), объединяющая тысячи членов по всему миру, разработала свод принципов этичного использования искусственного интеллекта специалистами в области коммуникаций. Этот свод принципов призван помочь членам IABC понять актуальность Кодекса этики IABC для ИИ. Эти принципы могут обновляться и дополняться по мере развития технологий искусственного интеллекта. В этом своде принципов содержится множество конкретных положений, которым должен следовать специалист в области коммуникаций, например:
«Используемые ресурсы ИИ должны быть ориентированы на человека, чтобы создавать позитивный и прозрачный опыт, способствующий уважению и укреплению доверия к медиа-профессии. Важно быть в курсе профессиональных возможностей и рисков, связанных с инструментами ИИ. Важно предоставлять информацию точно, объективно и справедливо. Инструменты ИИ могут быть подвержены множеству ошибок, несоответствий и других технических проблем. Для этого требуется человеческое суждение, чтобы независимо проверить, является ли мой контент, созданный ИИ, точным, прозрачным и содержит плагиат.
Защищайте личную и/или конфиденциальную информацию других лиц и не используйте её без их разрешения. Оценивайте результаты работы ИИ-систем, основываясь на человеческом участии и понимании сообщества, которому он призван служить. Старайтесь максимально исключить предвзятость и учитывайте культурные ценности и убеждения других.
Необходимо самостоятельно проверять и верифицировать свои результаты с необходимой профессиональной строгостью, чтобы гарантировать точность сторонних документов, информации или ссылок, наличие необходимой атрибуции и проверки, а также наличие надлежащей лицензии или разрешения на использование. Не пытаться скрыть или замаскировать использование ИИ в своих профессиональных результатах. Признать открытый исходный код ИИ и проблемы, связанные с конфиденциальностью, включая предоставление ложной, вводящей в заблуждение или обманной информации...
Компании и корпорации, владеющие, разрабатывающие и продающие инструменты ИИ, лучше всех разбираются во всех тонкостях ИИ-инструментов, знают базовые алгоритмы, на которых работают инструменты ИИ, и данные, на которых они обучаются. Поэтому этим компаниям также необходимо предоставлять информацию о принципах этики в разработке ИИ. Более того, есть компании, которые заинтересованы в этом вопросе.
Компания Google обязуется не разрабатывать инструменты ИИ для областей, где существует значительный риск причинения вреда, и мы будем делать это только тогда, когда будем уверены, что польза значительно перевешивает риски, и предусмотрим соответствующие меры безопасности. Оружие или другие технологии, основной целью или применением которых является причинение вреда человеку или непосредственное содействие его причинению. Технологии, собирающие или использующие информацию для наблюдения, нарушающие международно признанные нормы. Технологии, цель которых нарушает общепринятые принципы международного права и права человека.
В сфере безопасности Google заявляет: «Мы продолжим разрабатывать и внедрять надежные меры безопасности, чтобы избежать непреднамеренных последствий, создающих риск причинения вреда. Мы будем проектировать наши системы ИИ с учетом необходимой осторожности и стремиться разрабатывать их в соответствии с передовыми практиками исследований безопасности ИИ. Мы будем учитывать наши принципы конфиденциальности при разработке и использовании наших технологий ИИ. Мы будем предоставлять возможности для уведомления и согласия, поощрять архитектуры, защищающие конфиденциальность, а также обеспечивать необходимую прозрачность и контроль за использованием данных».
Подобно Google, Microsoft также опубликовала заявление о принципах и подходе к развитию ИИ, подчеркнув: «Мы стремимся обеспечить ответственную разработку систем ИИ, которая обеспечит доверие людей...». Кроме того, так или иначе, свои обязательства взяли на себя и крупные технологические компании, вкладывающие значительные средства в разработку инструментов ИИ, такие как Amazon и OpenAI.
Множество исторических примеров подтверждают двойственность технологий, как позитивных, так и негативных. Ведь, несмотря на то, что ИИ — весьма «высокотехнологичная» технологическая платформа, он по-прежнему основан на алгоритмах и данных, разработанных и собранных людьми; в то же время большинство продуктов ИИ являются частью бизнес-планов компаний, которым они принадлежат.
Следовательно, всегда существуют потенциальные риски, связанные как с технической стороной, так и со стороны команды разработчиков и менеджеров продукта. Проблема здесь заключается в масштабе воздействия инструментов ИИ на большинство, даже на социально-экономическом уровне сообщества. Своевременное внимание к этическому контролю при использовании технологий ИИ является позитивным знаком, поскольку в этом участвуют крупные международные организации, такие как ООН, правительства, а также отраслевые ассоциации и, прежде всего, непосредственно подразделения, занимающиеся разработкой технологий.
Однако, так же как список инструментов ИИ постоянно обновляется, и каждая следующая версия становится сложнее и изощреннее предыдущей, кодексы, принципы или руководства также должны своевременно обновляться и дополняться, и, более того, должны быть проактивными, чтобы предотвращать, ограничивать и контролировать подразделения по разработке продуктов и пользователей в рамках, где способность соблюдать этический контроль в технологиях ИИ в целом и работниках СМИ в частности может обеспечить максимальную эффективность.
Источник
Комментарий (0)