Развитие ответственности является важным фактором в продвижении все более полезного ИИ. Иллюстрация фото: Bloomberg. |
Генеративный ИИ меняет многие сферы. В образовании ИИ поддерживает обучение, обнаруживает плагиат и помогает в преподавании. В медицинской сфере ИИ поддерживает диагностику изображений, персонализирует схемы лечения и исследования лекарств. Этот инструмент также способствует автоматизированному созданию контента, поддерживает обслуживание клиентов и создает «виртуальных KOL» в бизнесе и маркетинге.
Наряду с преимуществами, распространение генеративного ИИ также вызывает этические проблемы, поскольку этот инструмент может усиливать предвзятость и распространять дезинформацию. ИИ также может поставить под угрозу конфиденциальность, безопасность данных и стабильность рабочей силы.
Подобно многим странам мира , Вьетнам развивается в применении генеративного ИИ. Для того, чтобы ИИ стал полезным инструментом, а не вредным для людей, ответственная разработка ИИ является одной из важных задач.
Тенденции ответственного ИИ
Доктор Сэм Гундар, старший преподаватель кафедры информационных технологий в Королевском технологическом институте Вьетнама, вспоминает некоторые споры, связанные с этикой генеративного ИИ, от скандала с порнографией Тейлор Свифт до выдачи себя за бывшего президента США Джо Байдена и академического мошенничества с использованием ИИ.
«Больше беспокойства вызывают случаи, когда чат-боты подстрекают к самоубийству, создают контент, содержащий сцены насилия над детьми, поощряют убийства, используют предвзятые алгоритмы найма или используют уязвимости безопасности с помощью ИИ.
«Эти проблемы подчеркивают необходимость подхода, ориентированного на человека, для минимизации злоупотреблений ИИ и защиты индивидуальных и общественных интересов», — поделился доктор Гундар.
Экран инструмента Microsoft Copilot. Фото: Bloomberg. |
По словам доктора Гундара, в 2025 году будет наблюдаться тенденция к ответственному, ориентированному на человека ИИ. С ростом опасений по поводу предвзятости, дезинформации и этических рисков приоритет отдается прозрачной технологии ИИ (XAI), помогающей пользователям понять, как ИИ принимает решения.
Несколько стран, таких как США, Канада, Австралия, Китай, Япония и т. д., начали принимать правила в области ИИ для управления и обеспечения этичного внедрения ИИ в отрасли.
Еще одна тенденция — гибридный ИИ, модель, объединяющая ИИ и человека, которая также может появиться в 2025 году.
В устойчивом развитии ИИ может помочь в решении проблемы изменения климата и продвижении зеленых технологий. Кроме того, ИИ расширит свои приложения в кибербезопасности, помогая повысить способность анализировать риски и реагировать на угрозы в цифровом пространстве.
«Поскольку внедрение ИИ ускоряется, обеспечение ответственного управления ИИ становится необходимым условием для оптимизации преимуществ технологии и снижения потенциальных рисков», — подчеркнул доктор Гундар.
Ответственные решения по разработке ИИ
Вьетнам является одной из стран, активно внедряющих инновации в области ИИ. Поэтому обеспечение этической разработки ИИ играет важную роль, избегая предвзятых алгоритмов ИИ, рисков конфиденциальности и потери общественного доверия.
Для разработки ИИ в соответствии с этическими принципами доктор Гундар предложил ряд решений, таких как инвестирование в исследования этики ИИ, сотрудничество с университетами с целью создания правовой базы для ответственного внедрения ИИ.
Далее следует рассмотреть возможность включения этики ИИ в учебные программы университетов, расширения программ обучения ИИ для руководителей предприятий, преподавателей и политиков.
Продвижение ответственности и этики помогает ИИ стать полезным инструментом для людей. Фото: Bloomberg. |
Повышение осведомленности общественности также важно, помогая людям и предприятиям понять влияние ИИ на конфиденциальность. Кроме того, это может поощрить применение ИИ в социальных целях, таких как здравоохранение , окружающая среда и образование, а не сосредотачиваться исключительно на прибыли.
Помимо образования и повышения осведомленности, важную роль в обеспечении ответственного развития ИИ играют также правовые рамки.
Эксперты из RMIT Vietnam предложили ряд решений, таких как применение более строгих правил в отношении ИИ, приближение к международным моделям управления ИИ, запуск этической сертификации ИИ, а также создание системы классификации и аудита рисков ИИ для оценки и тестирования систем с высоким уровнем риска.
«Поскольку Вьетнам стремится стать региональным центром искусственного интеллекта к 2030 году, его успех будет зависеть не только от технологического прогресса, но и от жесткого регулирования, этических инвестиций в ИИ и осведомленности общественности для борьбы с потенциальными рисками», — подчеркнул доктор Гундар.
Источник: https://znews.vn/xu-huong-ai-moi-cua-nam-2025-post1538816.html
Комментарий (0)