Этика ИИ служит компасом для целостности в технологических инновациях. Она вдохновляет руководителей бизнеса на обеспечение того, чтобы технологические достижения приносили пользу обществу, соблюдение прав человека и предотвращение использования ИИ во вредных целях.

Изображение 44.png
Этичное и ответственное использование ИИ. Фото: Midjourney

Это возлагает на лидеров ответственность за поощрение этичного поведения.

Проблемы этического внедрения ИИ

Справедливость и дискриминация

ИИ должен гарантировать, что к разным группам пользователей относятся справедливо при принятии решений. Однако многие системы ИИ сегодня все еще подвержены предвзятости данных обучения или самих алгоритмов, что приводит к предвзятому поведению. Это может проявляться в предвзятой классификации профилей, несправедливом кредитном скоринге или неравенстве в здравоохранении.

Ошибки часто возникают из-за сред данных, которые неадекватно охватывают реальные сценарии, или из-за искаженных данных. Поэтому инициативы в области ИИ должны начинаться с интеграции данных из нескольких источников — структурированных, неструктурированных, в режиме реального времени и исторических — чтобы гарантировать, что модели ИИ строятся на основе надежных и своевременных данных.

Конфиденциальность и защита данных

Эффективный ИИ требует большого количества данных, включая конфиденциальную информацию о клиентах или внутреннюю информацию компании. Это вызывает проблемы с конфиденциальностью, особенно когда ИИ используется для принятия важных решений в юридической или медицинской областях. Вопрос в следующем: откуда ИИ берет данные и как они собираются?

Один из надежных подходов — придерживаться строгих стандартов безопасности данных. Например, компания по переводу AI DeepL придерживается таких стандартов, как GDPR, ISO 27001 и SOC 2 Type II, чтобы контролировать весь процесс разработки AI и гарантировать безопасность данных. Теперь DeepL доверяют производственные компании за его высокую точность и приверженность безопасности.

Управление и ответственность

Предприятия должны обеспечить, чтобы использование ИИ контролировалось и соответствовало существующим правилам. Ключевой вопрос: «Если ИИ совершает ошибку, кто несет ответственность за ее исправление?» Недостаточно возложить ответственность на отдельного человека. Определение ответственности должно включать несколько сторон, чтобы обеспечить всесторонний надзор.

Заинтересованным сторонам необходимо быть в курсе последних нормативных актов, таких как GDPR (защита данных) или Закон Европейского союза об искусственном интеллекте. Например, CUBE — компания, предоставляющая решения для правовой разведки на основе искусственного интеллекта, — использует RegAI для постоянного мониторинга и обработки глобальных нормативных обновлений, обеспечивая безопасное и ответственное использование искусственного интеллекта в финансовой отрасли.

Кроме того, для повышения прозрачности и подотчетности предприятиям следует согласовывать свою деятельность в сфере ИИ с этическими нормами, такими как «Руководящие принципы ЕС по этике надежного ИИ» и «Этически согласованное проектирование» IEEE.

Воздействие на окружающую среду

ИИ оставляет огромный след CO₂. По данным H2OIQ, обучение модели ИИ (например, большой языковой модели) может потреблять тысячи мегаватт-часов электроэнергии и выбрасывать сотни тонн углерода — эквивалент выбросов сотен домохозяйств США за год. Gartner прогнозирует, что к 2030 году ИИ может потреблять до 3,5% мировой электроэнергии.

Некоторые компании уже предприняли действия. Например, NVIDIA сосредоточилась на энергоэффективных конструкциях GPU, а ее GPU Blackwell в 20 раз более энергоэффективны, чем CPU при выполнении определенных задач ИИ. Центры обработки данных NVIDIA также используют замкнутый контур жидкостного охлаждения и возобновляемую энергию для экономии водных ресурсов.

Последствия для бизнеса

Для руководителей бизнеса «этичный ИИ» означает создание и поддержание доверия к системам ИИ. Вот пять подходов:

Давать людям полномочия, а не заменять их

Создавайте ИИ для повышения производительности, а не для замены человеческих ролей. Например, программисты могут повысить производительность на 40%, используя Copilot для автоматизации повторяющихся задач.

Предвзятый аудит и человеческий надзор

Проводите регулярные проверки для выявления предвзятости и поддержания контроля со стороны человека. Например, когда ИИ оценивает кредитные рейтинги, аудиторы-люди должны проверять их, чтобы гарантировать справедливость.

Прозрачность использования данных

Всегда будьте прозрачны в отношении того, как ИИ использует и делится персональными данными. Например, платформы электронной коммерции должны объяснять, как данные клиентов используются для рекомендаций по продуктам.

Обучение вашей команды этике ИИ

Разработайте этические принципы и обучите сотрудников распознавать предвзятость в ИИ. Например, агентам по обслуживанию клиентов необходимо научиться выявлять предвзятость в чат-ботах ИИ.

Согласование ИИ с целями устойчивого развития

Убедитесь, что инициативы ИИ способствуют достижению целей компании в области устойчивого развития. Например, используйте ИИ для планирования интеллектуальных поставок с целью сокращения выбросов углерода.

Этика ИИ — это не просто набор концепций и норм, но и обязательство лидеров внедрять ИИ справедливо, безопасно и ответственно.

(По данным Forbes.com)

Источник: https://vietnamnet.vn/dao-duc-ai-nen-tang-xay-dung-niem-tin-trong-ky-nguyen-tri-tue-nhan-tao-2407517.html