Vietnam.vn - Nền tảng quảng bá Việt Nam

«Почему ИИ опасен?»

Báo Quân đội Nhân dânBáo Quân đội Nhân dân04/04/2023


На самом деле, это не первый раз, когда ученые предупреждают о перспективе того, что искусственный интеллект станет опасным для людей. В 2014 году известный британский физик-теоретик Стивен Хокинг заявил: «Полное развитие искусственного интеллекта может уничтожить человечество». Он также заявил, что в ближайшие 500 лет люди будут полностью заменены искусственным интеллектом, если не будут осторожны в исследованиях и разработках этой опасной технологии. Восемь лет назад, в июле 2015 года, более 1000 экспертов по исследованию технологий искусственного интеллекта, включая Стивена Хокинга, Илона Маска, Ноама Хомского... подписали петицию, предупреждающую о риске гонки вооружений в области военного ИИ и призывающую к всеобъемлющему запрету автономного оружия. Запуск компанией OpenAI приложения Chat GPT в ноябре 2022 года стал еще одним тревожным звоночком в череде экзистенциальных рисков со стороны искусственного интеллекта. На самом деле действия Chat GPT показывают, что ИИ в некоторой степени гораздо опаснее, чем когда-то считали люди.

Потенциальные риски искусственного интеллекта зависят от того, как он используется. Первоначально ИИ был разработан для помощи людям в их работе, особенно в выполнении скучных и повторяющихся задач, таких как классификация изображений, просмотр информации и т. д. Однако в связи с быстрым развитием ИИ в последнее время ученые и эксперты в области технологий обеспокоены тем, что в случае неконтролируемого развития или программирования для неправильных целей искусственный интеллект может вызвать серьезные последствия для людей и общества.

Риск неуверенности

Искусственный интеллект может представлять угрозу национальной безопасности и личной безопасности. Илон Маск предупредил, что ИИ может стать ужасающим инструментом в войне. Если страна сможет разработать совершенную систему искусственного интеллекта, она сможет использовать ее для нападения на другие страны. Стюарт Рассел, профессор компьютерных наук Калифорнийского университета, посвятил десятилетия исследованию искусственного интеллекта. Предупреждая об угрозе безопасности, которую представляет ИИ, он заявил, что теперь мы можем производить автономное оружие нападения, интегрируя и миниатюризируя существующие технологии.

Эксперимент проводился профессором Стюартом Расселом и Институтом будущего жизни (FLI) с использованием робота-убийцы (slaughterbot) — микроскопического летательного аппарата, оснащенного камерами, датчиками, программным обеспечением для обработки изображений, системой распознавания лиц, 3-граммовой взрывчаткой и высокоскоростным микропроцессором, позволяющим анализировать данные и реагировать в 100 раз быстрее, чем человеческий мозг. Согласно параметрам программирования, робот-убийца постоянно обращается к облачным данным для поиска информации о цели и поиска способа приблизиться к ней. Обнаружив цель, он на большой скорости устремляется к ней, активируя взрывчатку массой 3 грамма, которая глубоко проникает в череп и убивает жертву в мгновение ока.

Это был всего лишь эксперимент с ИИ на самом простом уровне. Если ИИ будет использоваться для разработки новых, более сложных методов атак, это также может увеличить возможности злоумышленников по проведению атак и привести к более серьезным последствиям, чем при обычных атаках. Когда ИИ достигнет уровня, когда он сможет самостоятельно принимать решения, чтобы реагировать на изменения окружающей среды, искать альтернативные цели или расширять диапазон своих целей, люди перестанут быть в безопасности. Многие коллеги в этой области согласны с профессором Стюартом Расселом и утверждают, что все еще есть шанс предотвратить столь мрачное будущее, но у нас осталось не так много времени.

Риск того, что ИИ станет организованным, автономным и будет контролировать систему

ИИ может быть неправильно спроектирован или неправильно «обучен» с помощью машинного обучения и может выполнять нежелательные действия, нанося вред людям и окружающей среде. Конкретный пример: благодаря машинному обучению ИИ становится все более и более интеллектуальным. Когда искусственный интеллект достигает уровня интеллекта, который выходит за рамки поддержки таких важных систем, как электроснабжение, транспорт, здравоохранение , финансы и т. д., он может овладеть всеми этими системами и контролировать их, а также принимать и выполнять решения в чрезвычайных ситуациях. Когда ИИ «оснащен» дополнительными «преднамеренными» целями (ошибочная разработка), это может вызвать множество серьезных последствий, таких как нарушение системы дорожного движения путем отключения светофорной системы или отключения питания системы управления городскими поездами, что приведет к серии аварий, вызывая массовые отключения электроэнергии...

По этому сценарию снято множество голливудских и международных фильмов. Однако при современных технологиях искусственного интеллекта это уже не отдаленная перспектива, а вполне может стать реальностью. Илон Маск считает, что если позволить ИИ развиваться бесконтрольно и достичь такой степени, что он сможет автоматизировать принятие решений без вмешательства человека, это может стать угрозой для выживания человечества. Вот почему он и тысячи технических экспертов подписали письмо с требованием прекратить и установить строгий контроль над разработкой ИИ прозрачным образом. По словам Илона Маска, системы искусственного интеллекта сложны, трудны для понимания и очень сложны в управлении. Без прозрачности использование искусственного интеллекта в неэтичных целях, наносящих вред людям, неизбежно.

Риск потери работы, нарушение конфиденциальности

При использовании для сбора личной информации технология искусственного интеллекта может использоваться для нарушения конфиденциальности, осуществления дезинформационной деятельности и распространения ложной информации, влияющей на социальную ситуацию и политическую стабильность. Инцидент с хакерской атакой на сетевую систему Управления кадровой политики (OPM) правительства США является примечательным для любой страны или организации, поскольку в руки хакеров попали подробные и крайне конфиденциальные персональные данные 21,5 млн действующих и вышедших на пенсию чиновников США, информация об их супругах, данные о людях, подавших заявления на государственные должности, такие как состояние здоровья, место жительства, работа, отпечатки пальцев и финансовая информация. Но есть и еще более пугающая реальность, когда ЦРУ обнаружило, что похититель данных OPM использовал технологию искусственного интеллекта для сканирования, подделки личной информации и создания виртуальных шпионов для кражи данных. Украденная информация будет проанализирована, классифицирована и использована с помощью технологии Bigdata в определенных целях. Технология искусственного интеллекта помогает ворам информации сократить время, необходимое для ее кражи, поскольку люди не способны обработать такой огромный объем информации за столь короткое время.

Помимо существующих опасностей, упомянутых выше, технология ИИ также создает другие риски, такие как: Чрезмерная зависимость от нее, приводящая к потере контроля над ситуацией и снижению способности человека принимать решения. Искусственный интеллект также приведет к тому, что миллионы, а то и сотни миллионов людей потеряют работу, особенно в сфере чисто ручного труда, не требующего больших знаний. В результате серьезные социальные проблемы, такие как безработица, преступность, разрыв между богатыми и бедными... станут еще глубже. Кроме того, следует учитывать и надежность. Надежность решений в таких узкоспециализированных областях, как медицина, уголовное правосудие... чрезвычайно важна. Когда ИИ используется для принятия решений в областях, где эта технология ненадежна, оперирует данными, предвзятыми по отношению к одному человеку или группе людей, или намеренно искажена, такие решения могут иметь серьезные последствия.

Как предотвратить?

Вышеуказанные риски являются причиной того, что Илон Маск и эксперты в области технологий обеспокоены неконтролируемым развитием ИИ и написали письмо, призывающее Организацию Объединенных Наций и международные организации строго контролировать, обеспечивать безопасность и этику в разработке ИИ; Укреплять международное сотрудничество, чтобы гарантировать использование технологий искусственного интеллекта на благо людей и общества. Можно выделить некоторые конкретные меры:

- Контроль надежности системы: ИИ необходимо проектировать и разрабатывать так, чтобы гарантировать безопасность и надежность с помощью строгих, регулярных и непрерывных методов тестирования, контроля и мониторинга качества, чтобы гарантировать, что система ИИ работает в соответствии с ожиданиями человека и избегает нежелательных эффектов из-за ее недостаточной надежности.

- Технология искусственного интеллекта должна быть запрограммирована на работу в соответствии с этическими ценностями и социальными нормами. Такие правила и стандарты должны быть четко установлены и должны контролироваться, чтобы гарантировать, что они не приносят ничего плохого или вредного людям или организациям. Процесс анализа, оценки воздействия и мониторинга работы систем ИИ также должен проводиться регулярно, чтобы гарантировать стандартную работу, не нарушая и не подрывая общие ценности всего общества, не вызывая негативных последствий и обеспечивая передачу правильных знаний и ценностей.

левый центр верно дель
Журналистика — одна из отраслей, наиболее пострадавших от искусственного интеллекта. В будущем ведущим не придется читать текст на радио, и даже виртуальные ведущие на телевидении будут преобладать.

- Приостановите «обучение» как минимум на 6 месяцев, чтобы системы искусственного интеллекта могли заново оценить всю проблему. Это отстранение должно быть публичным и контролируемым, и в нем должны участвовать все ключевые игроки, участвующие в этом обучении. При необходимости правительствам следует вводить временные запреты. Это не означает полного прекращения разработки ИИ, а просто приостановку опасной гонки по переходу к другим моделям разработки, делая системы ИИ более точными, безопасными, понятными, прозрачными, релевантными, заслуживающими доверия и лояльными. Это комплексное решение, к которому Илон Маск и его коллеги призвали в открытом письме, однако его осуществимость невысока. Всем независимым лабораториям сложно выполнить такой необязательный и транснациональный призыв.

- Укреплять сотрудничество и обмен информацией между странами и независимыми организациями, занимающимися исследованиями в области ИИ, для обеспечения безопасной разработки и использования ИИ в будущем. Сотрудничество и обмен информацией также являются мерами по оперативному предупреждению и предотвращению любых рисков, которые могут возникнуть в будущем.

В целом, ИИ присутствовал и присутствует повсюду вокруг нас, и такие истории, как искусственный интеллект, пишущий стихи, музыку и статьи, стали реальностью и больше не являются научной фантастикой. Автор этой статьи сам использовал технологию искусственного интеллекта на компьютерах и телефонах, чтобы облегчить себе процесс написания и ускорить его. В частности, вступительная часть этой статьи и некоторые идеи были предложены ИИ, а точнее, все фотографии, использованные в этой статье, были созданы ИИ. Технология искусственного интеллекта очень полезна для улучшения качества работы и жизни людей, но ее необходимо жестко контролировать, чтобы она не вышла из-под контроля и не стала риском замены людей в будущем, как предсказывает физик-теоретик Стивен Хокинг.

Статья и фотографии: HUU DUONG


Источник

Комментарий (0)

No data
No data

Та же категория

Хазянг — красота, которая пленяет людей
Живописный «бесконечный» пляж в Центральном Вьетнаме, популярный в социальных сетях
Следуй за солнцем
Приезжайте в Сапу, чтобы окунуться в мир роз.

Тот же автор

Наследство

Фигура

Бизнес

No videos available

Новости

Политическая система

Местный

Продукт