Иллюстрация к призыву рассматривать ИИ как биологическое оружие. (Источник: gizmodo.com) |
В статье Эмилии Яворски, ученого -доктора, директора Института будущего жизни (США), «Относитесь к ИИ как к биологическому, а не как к ядерному оружию » автор утверждает, что, несмотря на то, что в последнее время в мире неоднократно сравнивают ИИ с ядерными бомбами, существует более подходящий подход — регулировать этот тип технологий как биологическое оружие или биотехнологию.
По мнению автора, ИИ — пожалуй, самая мощная технология в истории человечества, которую люди разрабатывают сегодня. Вредные последствия ИИ, включая дискриминацию, угрозы демократии и концентрацию влияния, хорошо задокументированы.
Тем не менее, ведущие компании в сфере ИИ спешат создать все более мощные системы ИИ, что приводит к росту рисков с беспрецедентной в истории человечества скоростью.
Пока лидеры пытаются решить, как сдержать и контролировать рост ИИ и связанные с ним риски, им необходимо учитывать корректировки и стандарты, которые человечество использовало для его создания в прошлом.
Адаптация и инновации могут сосуществовать, особенно когда на карту поставлены человеческие жизни.
Предупреждение от ядерных технологий
Хотя ядерная энергия более чем в 600 раз безопаснее нефти с точки зрения смертности и чрезвычайно эффективна, лишь немногие страны решаются использовать ее из-за последствий, которые они наблюдают из-за давнего подхода к ядерной энергетике.
Мир узнал о ядерных технологиях благодаря атомной и водородной бомбам. С помощью этого оружия, впервые в истории, человечество разработало технологию, способную положить конец человеческой цивилизации, ставшей результатом гонки вооружений, в которой скорость и инновации были важнее безопасности и контроля.
Последующие сбои в технической безопасности и управлении рисками, ставшие причиной ядерных катастроф в Чернобыле и Фукусиме, уничтожили всякую возможность того, что люди примут положительные аспекты ядерной энергии.
Несмотря на общую благоприятную оценку рисков ядерной энергетики и десятилетия попыток ученых убедить мир в ее жизнеспособности, само понятие «атомная энергетика» остается… испорченным.
Когда технология на ранних стадиях причиняет вред, социальная осведомлённость и чрезмерная реакция могут навсегда ограничить её потенциальные преимущества. Из-за ранних ошибок в использовании ядерной энергетики человечество не смогло воспользоваться преимуществами этого чистого и безопасного источника энергии, а углеродная нейтральность и энергетическая стабильность остаются несбыточной мечтой.
Правильный подход к биотехнологии
Тем не менее, в некоторых областях человечество добилось успеха. Биотехнология — одна из таких областей, которая получила стремительное развитие в условиях, когда множество пациентов страдают, а многие ежедневно умирают от неизлечимых болезней.
Суть этого исследования заключается не в том, чтобы «быстро двигаться и ломать всё», а в том, чтобы внедрять инновации как можно быстрее и безопаснее. Люди ограничивают темпы инноваций в этой области системой правил, этики и норм, которые защищают благополучие общества и отдельных людей, а также предотвращают паралич отрасли из-за негативной реакции, способной привести к катастрофе.
Когда биологическое оружие было запрещено Конвенцией о биологическом оружии во времена холодной войны, противоборствующие сверхдержавы согласились, что его создание никому не принесёт пользы. Лидеры осознали, что эти трудноконтролируемые, но легкодоступные технологии следует рассматривать не как инструмент для победы в гонке вооружений, а как угрозу самому человечеству.
Эмилия Яворски — одна из учёных, недавно подписавших открытое письмо с призывом ввести шестимесячный мораторий на разработку искусственного интеллекта. Она также подписала заявление, предупреждающее, что ИИ представляет собой «риск вымирания» для человечества. |
Пауза в гонке биологического оружия позволяет человечеству разрабатывать его в разумных темпах. Учёные и регулирующие органы применяют строгие стандарты к любым инновациям, которые могут потенциально нанести вред человеку.
Эти изменения не обошлись без затрат, но привели к созданию биоэкономики с широким спектром применения в различных областях — от чистой энергии до сельского хозяйства.
Во время пандемии COVID-19 биологи применили технологию мРНК для производства эффективных вакцин с беспрецедентной в истории человечества скоростью.
Недавний опрос исследователей искусственного интеллекта показал, что 36% респондентов считают, что ИИ может стать причиной катастрофы ядерного масштаба. Однако меры и регулирование со стороны правительства не поспевают за темпами внедрения технологий: число пользователей приложения ChatGPT уже превысило 100 миллионов.
Стремительно растущие риски, связанные с ИИ, побудили 1800 руководителей компаний и 1500 профессоров в США недавно подписать письмо с призывом к шестимесячной паузе в разработке ИИ и безотлагательному процессу регулирования и снижения рисков. Эта пауза даст мировому сообществу время ограничить ущерб, наносимый ИИ, и предотвратить риск необратимой катастрофы для нашего общества.
Оценивая риски и потенциальный вред ИИ, мы также должны учитывать, как не упустить из виду позитивный потенциал этой технологии. Если мы будем развивать ИИ ответственно сейчас, мы сможем получить невероятные преимущества от этой технологии. Например, преимущества применения ИИ для поиска и разработки лекарств, повышения качества и снижения стоимости медицинского обслуживания, а также расширения доступа к врачам и медицинской помощи.
DeepMind от Google показал, что ИИ способен решать фундаментальные проблемы в биологии, которые человечество долгое время избегало. Согласно исследованию, ИИ может ускорить достижение всех Целей устойчивого развития ООН, приближая человечество к будущему, где будут улучшенное здоровье, равенство, процветание и мир.
Сейчас настало время мировому сообществу объединиться, как это было 50 лет назад на Конвенции о биологическом оружии, чтобы обеспечить безопасную и ответственную разработку ИИ. Если мы не начнём действовать как можно скорее, мы рискуем разрушить светлое будущее ИИ и наше нынешнее общество.
Источник
Комментарий (0)