За последний год мы много слышали об угрозе уничтожения человечества со стороны ИИ. От крестных отцов ИИ до генеральных директоров крупнейших компаний постоянно слышны предупреждения о том, что ИИ станет нашим врагом, а не другом.
Лидеры отрасли и тяжеловесы ИИ утверждают, что быстрый рост технологии может иметь катастрофические последствия для мира . Однако, по мнению многих пионеров ИИ, этот сценарий призван отвлечь внимание от более насущных проблем ИИ, которые необходимо решить сегодня.
Вероятность того, что ИИ приведет к вымиранию человечества, составляет всего 5%. (Фото: Keymatrixsolutions)
В то время как многие исследователи ИИ признают потенциальную угрозу существованию со стороны ИИ, другие не считают, что столь драматичные последствия вероятны, о чем свидетельствует недавний большой опрос исследователей ИИ.
В новом опросе 2778 исследователям в области искусственного интеллекта были заданы вопросы об общественных последствиях развития искусственного интеллекта, а также о возможных сроках развития этой технологии в будущем. Результаты показали, что почти 58% опрошенных заявили, что считают угрозу вымирания человечества или других крайне негативных последствий, вызванных технологией ИИ, равной примерно 5%.
Исследование также показало, что ИИ с вероятностью 50% превзойдет людей во всех задачах к 2047 году, в то время как ИИ с вероятностью 50% автоматизирует все человеческие задачи к 2116 году. Работа была опубликована исследователями и учеными из университетов по всему миру, включая Оксфорд и Бонн в Германии.
Некоторые эксперты в области искусственного интеллекта, включая соучредителя Google Brain Эндрю Нга и «крестного отца» индустрии искусственного интеллекта Янна Лекуна, отвергли некоторые из более масштабных сценариев конца света, связанных с ИИ. Лекун даже обвинил лидеров технологической отрасли, таких как Сэм Альтман, в наличии скрытых мотивов для разжигания страхов по поводу ИИ.
Крестный отец искусственного интеллекта Ян Лекун, главный научный сотрудник по искусственному интеллекту в компании Meta, обвинил некоторых из самых известных основателей в области искусственного интеллекта в преднамеренном «запугивании» и «лоббировании крупных компаний» в собственных интересах. По его словам, большая часть апокалиптической риторики направлена на сохранение контроля над ИИ в руках немногих.
Аналогичной точки зрения придерживается Эндрю Нг, профессор Стэнфордского университета и соучредитель Google Brain. Он заявил изданию Australian Financial Review, что некоторые компании используют страхи, связанные с ИИ, для утверждения своего доминирования на рынке.
ХУЙНЬ ЗУНГ (Источник: Businessinsider/Newscientist)
Источник
Комментарий (0)