В мае генеральный директор Альтман подал петицию в Сенат США в Вашингтоне, округ Колумбия, с настоятельным призывом к законодателям: помимо использования превосходства ИИ, нам также необходимо как можно скорее разработать строгие правила, чтобы свести к минимуму риск его подавления человечества.
Интерфейс ChatGPT на сайте. Фото: Shutterstock
«Серьезные риски для общества и человечества»
С запуском ChatGPT от OpenAI в конце прошлого года 38-летний Альтман в одночасье стал создателем нового поколения инструментов ИИ, которые могут генерировать изображения и текст по запросу пользователей. Эта технология известна как генеративный ИИ.
Вскоре после своего выпуска ChatGPT стал известен всем. Руководители использовали его для составления электронных писем, люди создавали веб-сайты без какого-либо опыта программирования, а также он успешно сдавал экзамены в юридических и бизнес-школах. Он способен произвести революцию практически во всех отраслях, включая образование, финансы, сельское хозяйство , средства массовой информации, журналистику и здравоохранение, от хирургии до разработки медицинских вакцин.
Однако эти же инструменты вызывают обеспокоенность по поводу самых разных проблем — от списывания в школах до потери работы — и даже угроз самому существованию человечества.
Например, рост популярности искусственного интеллекта заставляет экономистов предупреждать о состоянии рынка труда. По оценкам Goldman Sachs, в конечном итоге около 300 миллионов рабочих мест с полной занятостью по всему миру могут быть автоматизированы с использованием ИИ. Согласно апрельскому отчету Всемирного экономического форума, всего за следующие пять лет может исчезнуть около 14 миллионов рабочих мест.
Кроме того, выступая перед Конгрессом США, Альтман заявил, что возможность использования ИИ для манипулирования избирателями и целенаправленной дезинформации является одной из «областей, которые меня больше всего беспокоят».
Через две недели после слушаний Альтман присоединился к сотням ведущих ученых, исследователей и руководителей предприятий в области искусственного интеллекта, подписав письмо, в котором говорится: «Минимизация риска вымирания из-за искусственного интеллекта должна стать глобальным приоритетом наряду с другими рисками общественного масштаба, такими как пандемии и ядерная война».
Предупреждение широко освещалось в прессе и средствах массовой информации. И все больше людей утверждают, что к подобным апокалиптическим сценариям следует относиться более серьезно.
Однако в Кремниевой долине существует большой парадокс: руководители некоторых крупнейших технологических компаний говорят общественности, что ИИ может привести к вымиранию человечества, однако они спешат инвестировать в эту технологию и предоставлять ее миллиардам пользователей.
Альтман уже давно проявляет обеспокоенность рисками, связанными с ИИ, и пообещал действовать ответственно. Он входит в группу руководителей технологических компаний, которые встречаются с лидерами Белого дома, включая президента Джо Байдена и вице-президента Камалу Харрис, чтобы подчеркнуть важность разработки этичного и ответственного ИИ.
Однако этого недостаточно. Другие хотят, чтобы Альтман и OpenAI действовали более осторожно. Даже Илон Маск, который помог основать OpenAI до того, как покинуть группу, и десятки руководителей технических компаний, профессоров и исследователей призвали лаборатории искусственного интеллекта, такие как OpenAI, прекратить обучение своих самых мощных систем ИИ как минимум на шесть месяцев, сославшись на «серьезные риски для общества и человечества».
Альтман сказал, что согласен с частями письма, в том числе с тем, что «уровень безопасности необходимо повысить», но добавил, что пауза не будет «оптимальным способом» решения проблем.
OpenAI по-прежнему держит ногу на педали газа. Совсем недавно сообщалось, что OpenAI и разработчик iPhone Джони Айв вели переговоры о привлечении 1 миллиарда долларов от японского конгломерата SoftBank для создания устройства на базе искусственного интеллекта, которое заменит смартфоны.
Можно ли доверять Сэму?
Когда в 2015 году он основал OpenAI, Альтман сказал CNN, что он хотел бы определить путь развития ИИ, а не беспокоиться о потенциальном вреде и бездействовать. «Я сплю лучше, зная, что теперь могу оказать некоторое влияние», — заявил он.
Тем не менее, Альтман заявил, что у него есть опасения по поводу этой технологии. «Я готов к выживанию», — сказал он в статье в журнале New Yorker в 2016 году, отметив ряд возможных катастрофических сценариев, включая «нападение на нас ИИ».
Генеральный директор OpenAI Сэм Альтман выступает перед Сенатом США 16 мая в Вашингтоне, США. Фото: AP
«Но у меня есть оружие, золото, антибиотики, батарейки, вода, противогазы... и огромный участок земли в Биг-Суре, куда я могу долететь», — заявил он, подразумевая, что лично он все еще сможет выжить, если случится катастрофа. Это явно эгоистичное заявление.
Возможно, самым масштабным на сегодняшний день шагом стало объявление президентом Байденом указа, обязывающего разработчиков мощных систем искусственного интеллекта предоставлять федеральным властям результаты своих испытаний на безопасность, прежде чем публиковать их, чтобы выяснить, представляют ли они угрозу национальной безопасности, экономике или здоровью.
После слушаний в Сенате США Эмили Бендер, профессор Вашингтонского университета и директор Лаборатории компьютерной лингвистики, выразила обеспокоенность по поводу будущего ИИ, даже если он будет жестко регулироваться. «Если они искренне верят, что это может привести к вымиранию человечества, почему бы не остановиться?» заявила она.
По словам Маргарет О'Мары, историка технологий и профессора Вашингтонского университета, правильная политика должна учитывать множество точек зрения и интересов, а не только одну или несколько, и формироваться с учетом общественных интересов. «Проблема с ИИ заключается в том, что очень немногие люди и компании действительно понимают, как он работает и что означает его использование, как атомную бомбу», — говорит О'Мара.
Поэтому для мира было бы рискованно рассчитывать на то, что Альтман будет действовать в интересах человечества, используя технологию, которую он сам признает возможной как оружие массового поражения, и подготовил убежище на случай катастрофы. К тому же, он ведь всего лишь человек, а не супергерой или спаситель!
Хоанг Хай (по данным CNN, FT, Reuters)
Источник
Комментарий (0)