Письмо о поворотном моменте
23 ноября агентство Reuters со ссылкой на эксклюзивные источники сообщило, что за четыре дня до увольнения генерального директора Сэма Альтмана некоторые исследователи OpenAI направили совету директоров компании письмо с предупреждением о мощном открытии в области искусственного интеллекта (ИИ), которое может угрожать человечеству. Ранее об этом письме не упоминалось, а упомянутый выше алгоритм ИИ был важным событием до увольнения Сэма Альтмана, соучредителя OpenAI, 17 ноября. Он вернулся на эту должность 21 ноября (по американскому времени) после двух переговоров с OpenAI. По данным источников, письмо было одним из факторов в списке причин, приведших к решению об увольнении совета директоров OpenAI, хотя в официальном заявлении компания лишь заявила, что г-н Альтман «не был последовательным и прямолинейным в общении с советом директоров».
Г-н Альтман ( справа ) и руководители технологических компаний обсудили вопросы на конференции АТЭС в Сан-Франциско (США) 16 ноября.
Мира Мурати, один из давних руководителей OpenAI, рассказала сотрудникам 22 ноября о проекте Q* и сообщила, что совет директоров компании получил письмо до увольнения Альтмана, сообщают источники. Один из источников сообщил, что OpenAI добилась прогресса в работе над Q*, что может стать прорывом в разработке сверхинтеллекта, также известного как искусственный интеллект общего назначения (ИИОВ).
Хотя модель способна выполнять только математические задачи уровня начальной школы, решение таких задач позволяет исследователям с оптимизмом смотреть в будущее Q*. Исследователи рассматривают математику как необходимое условие для разработки генеративного ИИ. Генеративный ИИ уже может писать и переводить, хотя ответы на одни и те же вопросы могут быть очень разными. Однако освоение математики, где существует только один правильный ответ, подразумевает, что ИИ сможет рассуждать лучше, чем люди. Исследователи считают, что это может быть применено в новых научных исследованиях.
Сэм Альтман возвращается на пост генерального директора OpenAI
Потенциальная опасность?
В письме совету директоров OpenAI исследователи описали потенциальную мощь и опасность ИИ, сообщают источники. Специалисты по информатике давно обсуждают опасности, исходящие от сверхразумных машин, например, могут ли они решить уничтожить человечество ради собственной выгоды. На этом фоне Альтман возглавил усилия по превращению ChatGPT в одно из самых быстрорастущих программных приложений в истории и привлечению инвестиций и вычислительных ресурсов, необходимых для приближения к ИИ. Помимо анонса ряда новых инструментов на мероприятии в этом месяце, на прошлой неделе Альтман заявил мировым лидерам в Сан-Франциско, что, по его мнению, ИИ достижим. Днем позже совет директоров OpenAI уволил его. OpenAI и Альтман не сразу ответили на просьбы прокомментировать письмо.
Обеспокоенные потенциальными рисками, связанными с ИИ, многие западные правительства и технологические компании согласовали новый режим испытаний на безопасность. Однако, как сообщает AFP, Генеральный секретарь ООН Антониу Гутерриш заявил, что мир всё ещё «играет в догонялки» в вопросах регулирования ИИ, что может иметь долгосрочные негативные последствия для всех сфер — от рабочих мест до культуры.
OpenAI и Microsoft подали в суд из-за авторских прав
Группа авторов научно-популярной литературы подала иск против OpenAI и Microsoft, обвинив их в обучении инструмента ChatGPT копировать их работы без их согласия, сообщило издание The Hill 23 ноября. В иске, поданном в федеральный суд Нью-Йорка, главный истец Джулиан Сэнктон заявил, что он и другие авторы не получили никакой компенсации за скопированные с помощью ИИ работы, в то время как OpenAI и Microsoft добились финансового успеха благодаря коммерциализации своих работ, заработав миллиарды долларов на продуктах с использованием ИИ. По данным Reuters, представитель OpenAI отказался комментировать иск, а представитель Microsoft пока не ответил на запрос о комментарии.
Ссылка на источник
Комментарий (0)