Письмо о поворотном моменте
23 ноября агентство Reuters со ссылкой на эксклюзивные источники сообщило, что за четыре дня до увольнения генерального директора Сэма Альтмана некоторые исследователи OpenAI направили совету директоров компании письмо с предупреждением о мощном открытии в области искусственного интеллекта (ИИ), которое может угрожать человечеству. Ранее об этом письме не упоминалось, и упомянутый выше алгоритм ИИ был важным событием до увольнения Сэма Альтмана, соучредителя OpenAI, 17 ноября. Он вернулся на эту должность 21 ноября (по американскому времени) после двух переговоров с OpenAI. По данным источников, письмо было одним из факторов в списке причин, приведших к решению об увольнении совета директоров OpenAI, хотя в официальном заявлении компания лишь заявила, что г-н Альтман «не был последовательным и прямолинейным в общении с советом директоров».
Г-н Альтман ( справа ) и руководители технологических компаний обсудили вопросы на конференции АТЭС в Сан-Франциско (США) 16 ноября.
По словам источников, один из давних руководителей OpenAI, Мира Мурати, рассказала сотрудникам 22 ноября о проекте Q* и сообщила, что совет директоров компании получил письмо перед увольнением г-на Альтмана. Один из источников сообщил, что OpenAI добилась прогресса в работе над Q*, что может стать прорывом в поисках сверхинтеллекта, также известного как искусственный интеллект общего назначения (ИИОВ).
Хотя модель способна выполнять только математические задачи уровня начальной школы, решение таких задач позволяет исследователям с оптимизмом смотреть в будущее Q*. Исследователи рассматривают математику как необходимое условие для разработки генеративного ИИ. Генеративный ИИ уже может писать и переводить, хотя ответы на одни и те же вопросы могут быть очень разными. Однако освоение математики, где существует только один правильный ответ, подразумевает, что ИИ сможет рассуждать лучше, чем люди. Исследователи считают, что это может быть применено в новых научных исследованиях.
Сэм Альтман возвращается на пост генерального директора OpenAI
Потенциальная опасность?
В письме совету директоров OpenAI исследователи, по словам источников, обрисовали потенциальную мощь и опасность искусственного интеллекта. Специалисты в области компьютерных технологий давно обсуждают опасности, исходящие от сверхразумных машин, например, могут ли они решить уничтожить человечество ради собственной выгоды. В этом контексте г-н Альтман возглавил усилия по превращению ChatGPT в одно из самых быстрорастущих программных приложений в истории и привлечению инвестиций и вычислительных ресурсов, необходимых для приближения к ИИ. Помимо анонса серии новых инструментов на мероприятии в этом месяце, г-н Альтман заявил мировым лидерам на прошлой неделе в Сан-Франциско, что, по его мнению, ИИ достижим. Днем позже совет директоров OpenAI уволил его. OpenAI и г-н Альтман не сразу ответили на просьбы прокомментировать письмо.
Обеспокоенные потенциальными рисками, связанными с ИИ, многие западные правительства и технологические компании согласовали новый механизм тестирования безопасности. Однако, как сообщает AFP, Генеральный секретарь ООН Антониу Гутерриш заявил, что мир всё ещё «играет в догонялки» в вопросах регулирования ИИ, что может иметь долгосрочные негативные последствия для всех сфер — от рабочих мест до культуры.
OpenAI и Microsoft подали в суд за нарушение авторских прав
23 ноября издание The Hill сообщило, что группа авторов научно-популярной литературы подала иск, обвиняя две компании, OpenAI и Microsoft, в обучении инструмента ChatGPT копировать их работы без их согласия. В иске, поданном в федеральный суд Нью-Йорка (США), главный истец, г-н Джулиан Санктон, заявил, что он и другие авторы не получили никакой компенсации за скопированные с помощью ИИ работы, в то время как OpenAI и Microsoft добились финансового успеха благодаря коммерциализации своих работ, заработав миллиарды долларов на продуктах с использованием ИИ. По данным Reuters, представитель OpenAI отказался комментировать иск, а представитель Microsoft пока не ответил на запрос о комментарии.
Ссылка на источник
Комментарий (0)