Письмо о поворотном моменте
Агентство Reuters 23 ноября со ссылкой на эксклюзивные источники сообщило, что за четыре дня до увольнения генерального директора Сэма Альтмана несколько исследователей OpenAI направили совету директоров компании письмо с предупреждением о мощном открытии в области искусственного интеллекта (ИИ), которое может угрожать человечеству. Ранее не опубликованное письмо и алгоритм ИИ были ключевыми разработками до того, как соучредитель OpenAI Сэм Альтман был уволен 17 ноября. Он вернулся, чтобы занять эту должность 21 ноября (по американскому времени) после двух переговоров с OpenAI. По словам источников, это письмо было одним из факторов в списке причин увольнения, составленном советом директоров OpenAI, хотя в официальном заявлении компания лишь заявила, что г-н Альтман «не был последовательным и откровенным в своих коммуникациях с советом директоров».
Г-н Альтман ( справа ) и руководители технологических компаний обсудили вопросы на конференции АТЭС в Сан-Франциско (США) 16 ноября.
По данным источников, один из давних старших менеджеров OpenAI Мира Мурати 22 ноября рассказала сотрудникам о проекте под названием Q* и сообщила, что совет директоров компании получил письмо перед увольнением г-на Альтмана. Один из источников сообщил, что OpenAI достигла прогресса в проекте Q*, который может стать прорывом в поисках сверхинтеллекта, также известного как общий искусственный интеллект (AGI).
Хотя модель выполняет только математические задачи уровня начальной школы, решение таких задач позволяет исследователям с большим оптимизмом смотреть на будущий успех Q*. Исследователи рассматривают математику как необходимое условие для разработки генеративного ИИ. Генеративный ИИ теперь может писать и переводить языки, хотя ответы на один и тот же вопрос могут быть совершенно разными. Но покорение математики, где существует только один правильный ответ, подразумевает, что ИИ станет лучше рассуждать, как люди. Исследователи полагают, что это можно применить в новых научных исследованиях.
Сэм Альтман возвращается на пост генерального директора OpenAI
Потенциальная опасность?
По словам источников, в письме совету директоров OpenAI исследователи обрисовали потенциальную мощь и опасности ИИ. Специалисты по информатике уже давно обсуждают опасности, которые представляют сверхразумные машины, например, могут ли они решить уничтожить человечество ради собственной выгоды. В этом контексте г-н Альтман возглавил усилия по превращению ChatGPT в одно из самых быстрорастущих программных приложений в истории и привлечению инвестиций и вычислительных ресурсов, необходимых для приближения к AGI. Помимо анонса множества новых инструментов на мероприятии в этом месяце, г-н Альтман заявил мировым лидерам в Сан-Франциско на прошлой неделе, что, по его мнению, ИИОН уже достижим. Днем позже он был уволен советом директоров OpenAI. OpenAI и г-н Альтман не прокомментировали письмо.
Обеспокоенные потенциальными рисками ИИ, многие западные правительства и технологические компании договорились о новом механизме тестирования безопасности. Однако, как сообщает AFP, Генеральный секретарь ООН Антониу Гутерриш заявил, что мир все еще «играет в догонялки» в попытках регулировать ИИ, что может иметь долгосрочные негативные последствия для всего: от рабочих мест до культуры.
На OpenAI и Microsoft подали в суд из-за авторских прав
23 ноября издание The Hill сообщило, что группа авторов документальной литературы подала иск, обвинив две компании, OpenAI и Microsoft, в обучении инструмента ChatGPT копировать их работы без их согласия. В иске, поданном в федеральный суд Нью-Йорка (США), главный истец г-н Джулиан Сэнктон заявил, что он и другие авторы не получили никакой компенсации за скопированные ИИ произведения, в то время как OpenAI и Microsoft добились финансового успеха за счет коммерциализации своих произведений, заработав миллиарды долларов дохода от продуктов ИИ. Представитель OpenAI отказался комментировать иск, а представитель Microsoft пока не ответил на запрос о комментарии, сообщает Reuters.
Ссылка на источник
Комментарий (0)