Как сообщает AFP, в заявлении лидеры отрасли и эксперты подчеркнули, что борьба с рисками, связанными с ИИ, должна стать «глобальным приоритетом, наряду с другими рисками, такими как пандемии и ядерная война». Заявление подписали десятки экспертов, включая Сэма Альтмана, генерального директора OpenAI, создавшего платформу ChatGPT.
ChatGPT приобрёл известность в конце прошлого года благодаря своей способности генерировать эссе, стихи по кратчайшим подсказкам и чатам. Популярность ChatGPT привлекла миллиарды долларов инвестиций в сферу искусственного интеллекта.
Логотип ChatGPT и английское слово Artificial Intelligence (AI)
Однако отраслевые эксперты бьют тревогу по поводу множества проблем: от предвзятости алгоритмов искусственного интеллекта до риска массовых сокращений рабочих мест, поскольку автоматизация на базе искусственного интеллекта проникает в повседневную жизнь людей.
В последнем заявлении, опубликованном на сайте Центра безопасности ИИ (некоммерческой организации, базирующейся в США), не содержится никаких подробностей о потенциальной экзистенциальной угрозе, исходящей от ИИ.
Между тем, некоторые подписавшие петицию лица, включая г-на Джеффри Хинтона, создавшего некоторые из основополагающих технологий для систем искусственного интеллекта и известного как отец этой отрасли, уже высказывали подобные предупреждения в прошлом.
Их наибольшую обеспокоенность вызывает идея так называемого общего искусственного интеллекта (AGI), концепция, которая подразумевает, что машины будут способны выполнять многие из тех же функций, что и люди, и смогут разрабатывать собственные программы.
Возникает опасение, что люди больше не смогут контролировать ИИ, и эксперты предупреждают, что такая ситуация может иметь катастрофические последствия для человечества.
По данным AFP, заявление подписали десятки экспертов из таких компаний, как Google и Microsoft. Оно появилось через два месяца после того, как миллиардер Илон Маск и другие призвали остановить разработку технологий искусственного интеллекта до тех пор, пока не будет доказана их безопасность.
Ссылка на источник






Комментарий (0)