Как сообщает AFP, в заявлении лидеры отрасли и эксперты подчеркнули, что борьба с рисками, связанными с ИИ, должна стать «глобальным приоритетом, наряду с другими рисками, такими как пандемии и ядерная война». Заявление подписали десятки экспертов, включая Сэма Альтмана, генерального директора OpenAI, компании, создавшей платформу ChatGPT.
ChatGPT приобрёл известность в конце прошлого года благодаря своей способности генерировать эссе, стихи и чаты по кратчайшим подсказкам. Популярность ChatGPT привлекла миллиарды долларов инвестиций в сферу искусственного интеллекта.
Логотип ChatGPT и английское слово Artificial Intelligence (AI)
Однако отраслевые эксперты бьют тревогу по поводу всего: от предвзятых алгоритмов искусственного интеллекта до риска массовых сокращений рабочих мест, поскольку автоматизация на базе искусственного интеллекта проникает в повседневную жизнь людей.
В последнем заявлении, опубликованном на сайте Центра безопасности ИИ (некоммерческой организации, базирующейся в США), не содержится никаких подробностей о потенциальной экзистенциальной угрозе, исходящей от ИИ.
Между тем, некоторые из подписавших, включая г-на Джеффри Хинтона, создавшего некоторые из основополагающих технологий для систем ИИ и известного как отец отрасли, уже высказывали подобные предупреждения в прошлом.
Их наибольшую обеспокоенность вызывает идея так называемого общего искусственного интеллекта (ОИИ), концепция, которая подразумевает, что машины будут способны выполнять многие из тех же функций, что и люди, и смогут разрабатывать собственные программы.
Беспокоит то, что люди больше не смогут контролировать ИИ, и эксперты предупреждают, что такая ситуация может иметь катастрофические последствия для человечества.
Десятки экспертов из таких компаний, как Google и Microsoft, подписали заявление, которое появилось спустя два месяца после того, как миллиардер Илон Маск и другие призвали приостановить разработку технологий искусственного интеллекта до тех пор, пока не будет доказана их безопасность, сообщает AFP.
Ссылка на источник
Комментарий (0)