Новаторские работы Хинтона в области нейронных сетей повлияли на развитие систем искусственного интеллекта (ИИ) во многих современных продуктах. Он проработал в Google на полставки около десяти лет, но затем стал относиться к этой технологии и своей роли в её развитии скептически.
«Я утешал себя мыслью, что если я этого не сделаю, это сделает кто-то другой», — рассказал он газете New York Times, которая первой сообщила о его решении покинуть Google.
В твите, опубликованном 1 мая, он сообщил, что покинул Google, чтобы иметь возможность свободно говорить о рисках ИИ, не задумываясь о том, как это повлияет на компанию. «Google действовала очень ответственно», — прокомментировал он.
Джефф Дин, главный научный сотрудник Google, похвалил Хинтона за «фундаментальные прорывы в области искусственного интеллекта» и выразил благодарность за десятилетие его служения Google. Дин также подчеркнул, что Google продолжит учиться понимать новые риски, смело внедряя инновации.
Решение Хинтона было принято на фоне предупреждений все большего числа законодателей, правозащитных организаций и отраслевых экспертов о рисках, связанных с распространением дезинформации и заменой рабочих мест людьми с помощью чат-ботов нового поколения на основе искусственного интеллекта.
Всплеск интереса к ChatGPT, возникший в прошлом году, вновь подстегнул гонку вооружений среди технологических компаний по разработке и внедрению инструментов искусственного интеллекта. Лидерами в этом направлении являются OpenAI, Microsoft и Google, в то время как IBM, Amazon, Baidu и Tencent также работают над аналогичной технологией.
В марте несколько видных деятелей технологического мира подписали открытое письмо с призывом к лабораториям искусственного интеллекта приостановить обучение своих самых мощных систем как минимум на шесть месяцев, ссылаясь на «серьёзные риски для общества и человечества». Письмо было опубликовано всего через две недели после того, как OpenAI анонсировала GPT-4, свою самую мощную на данный момент версию, которая может проходить стандартизированные тесты и создавать веб-сайты по нарисованным от руки эскизам.
В интервью газете New York Times Хинтон вновь выразил обеспокоенность потенциалом ИИ в уничтожении рабочих мест и создании мира , в котором многие люди «не будут знать, что реально». Он также указал на невероятные темпы развития ИИ, которые значительно превзошли его собственные прогнозы и предсказания других. Когда-то он считал, что ИИ потребуется от 30 до 50 лет, чтобы стать умнее людей, но теперь он так не считает.
Перед уходом из Google он также говорил об опасностях ИИ, помимо его преимуществ. В 2021 году, выступая на церемонии вручения дипломов в Индийском технологическом институте в Бомбее, он заявил, что «быстрое развитие ИИ изменит общество способами, которых мы до конца не понимаем, и не все эти изменения будут положительными». Для него возможность того, что ИИ создаст возможности для создания автономного смертоносного оружия, гораздо опаснее и страшнее, чем перспектива захвата людей роботами.
Хинтон — не первый сотрудник Google, поднявший тревогу по поводу искусственного интеллекта. В июле 2022 года Google уволила инженера, заявившего, что одна из систем искусственного интеллекта компании обладает разумом. Однако многие представители сообщества ИИ решительно оспорили заявления инженера.
(По данным CNN)
Источник
Комментарий (0)