В то время как дебаты по поводу ИИ и его влияния продолжаются, один из его самых ярых сторонников — Билл Гейтс — высказался в блоге 11 июля, опубликовав пост объемом 3000 слов. Он поделился своими взглядами на недостатки ИИ, такие как его влияние на работников и учебные классы, а также на то, как смягчить это влияние.
Миллиардер считает, что ИИ — это будущее технологий, но у него реалистичный взгляд на ситуацию с чрезмерным раздутием ИИ. «Будущее ИИ не такое уж мрачное и не такое уж радужное, как думают люди. Риски реальны, но я настроен оптимистично и считаю, что ими можно управлять», — написал он в блоге GatesNotes.
Он сравнивает ИИ с другими достижениями, такими как автомобили, компьютеры и калькуляторы, которые, хотя на первый взгляд и кажутся запутанными, в конечном итоге облегчают жизнь. Несколько десятилетий назад, когда появились компьютеры, учителя опасались, что эти инструменты будут мешать обучению учеников. Что касается ИИ, то у учителей есть схожие опасения по поводу того, что ученики используют ИИ для написания эссе и выполнения домашних заданий.
«Учителям придется использовать ИИ, как любой другой инструмент», — цитирует он Шери Шилдс, которая использует ИИ в своем классе. «Точно так же, как мы учили студентов правильно пользоваться Google, учителям следует разрабатывать уроки о том, как чат-боты ChatGPT могут помочь в написании эссе».
Тем не менее, Гейтс утверждает, что в классе мало что изменится. В марте он предсказал, что ИИ произведет революцию во многих областях, но «обучение по-прежнему зависит от хороших отношений между учителем и учеником».
Кроме того, люди обеспокоены влиянием ИИ на рабочие места. Опрос, проведенный службой кадрового скрининга Checkr, показал, что 79% сотрудников обеспокоены тем, что ИИ угрожает их доходу и работе. Однако 86% участников опроса заявили, что готовы пойти на сокращение заработной платы, если им придется работать меньше.
«Действительно, некоторым сотрудникам понадобится поддержка и переподготовка при переходе на рабочее место с использованием искусственного интеллекта», — написал Гейтс. «Это роль правительства и бизнеса, и им нужно хорошо с ней справиться, чтобы не оставить рабочих позади».
Исследование финансового института Goldman Sachs пришло к выводу, что генеративный ИИ и такие программы, как ChatGPT, могут повлиять на 300 миллионов рабочих мест. Хотя это не означает, что 300 миллионов человек останутся без работы, вывод предполагает, что многие рабочие места могут быть автоматизированы.
Гейтс не верит, что ИИ окажет такое же влияние, как промышленная революция, но оно, безусловно, будет столь же значимым, как появление персонального компьютера. Приложения для обработки текстов, хотя и не упразднили офисную работу, изменили ее навсегда. Работодатели и работники должны адаптироваться.
Исследования показывают, что сильнее всего пострадают офисные работники, такие как юридические, административные и финансовые, тогда как работники фабрик, строительства, производства и торговли пострадают меньше.
Правительства по всему миру ищут способы регулирования ИИ. Гейтс сравнивает это с «ограничениями скорости и ремнями безопасности» в автомобилях. «Вскоре после того, как на дорогу выехала первая машина, произошла первая авария. Но мы не запрещали автомобили, мы ввели ограничения скорости, стандарты безопасности, требования к лицензированию, законы о вождении в нетрезвом виде и другие правила дорожного движения», — написал он.
Он также упомянул риск, связанный с ИИ: «иллюзия», когда такие модели, как ChatGPT, выдумывают факты, документы и людей. Например, дипфейки используют ИИ, чтобы заставить людей поверить видеороликам, в которых выдают себя за других людей, и могут использоваться для обмана людей и вмешательства в выборы. Он предложил четкие правила относительно того, какие типы дипфейков разрешено создавать.
Кроме того, миллиардер обеспокоен возможностью того, что ИИ найдет уязвимости в программном обеспечении для атак на компьютеры, и предлагает создать глобальный регулирующий орган, аналогичный Международному агентству по атомной энергии.
(По данным BI, CNBC)
Источник
Комментарий (0)