3 ограничения ИИ
На семинаре интересными вещами поделился г-н Оскар Лопес Алегре, президент Испанской торговой палаты во Вьетнаме, который прожил во Вьетнаме около 15 лет и работал в сфере разработки программного обеспечения (генеральный директор Nextway Technology).
«Примерно в 2008–2009 годах я изучал ИИ. В то время мы экспериментировали с небольшими роботами, которые могли автоматически двигаться и даже включать свет. Это было очень интересно, но непросто. В 2015 году я работал в IBM. Мы использовали ИИ для автоматизации рекомендаций для сотрудников и написания автоматических описаний вакансий», — рассказал Оскар.
Г-н Оскар Лопес Алегре считает, что у ИИ есть определенные ограничения, поэтому при его использовании людям всегда следует мыслить критически.
ФОТО: МОЙ КУЕН
По словам Оскара, это было очень похоже на то, что происходит с анализом данных сейчас, но в то время технологии были ограничены. ИИ легко создать и легко освоить. «Сегодня я использую ИИ для всего, включая презентации. ИИ повсюду, мы используем его каждый день и всё чаще. Это один из самых быстро внедряемых продуктов в истории интернета. Однако не всё, что говорит ИИ, правда. Это основная идея», — признал генеральный директор.
Этот человек привёл пример: «Однажды я спросил, сколько в Америке президентов-мусульман. Ответ — Барак Обама. Но Обама не мусульманин, это просто дезинформационная кампания. Такие ложные прогнозы могут привести к политическим проблемам».
Я сам спрашивал, как продлить испанский паспорт во Вьетнаме. ИИ ответил: это можно сделать в «стране Испания в Хошимине», но в Хошимине нет «страны Испания»! Это показывает, что контент, генерируемый ИИ, не всегда заслуживает доверия.
Отсюда г-н Оскар указал на ограничения ИИ. Во-первых, он не способен на настоящее рассуждение. ИИ даёт ответы, основанные только на статистической вероятности, не понимая концепций. Например, в случае с «2 + 2 = 4» он не понимает числа 2 или сложения, а лишь предсказывает правильный результат, основываясь на изучении данных. Следовательно, его нельзя назвать настоящим интеллектом.
Следующее ограничение заключается в том, что обучающие данные оказывают большое влияние: если данные предвзяты, ответы также будут предвзятыми. Это может привести к несправедливости и даже повлиять на решения о найме или увольнении.
Третье — предвзятость. «Например, если вы попросите ИИ рассказать анекдот о латиноамериканцах, это будет разрешено, но если вы спросите его о чернокожих, он будет заблокирован. ИИ не должен быть «судьёй» того, что вы можете сказать», — сказал Оскар.
Поэтому этот эксперт по технологиям считает, что люди всегда должны мыслить критически и не должны верить в ИИ как в абсолютную истину.
«В наши дни мы иногда слишком сильно полагаемся на них. Иногда мы полностью верим и забываем, что мы люди и что у нас есть нечто, называемое критическим мышлением. Я хочу напомнить людям, что критическое мышление очень важно, использование своего мозга очень важно. Всё вокруг — всего лишь инструмент. Вы — человек. Никогда не забывайте об этом. Никогда не забывайте, что вы всё ещё хозяин. Если вы не хозяин, вас заменят», — заявил г-н Оскар.
Как должно измениться университетское образование ?
Присутствовавший на семинаре заместитель директора филиала, руководитель отдела обучения филиала университета FPT в городе Хошимин г-н Тран Туан Ань сообщил, что к 2030 году ожидается изменение около 39 основных навыков нынешних работников (Доклад о будущем рабочих мест за 2025 год — Всемирный экономический форум ).
Кроме того, около 27–28% рабочих мест в странах ОЭСР (Организация экономического сотрудничества и развития) в настоящее время подвержены высокому риску автоматизации из-за ИИ или связанных с ним технологий.
Г-н Тран Туан Ань рассказывает о модели AI-First для университетского образования
ФОТО: МОЙ КУЕН
«Искусственный интеллект радикально меняет рынок труда с точки зрения требований к навыкам и характеристик работы. Внедрение ИИ во все сферы жизни происходит быстро и необратимо. Так какой же выбор остаётся за университетским образованием, когда компаниям приходится переподготавливать или повышать квалификацию сотрудников, чтобы соответствовать рабочим процессам, интегрированным с ИИ?» — сказал г-н Туан Ань.
По словам г-на Туан Аня, университетское образование сталкивается с беспрецедентными вызовами в подготовке выпускников к новым условиям. Поэтому необходима модель университетского образования.
По мнению г-на Туана Аня, модель «ИИ-First» может быть оптимальным подходом в текущих условиях. «ИИ-First» — это смена парадигмы, в рамках которой ИИ становится ключевым элементом в процессе разработки стратегии, принятия решений и операционной деятельности, а не рассматривается лишь как вспомогательный инструмент.
В частности, университетам необходимо использовать ИИ в преподавании и оценке, персонализировать учебный контент и учебные программы, а также глубоко интегрировать ИИ в учебные программы. В частности, необходимо скорректировать структуру учебных программ, пересмотреть содержание каждого предмета с учетом соответствующего уровня интеграции ИИ, создать шкалу для измерения и оценки способностей студентов к использованию ИИ и обеспечить соответствие национальным и международным стандартам.
«В частности, университеты должны оценивать потребности работодателей и анализировать изменения в рабочих процессах, чтобы определить, какие навыки важны, а какие больше не нужны. На основе этого разработать систему компетенций в соответствии с должностными обязанностями», — поделился г-н Туан Ань.
По словам г-на Туана Аня, всё вышеперечисленное направлено на подготовку специалистов с прочными базовыми знаниями, глубоким пониманием предметной области и междисциплинарным подходом; навыками мышления (критического, системного, творческого) и решения проблем; социальными навыками, этикой и способностью к непрерывному обучению. При этом студенты должны обладать предпринимательским духом, не стремясь открыть собственное дело, а умея быстро адаптироваться к изменениям в технологиях и рабочей среде.
Источник: https://thanhnien.vn/chuyen-gia-cong-nghe-chi-ra-su-thieu-tri-tue-cua-ai-va-loi-nhac-quan-trong-18525091915433146.htm
Комментарий (0)