(Дэн Три) — 2023 год — поворотный момент для искусственного интеллекта (ИИ). Его роль отчасти изменила то, как мы работаем в обществе. В этом году ИИ представит миру новые очертания.
Искусственный интеллект существует с 1960-х годов, но широкое признание эта технология получила лишь в 2022 году. В 2023 году ИИ совершил настоящий прорыв, выйдя из тени и оказавшись в центре нашего внимания.
Миру необходимо найти способы безопасной жизни с ИИ (Иллюстрация: FX Media).
Влияние этой технологии настолько велико, что оно вынудило администрацию президента США Джо Байдена издать указ об ИИ, а Европейский Союз — принять законы, регулирующие ИИ, в попытке обуздать скачущую лошадь.
В 2023 году учёные много говорят о том, спасёт ли ИИ мир или уничтожит его, создавая ощущение, что однажды искусственный интеллект подчинит себе существующую реальность. Одна из главных тем для дискуссий об ИИ в 2023 году — роль ChatGPT и связанных с ним чат-ботов в сфере образования. В то время большинство историй было сосредоточено на том, как студенты могут использовать этот инструмент для списывания на экзаменах, что вынудило преподавателей запретить использование ИИ. Год спустя стало понятно, что отказ от обучения студентов работе с ИИ может поставить их в невыгодное положение, и многие школы сняли этот запрет. Многие страны начали рассматривать возможность реформирования своих систем образования, чтобы поставить ИИ в центр всего.
В 2024 году искусственный интеллект обещает совершить прорыв в сфере образования (Иллюстрация: Medium).
Но если студенты не знают, как работает ИИ, это может быть очень опасно. Это касается не только образования. Чем больше людей понимают, как работает ИИ, тем больше у них возможностей использовать его во благо. Таким образом, 2024 год станет годом, когда ИИ окажет огромное влияние на школы. Многие университеты по всему миру спешат нанимать инженеров по ИИ для интеграции этой технологии в учебный процесс. Конечно, будут непредвиденные последствия, но учёные надеются, что технологические компании прислушаются к ним и изменят свои модели ИИ, постепенно превращая их в эффективный инструмент в будущем.
Больше вреда, чем пользы?
Гонка ИИ началась: массовый запуск ChatGPT в 2022 году положил начало тотальной борьбе за прибыль, славу и мировое господство этой технологии. Многие ожидают более мощного ИИ, а также запуска серии интегрированных с ИИ приложений в этом году. Одним из них является ИИ, способный рассуждать и мыслить логически, как человек. Целые армии учёных занимаются исследованиями и разработками в этой области. Инновационные интегрированные с ИИ приложения создадут новые преимущества. Возможно, вскоре мы услышим о чат-ботах и ИИ-помощниках, которые будут общаться друг с другом, ведя весь разговор от вашего имени, но за вашей спиной. Наряду с этим огромным преимуществом, для нас также будет вредно, если технологические компании не будут принимать меры по защите пользователей.
Технологию Deepfake на базе искусственного интеллекта становится все сложнее обнаружить.
Технология Deepfakes — это изображения или видео, созданные ИИ, которые очень трудно обнаружить и которые будут использоваться киберпреступниками, чтобы навредить всем: от мошенничества, шантажа, вторжения в частную жизнь до вставки наших лиц в деликатные видеоролики, чтобы опорочить нашу честь. Фактически, в 2023 году многие известные политики , певцы или актеры в мире, включая Вьетнам, станут жертвами технологии Deepfakes. Если у стран не будет мер по контролю над ИИ, он вполне способен создавать новые катастрофы, которые были просто вымыслом 5 лет назад. Глава SpaceX Илон Маск — тот, кто вынес самое большое предупреждение об ИИ, надеясь, что правительство ограничит эту технологию, чтобы мы могли использовать ее безопасно. Поэтому в этом году страны по всему миру могут ввести более строгие правила, связанные с искусственным интеллектом.
Новое поколение ИИ в 2024 году
С момента запуска ChatGPT общие модели ИИ продолжают развиваться быстрыми темпами. Если в 2023 году ChatGPT использовал только текст в качестве входных данных и текст в качестве выходных данных, то в 2024 году ученые ожидают появления многомодальных моделей ИИ, использующих данные из множества различных источников медиа, включая видео , аудио и изображения на всех платформах. С новым поколением многомодальных больших языковых моделей (LLM) ИИ сможет использовать текстовый ввод для генерации не только изображений или текста, но также аудио- и видеоконтента . Технологические компании стремятся разработать LLM, чтобы его можно было развернуть на самых разных типах оборудования и в приложениях, включая интеграцию на смартфонах. Это может вывести автономный ИИ на новый уровень. Эта возможность привнесет огромную преобразующую силу ИИ в приложения во всем, от бизнеса до медицины. Основное беспокойство среди ученых заключается в том, что такие передовые возможности создадут новые проблемы в различении контента, созданного человеком и ИИ, а также новый вред.
В 2024 году появится много новых поколений искусственного интеллекта, которые смогут общаться за вас (Иллюстрация: LinkedIn).
Поток искусственного контента, созданного искусственным интеллектом, может открыть двери для киберпреступников и экстремистских группировок. Они могут использовать искусственный интеллект для создания искусственных личностей или распространения дезинформации в глобальном масштабе, что нанесет огромный ущерб глобальной безопасности. Федеральная торговая комиссия США (FTC) предупредила о мошенничестве, обмане, нарушении конфиденциальности и неэтичных действиях, связанных с контентом, созданным искусственным интеллектом. В то время как цифровые платформы, такие как YouTube, разработали политику раскрытия контента, созданного искусственным интеллектом, такие агентства, как FTC, и законодатели изучают новые способы защиты конфиденциальности граждан. По мере того, как искусственный интеллект всё глубже проникает в жизнь человека, становится очевидным, что нам пора перестать рассматривать искусственный интеллект как алгоритмы, являющиеся частью технологий, а рассмотреть контекст, в котором он взаимодействует с людьми и обществом, чтобы искусственный интеллект мог сосуществовать с нами безопасно и плодотворно.
Комментарий (0)