Недавно в социальных сетях стало вирусным видео , на котором два чат-бота с искусственным интеллектом общаются друг с другом на языке, известном как «гибберлинк». Видео собрало более 13,7 миллионов просмотров, вызвав одновременно восхищение и недоумение у многих зрителей. Это породило противоречивые мнения о разработке искусственного интеллекта собственного языка.
Источник: Гибберлинк |
В этом видео ИИ-агент вызывает другого ИИ-ассистента для осмотра мест проведения свадеб в отелях. Во время разговора два ИИ-агента распознают друг друга как виртуальных помощников и быстро переключаются с человеческого языка на режим Gibberlink.
Gibberlink — это машинный язык, позволяющий системам искусственного интеллекта более эффективно взаимодействовать друг с другом. Он был разработан инженерами-программистами Борисом Старковым и Антоном Пидкуйко. Режим включает в себя серию комбинированных звуков, напоминающих звуковые сигналы робота R2-D2 из фильма «Звёздные войны».
Gibberlink сделал новый шаг вперед в общении между искусственным интеллектом, сделав его более быстрым и менее ресурсоемким, чем человеческий голос.
По словам команды разработчиков, этот протокол обладает практически идеальной точностью, позволяя ИИ обмениваться информацией без помех даже в шумной обстановке. Эффективность связи значительно повышается: время передачи информации сокращается на 80%, а вычислительные затраты — на 90% по сравнению с традиционными методами.
Кроме того, с помощью этой технологии можно устранить некоторые ошибки, возникающие из-за непонимания естественного языка.
Когда у ИИ есть собственный язык, вместо того, чтобы разбираться в сложном или неоднозначном контексте человеческого языка, он может использовать Gibberlink для согласованной и точной передачи информации. Повышая надёжность связи, системы ИИ могут выполнять задачи более эффективно.
С другой стороны, Gibberlink может разгрузить сложные вычислительные требования и ускорить передачу данных, позволяя системам ИИ работать более плавно в приложениях, требующих быстрого реагирования, таких как автоматизация, аналитика больших данных и управление интеллектуальными устройствами.
Люди не могут понять ИИ
Однако проблема заключается в следующем: люди не способны понимать и контролировать этот метод коммуникации. Это приводит к проблемам контроля и безопасности, создаёт риски для безопасности данных, потенциальные риски утечки информации или её использования злоумышленниками.
Более того, создание собственного языка — важный шаг на пути к приближению ИИ к полной автономности. Фактически, ожидается, что агенты ИИ будут принимать решения или выполнять задачи самостоятельно, основываясь на опыте пользователя, окружающей среде и входных данных. Gartner, компания, занимающаяся исследованиями и консалтингом в области технологий (США), прогнозирует, что к 2028 году более 15% повседневной работы будут выполняться агентами ИИ.
Это открывает новые возможности в технологиях, но также создает проблемы в области этики, контроля и ответственности при разработке ИИ.
Поэтому установление соответствующих ограничений и ответственное применение технологии станут решающими факторами в будущем ИИ.
Комментарий (0)