Недавно в социальных сетях стало вирусным видео , на котором два чат-бота с искусственным интеллектом общаются друг с другом, используя язык под названием «Гибберлинк». Видео собрало более 13,7 миллионов просмотров, оставив многих зрителей в замешательстве и недоумении. Это порождает различные мнения о разработке ИИ собственного языка.
Источник: Гибберлинк |
В видео агент ИИ вызывает другого помощника ИИ, чтобы осмотреть места проведения свадеб в отелях. Во время обмена сообщениями два ИИ-агента распознали друг в друге виртуальных помощников и быстро переключились с человеческого языка на режим Gibberlink.
Gibberlink — это машинный язык, позволяющий системам искусственного интеллекта более эффективно взаимодействовать друг с другом. Этот язык был разработан инженерами-программистами Борисом Старковым и Антоном Пидкуйко. Этот режим включает в себя серию комбинированных звуков, напоминающих писк робота-персонажа R2-D2 из фильма «Звездные войны».
Gibberlink вывел общение между искусственным интеллектом на новый уровень, сделав его более быстрым и менее ресурсоемким, чем человеческий голос.
По словам команды разработчиков, этот протокол обладает почти абсолютной точностью, помогая ИИ четко обмениваться информацией даже в шумной обстановке. Эффективность связи значительно повышается, поскольку время передачи информации сокращается на 80%, а стоимость вычислений снижается на 90% по сравнению с традиционными методами.
Кроме того, с помощью этой технологии можно устранить некоторые ошибки, возникающие из-за непонимания естественного языка.
Когда у ИИ есть собственный язык, вместо того, чтобы расшифровывать сложный или неоднозначный контекст на человеческом языке, ИИ может использовать Gibberlink для последовательной и точной передачи информации. Повышая надежность связи, системы ИИ могут выполнять задачи более эффективно.
С другой стороны, Gibberlink может разгрузить сложные процессы обработки и ускорить передачу данных. В результате системы ИИ могут работать более плавно в приложениях, требующих быстрого реагирования, таких как автоматизация, аналитика больших данных и управление интеллектуальными устройствами.
Люди не могут понять ИИ
Однако проблема заключается в следующем: люди не могут понять и отслеживать этот метод общения. Это приводит к проблемам контроля и безопасности, создает риски для безопасности данных, потенциальные риски утечки информации или ее использования злоумышленниками.
Более того, создание собственного языка является важным шагом на пути приближения ИИ к автономности. Фактически ожидается, что агенты ИИ будут принимать решения или выполнять задачи самостоятельно, основываясь на пользовательском опыте, окружающей среде и вводимых данных. Исследовательская и консалтинговая компания Gartner (США) прогнозирует, что к 2028 году более 15% повседневной работы будут выполняться агентами ИИ.
Это открывает новые возможности в технологиях, но также порождает проблемы в области этики, контроля и ответственности при разработке ИИ.
Поэтому установление соответствующих ограничений и ответственное применение технологии станут решающими факторами в будущем ИИ.
Комментарий (0)