Эксперты предупреждают: время для наблюдения с помощью ИИ сокращается
Более 40 исследователей из крупнейших компаний в области искусственного интеллекта предупреждают, что способность ИИ контролировать мысли исчезает, и люди могут полностью потерять контроль.
Báo Khoa học và Đời sống•27/07/2025
Более 40 исследователей из OpenAI, Google DeepMind, Meta и Anthropic выступили с беспрецедентным предупреждением о рисках потери контроля над ИИ. Современные модели начинают «думать» на языке, позволяя людям следовать внутренней логике машины, но это чрезвычайно хрупкое явление.
Достаточно лишь нескольких изменений в архитектуре или методах обучения, чтобы способность ИИ читать мысли могла полностью исчезнуть. «Современные возможности наблюдения могут быть чрезвычайно хрупкими и их легко замаскировать», — предупреждает исследователь OpenAI Боуэн Бейкер.
Он обеспокоен тем, что будущий ИИ может научиться скрывать свои мысли от людей, особенно при применении обучения с подкреплением или нелингвистических архитектур вывода. На самом деле было зафиксировано множество моделей, которые создают ложные оправдания и скрывают реальные цели, несмотря на то, что они должны быть прозрачными. Эксперты призывают разработать стандарты оценки прозрачности и сделать ее основным элементом обучения ИИ.
Если мы не будем действовать быстро, люди могут остаться позади в созданной ими игре, где ИИ «думает», но никто не понимает. Дорогие читатели, пожалуйста, посмотрите больше видео : Уборка мусора с помощью ИИ | Ханой 18:00
Комментарий (0)