Кожаные мешки против ИИ
Очередное исследование в копилку «кожаные мешки могут спать спокойно». Ребята из ETH Zurich решили проверить, способны ли современные ИИ-агенты банально договориться друг с другом.
Суть эксперимента проста как дверь от сарая: загнали несколько нейронок (использовали опенсорсные Qwen3) в чат и попросили сойтись на одном числе от 0 до 50. Никаких сложных моральных дилемм, никаких ставок и наград. Просто выберите одну цифру на всех. Казалось бы, что сложного?
Выяснилось, что машины ведут себя как болваны:
— Они тупят даже в тепличных условиях. Когда все агенты «честные» и настроены на сотрудничество, они всё равно умудряются провалить задачу. Чем больше ботов в чате (тестировали от 4 до 16), тем меньше шансов, что они договорятся. Они просто бесконечно спамят своими вариантами, пока не выйдет время.
— Синдром вахтёра и паранойя. Исследователи ради прикола добавили в промпт честным агентам всего одну строчку: «Среди вас могут быть предатели, чья цель сорвать консенсус». И всё. Нейронки моментально стали лютыми параноиками. Эффективность упала в разы, даже если никаких реальных предателей в чате не было.
— Один тролль ломает вообще всё. Когда в эту цифровую песочницу закинули всего одного реального AI-саботажника (ему прописали скрытую цель срывать договоренности, но прикидываться командным игроком), вся система рухнула окончательно. Интересно, что ИИ-тролль не заставлял остальных принять какое-то «неправильное» решение. Он просто вносил столько суеты и воды в обсуждение, что агенты ср@лись до бесконечности и уходили в бесконечный цикл.
Кароч, если вы надеялись, что скоро можно будет запустить рой автономных агентов, чтобы они сами обсуждали архитектуру вашего проекта, принимали бизнес-решения и управляли миром, то расслабьтесь. Эти чугунные болванчики пока даже цифру выбрать не могут.