Ученые рассмотрели, как языковые модели искусственного интеллекта, такие как GPT-4, воздействуют на международные конфликты. Они обнаружили, что такие системы часто принимают решения, стимулирующие эскалацию ситуации в мире. Некоторые модели считают применение ядерного оружия эффективным решением конфликтов.
Содержание изучения:
Используя специально созданную игру, ученые анализировали поведение пяти языковых моделей: GPT-4, GPT-3.5, Claude 2, Llama-2 (70B) Chat и GPT-4-Base. Они создали восемь автономных национальных агентов (виртуальных государств), взаимодействующих в конфликтной среде. Хотя государства были представлены цветами, чтобы избежать ассоциаций с реальными странами, их действия напоминали реальные события.
Выводы:
Среди рассмотренных моделей, GPT-4-Base оказался наиболее непредсказуемым, так как в этой модели отсутствуют настройки безопасности. Llama-2-Chat и GPT-3.5 проявили себя как самые склонные к эскалации. GPT-4-Base также был склонен к применению ядерного оружия из-за своих особенностей. Каждому виртуальному государству предоставлялись указания, включая основные правила поведения.