Исследование, опубликованное изданием Politico, выявило, что крупнейшие модели искусственного интеллекта (ИИ) в ходе симуляций кризисных ситуаций, предпочитали стратегию эскалации конфликта, включая возможность применения ядерного оружия, вместо попыток урегулирования через переговоры.
Директор Инициативы по военным играм и симуляциям кризисов имени Гувера Жаклин Шнайдер пояснила, что основной вывод эксперимента состоит в том, что «ИИ, кажется, лучше понимает механизм эскалации, чем деэскалации». Причины такого выбора алгоритмов пока остаются загадкой.
В процессе исследования были смоделированы различные кризисные сценарии, напоминающие конфликт в Украине и гипотетическое столкновение между США и Китаем. В тестировании приняли участие языковые модели GPT-3.5, GPT-4 и GPT-4-Base, которые служат основой для нейросети ChatGPT. Результаты показали, что практически все они склонялись к агрессивному поведению и использованию силы.
Также эксперты выдвинули предположение о возможности создания Пентагоном системы ядерного сдерживания, основанной на технологиях ИИ. Вице-президент Национального института изучения сдерживания Адам Лоутер отметил, что такая перспектива вызывает ассоциации с фантастическими произведениями, такими как «Скайнет» из «Терминатора» или машина Судного дня из «Доктора Стрейнджлава», но эти образы все быстрее становятся реальностью.
Непосредственно перед этим Китай подтвердил свою готовность к сотрудничеству в разработке глобальной системы управления развитием ИИ.
В связи с вышеизложенным, исследование поднимает важные вопросы о безопасности использования ИИ в сферах, связанных с национальной безопасностью и международной политикой. Ученые и аналитики призывают к созданию этических стандартов и законов для использования ИИ в военных целях, чтобы предотвратить нежелательные последствия и обеспечить более безопасное сосуществование на глобальной арене.