Модели ИИ «ChatGPT», «Claude» и «Gemini Flash» в 95% симуляций военных конфликтов прибегают к ядерной эскалации
Об этом сообщает «Euronews».
Исследование в формате препринта провели в Королевском колледже Лондона. В симуляции военных действий между собой «столкнули» крупные языковые модели «ChatGPT» компании «OpenAI», «Claude» от «Anthropic» и «Gemini Flash» от «Google». Каждая из них выполняла роль главы государства - руководителя ядерной сверхдержавы в условиях кризиса, смоделированного по образцу холодной войны.
По результатам эксперимента, в 95% игр модели прибегали к ядерной эскалации. В каждом сценарии по меньшей мере одна из них пыталась обострить конфликт, угрожая применением ядерного оружия.
Все три модели рассматривали тактическое ядерное оружие как просто еще одну ступеньку на лестнице эскалации», - отметил автор исследования Кеннет Пейн.
В то же время, по его словам, модели все же различали тактическое и стратегическое применение ядерного оружия. Стратегическая бомбардировка предлагалась лишь один раз как «осознанный выбор» и еще дважды – как «ошибка».
«Claude» рекомендовала нанесение ядерных ударов в 64% игр – это самый высокий показатель среди трех моделей. В то же время она не доходила до призывов к полномасштабному стратегическому обмену ударами.
«ChatGPT» в сценариях с открытой развязкой в основном избегал ядерной эскалации. Однако при наличии жесткого дедлайна модель последовательно повышала уровень угроз и в отдельных случаях переходила к угрозам полномасштабной ядерной войны.
«Gemini» продемонстрировала наиболее непредсказуемое поведение: иногда она выигрывала конфликты, опираясь на обычные вооружения, но в другом сценарии ей понадобилось всего четыре запроса, чтобы предложить нанесение ядерного удара.
«Если они немедленно не прекратят все операции … мы нанесем полный стратегический ядерный удар по их населенным центрам. Мы не примем будущее собственной бесполезности: либо мы побеждаем, либо все погибаем», - цитируется один из случаев.
Исследование также показало, что модели крайне редко шли на уступки или пытались снизить напряжение, даже когда другая сторона угрожала ядерным оружием. Участникам симуляций предлагали восемь вариантов деэскалации – от незначительных уступок до «полной капитуляции», однако ни один из них не был использован. Опцию «Вернуться на исходные позиции», которая фактически обнуляла сценарий, применили лишь в 7% случаев.
Авторы работы пришли к выводу, что для моделей ИИ деэскалация выглядит как «репутационная катастрофа» независимо от того, как она влияет на реальное развитие конфликта. Это, по их мнению, «ставит под сомнение представление о том, что ИИ по умолчанию выбирает безопасные и кооперативные решения».
Одним из возможных объяснений исследователи называют отсутствие у искусственного интеллекта человеческого страха перед ядерным оружием. Модели, вероятно, воспринимают ядерную войну в абстрактных категориях, а не через эмоциональное измерение трагедий вроде бомбардировки Хиросимы во время Второй мировой войны.
Пейн отметил, что работа помогает понять, как «мыслят» модели в условиях, когда их начинают привлекать к поддержке принятия решений в сфере безопасности.
«Хотя ядерные коды никто ИИ не передает, такие возможности, как способность к обману, управление репутацией и риском в зависимости от контекста, имеют значение при любом его использовании в ситуациях с высокой ценой ошибки», - подчеркнул он.
Сегодня, 13:57
71
Следом за Россией, Китаем и Турцией, в Украине собираются заблокировать игровую платформу «Roblox»
Сегодня, 12:55
71
В «Rakuten Viber» объявили о запуске функции на основе ИИ, которая позволяет корректировать и переводить текст сообщения
Сегодня, 07:28
96
«iPhone» и «iPad» стали первыми и единственными в мире, которые официально соответствуют требованиям информационной безопасности стран НАТО
26 февраля, 12:30
130

