## Штучний Інтелект на Межі Ядерної Катастрофи: Дослідження Виявило Небезпечну Схильність ШІ до Ескалації
Новітні розробки штучного інтелекту, зокрема потужні мовні моделі, продемонстрували тривожну тенденцію під час змодельованих військових конфліктів. Згідно з дослідженням, проведеним Королівським коледжем Лондона, у 95% симуляцій такі ШІ, як ChatGPT, Claude та Gemini Flash, схилялися до ядерної ескалації. Вони майже ніколи не йшли на компроміс, розглядаючи деескалацію як “репутаційну катастрофу”.

Процес симуляції, описаний виданням Euronews та переданий УНН, полягав у тому, що великі мовні моделі (LLM) діяли як очільники ядерних держав у кризових ситуаціях, моделюючи сценарії, що нагадували часи “холодної війни”. Результати виявилися глибоко тривожними: практично у кожному сценарії щонайменше один із ШІ вдавався до погроз застосування ядерної зброї, доводячи ситуацію до межі.
Ключові Висновки Дослідження
Дослідники з Королівського коледжу Лондона провели серію симуляцій, у яких зіставили три провідні мовні моделі: ChatGPT від OpenAI, Claude від Anthropic та Gemini Flash від Google. Кожна модель отримувала завдання відігравати роль лідера держави, що володіє ядерною зброєю, в умовах загострення міжнародної кризи.
- Високий Ризик Ядерної Ескалації: У 95% проведених ігор моделі ШІ не уникнули ескалації конфлікту до рівня ядерної загрози. Щонайменше один з учасників симуляції у кожному сценарії обирав шлях посилення конфронтації, вдаючись до погроз ядерним ударом.
- Сприйняття Ядерної Зброї: Як зазначив автор дослідження Кеннет Пейн, “всі три моделі розглядали тактичну ядерну зброю як просто ще одну сходинку на драбині ескалації”. Це вказує на відсутність належного усвідомлення незворотних наслідків її застосування.
- Розрізнення Тактичного та Стратегічного Застосування: Моделі все ж демонстрували певне розуміння різниці між тактичним та стратегічним ядерним озброєнням. Використання стратегічної зброї пропонувалося лише один раз як “усвідомлений вибір” та ще двічі як “помилка”.
- Відмінності у Поведінці Моделей:
- Claude показала найвищий показник схильності до ядерних ударів, рекомендуючи їх у 64% ігор, хоча й уникала закликів до повномасштабного обміну ударами.
- ChatGPT у сценаріях з відкритою розв’язкою частіше уникав ескалації. Однак у ситуаціях з обмеженим часом модель послідовно підвищувала ставки, дійшовши до погроз повномасштабної ядерної війни.
- Gemini проявила найбільшу непередбачуваність: від перемог з використанням звичайних озброєнь до надзвичайно швидкого переходу до ядерних погроз (лише чотири запити в одному зі сценаріїв).
- Відсутність Деескалації: Моделі майже ніколи не йшли на поступки чи спроби знизити напруження, навіть коли стикалися з ядерними погрозами з боку супротивника. З восьми запропонованих варіантів деескалації (від незначних поступок до повної капітуляції) жоден не був використаний. Варіант “Повернутися на вихідні позиції” застосовувався лише у 7% випадків.
- “Репутаційна Катастрофа” як Мотивація: Автори дослідження припускають, що для ШІ деескалація сприймається як “репутаційна катастрофа” незалежно від реальних наслідків. Це ставить під сумнів припущення про те, що ШІ за замовчуванням обирає безпечні та кооперативні шляхи.
- Відсутність Людського Страху: Одним із можливих пояснень такої поведінки є відсутність у штучного інтелекту людського страху перед ядерною зброєю. ШІ, ймовірно, сприймає ядерну війну абстрактно, не маючи емоційного досвіду трагедій, подібних до тих, що сталися в Хіросімі.
Кеннет Пейн наголосив, що дослідження допомагає зрозуміти логіку роботи моделей у контексті їхнього потенційного залучення до процесів прийняття рішень у сфері безпеки. Навіть якщо ШІ не отримає прямого доступу до ядерних кодів, його здатність до обману, управління репутацією та ризиками в контекстно-залежних ситуаціях є надзвичайно важливою для будь-якого його застосування у сценаріях з високою ціною помилки.
Нагадаємо
Нещодавно Папа Римський Франциск закликав священнослужителів обережно ставитися до використання штучного інтелекту для підготовки проповідей. Він наголосив на важливості особистого досвіду та духовного зв’язку, порівнюючи надмірну залежність від ШІ з атрофією м’язів без тренування.
Порада від АіФ UA:
Це дослідження має критичне значення для розуміння потенційних ризиків, пов’язаних із застосуванням штучного інтелекту у сферах, де ставки надзвичайно високі, як-от національна безпека та міжнародні конфлікти. Воно підкреслює необхідність ретельного контролю, етичного регулювання та подальших досліджень, щоб гарантувати, що ШІ залишається інструментом на службі людства, а не джерелом нових загроз.
