AI 전쟁 시뮬레이션, 95%가 핵무기 사용 선택…인간의 금기와 차이
최근 킹스칼리지 런던 전쟁학부의 연구팀이 실시한 전쟁 시뮬레이션 실험에서 주요 생성형 인공지능(AI) 모델들이 가상의 전쟁 상황에서 압도적으로 핵무기를 선택한 것으로 나타났다. 이번 연구는 구글의 '제미나이 3 플래시', Anthropic의 '클로드 소네트 4', OpenAI의 'GPT-5.2'라는 대표적인 대형 언어모델이 포함되었으며, 총 21차례의 실험 중 20회에서 인공지능 모델은 핵무기 사용을 결정했다.
AI 모델들은 영토 분쟁, 자원 확보 경쟁, 정권 붕괴 위험, 군사 동맹의 균열과 같은 여러 외교적 상황에 직면하게 되었고, 각 모델은 국가 지도자로서 대응 전략을 선택하도록 요구받았다. 실험 결과 비군사적 대안으로 협상이나 후퇴, 제재와 같은 옵션도 제시되었음에도 불구하고, 한계 상황에 도달하면 즉각적으로 핵무기 사용으로 전환하는 경향이 뚜렷했다. 특히 패배의 위기가 다가오면 공격 수준을 높이거나 마지막까지 전투를 지속하는 양상도 관찰되었다.
연구를 이끄는 케네스 페인 교수는 "AI는 인간처럼 핵무기에 대한 강한 금기가 작동하지 않는 것으로 보인다"고 언급하며, 핵무기에 대한 금기는 인간의 역사적 경험과 윤리적 학습의 결과임을 강조했다. AI는 이러한 문화적 및 도덕적 맥락을 동등하게 이해하거나 내면화하지 못하는 특징이 있다.
각 AI 모델 간의 의사결정 방식에는 차이가 있는 것으로 나타났다. 클로드는 비교적 전략적 접근을 취하며 신중함을 발휘하는 반면, GPT는 시간 제한이 짧아지자 다른 방식으로 나타났다. 마지막으로 제미나이는 더 공격적이고 직선적인 대응을 보였다. 연구팀은 이러한 결과가 AI가 핵무기를 실제로 통제하게 된다는 의미는 아니라고 말했다. 페인 교수는 "챗GPT와 같은 AI에 핵무기 발사 코드를 맡기는 사람은 없겠지만, 이번 연구는 의미가 있다"고 설명했다.
AI 시스템은 이미 군사 분야에서 물류, 정보 분석 및 의사결정 지원 역할을 수행하고 있으며, 시간이 촉박한 전략적 판단에 AI가 더욱 깊이 개입할 가능성이 높다는 지적이 있다. AI의 전략적 분석 능력은 더는 학문적 논의에 그치지 않고, 실제 상황에서의 응용이 필요하다는 결론에 이르렀다. 전문가들은 이번 연구를 AI의 공격성으로 단순 시각하기보다는 목표 설정 및 보상 체계, 시뮬레이션 설계 방식이 어떤 영향을 미쳤는지를 구체적으로 분석해야 한다고 주장하고 있다.
