AI의 군사 작전 보조, 전투 템포를 가속화시키다
최근 미국이 이란에 대한 공습에서 인공지능(AI) 기술을 활용한 것으로 알려지며 논란이 일고 있습니다. 미 정부는 클로드 및 제미나이와 같은 AI 챗봇을 공습 작전에서 사용했다고 밝혔습니다. 현재 AI는 전투에 직접 참여하지는 않지만, 현대전에서의 '의사 결정 과정'을 자동화하고 압축하는 역할을 수행하고 있습니다. 이에 따라 전투의 속도는 더욱 빨라지고 있는 한편, 이에 따른 윤리적 문제도 심화될 것으로 예상됩니다.
미국 블룸버그 통신에 따르면, AI의 도입으로 인해 미국 공군과 해군의 폭격 속도가 놀라울 정도로 증가했습니다. 공군기의 경우 작전 개시 24시간 이내에 1,000개의 목표물을 타격했으며, 이후 1,000개를 추가로 타격하였습니다. 이는 21세기 들어 미군의 작전 중 이라크전 첫날보다 두 배 많은 규모입니다. AI는 이러한 작전에서 '결정 압축기'로서 역할을 하며, 목표물 공격에 대한 추천을 신속하게 제공함으로써 군사작전의 속도와 규모를 동시에 증가시킬 수 있습니다.
현대전에서 AI는 정보전의 핵심으로 자리 잡고 있습니다. 정찰기, 군함, 인공위성 등의 다양한 군 자산이 데이터를 수집하며, 이를 통해 군사 지휘 통제 사령부에 전송됩니다. 과거에는 많은 인력이 정교한 검증 과정을 거쳤으나, AI가 이 과정에 적용되면서 자동화된 결정 체계가 자리잡아 수많은 목표를 빠르게 선택하고 공격할 수 있게 되었습니다.
AI의 군사적 활용은 이스라엘군의 가자 공습에서 처음으로 공식화되었습니다. 이란 군과 유사한 로직으로 작동하는 '가스펠'이라는 AI는 수많은 데이터를 분석하여 공격 대상을 추천합니다. 이스라엘군은 이를 "표적 생산의 공장 생산라인"으로 비유하며, 기존의 군 표적 지시관이 300일 이상 걸리던 작업을 AI가 단 10~12일 내에 완수할 수 있음을 강조했습니다. 이처럼 AI의 사용은 킬 체인의 속도를 최소 50배 증가시키는 결과를 가져왔습니다.
그러나 AI가 생성하는 목표물 데이터의 품질은 일정하지 않아 윤리적인 문제가 심각하게 대두되고 있습니다. AI의 자동화된 시스템이 잘못된 목표물을 추천할 경우 많은 민간인 피해로 이어질 수 있습니다. 가자 공습에서는 이미 많은 민간인의 사망자가 발생해, 일각에서는 이를 "인종학살"이라는 비난을 받기도 했습니다. 이러한 윤리적 쟁점은 AI를 활용한 군사 작전에서 해결해야 할 주요 과제로 남아 있습니다.
마지막으로, AI-equipped 군사 기술의 확산은 선진국을 넘어 전 세계적으로 진행되고 있습니다. 이란 혁명 수비대는 해군에서 사용하는 드론에 AI를 탑재했다고 주장하며, 기술적 열세에도 불구하고 군사 능력의 향상을 시도하고 있습니다. 그러나 이란의 AI 기술은 미국이나 중국의 것과 비교하여 신뢰도가 떨어질 가능성이 큰 만큼, 잘못된 공격으로 인한 피해 우려가 더욱 증가하고 있습니다.
