군사 테크

미래전은 전투로봇 아닌 'AI 참모'가 좌우한다

기사이미지

파리에서 열린 방위산업 전시회 '유로사토리'에서 프랑스 군인이 드론 시연을 보이고 있다. /사진=로이터/뉴스1

2024.06.28 15:23

The Economist
icon 14min
kakao facebook twitter

주요 전쟁이 발발할 때마다 새로운 군사혁신(RMA)에 성공한 국가는 전쟁에서 승리해 역사의 주인공이 되었습니다. 1차 세계대전 방식에 집착하던 일본해군은 2차 세계대전시에도 거함거포주의의 대표격인 전함(battleship)에 집착했던 반면 미국해군은 이미 항공모함과 잠수함을 중심으로 작전을 짜기시작했습니다. 그 결과 일본해군은 진주만 기습공격 외에는 미국해군과 제대로 싸워보지도 못하고 몰락해버렸고 일본열도는 완전봉쇄되었습니다.


앞으로 다가올 미래전쟁은 무엇을 중심으로 재편될 것인가 수많은 논의가 있지만 많은 전문가들은 역시 인공지능(AI)에 주목합니다. AI가 장착된 무기가 주로 논의되고 있습니다만, 2024년 6월 22일자 이코노미스트의 'AI와 전쟁' 기사는 무기 보다는 신속하고 정확하게 작전지휘부가 지휘통제 기능을 수행할 수 있도록 AI가 돕게되는 경우 더욱 큰 군사혁신이 이뤄질 것이라고 예상합니다. 수많은 감시탐지 장비들과 휴민트(사람이 직접 수집하는 정보), 그리고 SNS상의 공개 정보들이 홍수를 이루며 쏟아져들어올 미래 전쟁환경에서 이 정보를 빠른 속도로 분석하고 판별하며 이에 기반해 행동 선택지까지 신속히 지휘관에게 제안하게 된다면 유리한 위치에 오르게 될 것이라는 이야기입니다. AI를 개별 무기뿐만 아니라 작전 지휘부의 지휘통제에까지 결합시키려는 노력이 주요국들 사이에서 이뤄지고 있는데, 우리 군은 어떤지 궁금해집니다.


2021년 말 영국 해군은 미국의 거대 테크기업인 마이크로소프트(MS)와 아마존 웹서비스에 한 가지 질문을 던졌다. '전쟁을 수행하는 더 나은 방법이 없을까? 보다 구체적으로, 카리브해에 있는 가상의 특공대 공격팀과 프리깃함의 미사일 시스템을 더 효과적으로 조율할 수 있는 방법을 찾을 수 없을까?' 이 테크기업들은 거대 방산업체인 BAE시스템즈, 신생 방산업체 안두릴(Anduril) 등과 함께 연구를 진행했다. 국방 획득 부문에서는 상상할 수 없을 정도로 빠른 12주 만에 이 컨소시엄은 영국 서머셋에 모여 '스톰클라우드'(Storm Cloud)로 이름 붙여진 것을 시연했다.


지상의 해병대원, 공중의 드론 및 기타 여러 탐지센서들이 첨단 무전기로 구성된 "메시"(mesh) 네트워크를 통해 연결되어 서로 다른 곳에서 일어나는 상황을 원활하게 확인할 수 있었으며, 이러한 구성을 통해 해병대는 이미 이전 훈련에서 훨씬 더 큰 규모의 적 병력에 대해 포위작전을 펼칠 수 있었다. 이들이 수집한 데이터는 네트워크의 "맨바깥"이라고 할 수 있는 특공대 차량의 작고 튼튼한 컴퓨터(탄력성 있는 번지케이블로 차량에 묶어놓았다)와 위성을 통해 연결된 원격 클라우드 서버에서 동시에 처리되었다. 지휘통제 소프트웨어는 지정된 지역을 모니터링하고, 어떤 드론을 어디로 비행시킬지 결정하고, 지상의 물체를 식별하고, 어떤 무기로 어떤 표적을 공격할지 제안했다.


결과는 인상적이었다. 실험에 참여한 한 장교는 드론 같은 센서와 미사일 같은 무기를 디지털 네트워크 및 소프트웨어와 함께 엮어 데이터를 주고받는 네트워크를 만들어냈다고 말하며 스톰클라우드가 "세계에서 가장 진보된 킬체인"임을 분명히 알 수 있었다고 말한다. 그는 2년 전에도 이미 속도와 신뢰성 측면에서 기존 참모본부의 인간 장교들보다 "훨씬 앞서 있었다"고 말한다.


AI 탑재 도구와 무기는 모의훈련에만 배치되는 것이 아니다. 가자지구와 우크라이나 같은 실제 전쟁터에서도 점점 더 많은 규모로 사용되고 있다. 군대는 엄청난 가능성을 놓치지 않는다. 또한 적에게 뒤처지는 것을 두려워한다. 지출은 빠르게 증가하고 있다(차트 1 참조). 그러나 법률가와 윤리학자들은 AI가 전쟁을 빠르고, 불투명하며, 동시에 비인도적으로 만들 것이라고 우려한다. 강대국 간의 전쟁 가능성이 커지는 가운데 AI 사용에 대해 긍정적인 그룹과 부정적인 그룹 간의 간극이 점점 커지고 있다.



AI에 대한 단일한 정의는 없다. 1980년대 토마호크 순항미사일의 지형 추적이나 2000년대 초 브림스톤 미사일의 탱크 포착 기능처럼 한때는 AI라는 용어가 어울렸던 것들이 이젠 평범한 일상적 소프트웨어로 여겨지고 있다. 그리고 AI라고 불리는 수많은 최첨단 기능 중에는 챗GPT처럼 "딥러닝"과 '대규모 언어모델'(LLM)에 기반하지 않은 것도 많다. 이처럼 AI는 다양한 모습으로 전쟁의 모든 측면에 스며들고 있다.

따분하지만 유익한 일부터

유지보수, 병참, 인사 등 군대를 채우고 먹이고 연료 공급하는데 필요한 업무처럼 지루한 일부터 AI 지원이 시작된다. 싱크탱크인 랜드연구소의 최근 연구에 따르면 AI는 A-10C 공격기의 정비 시기를 예측함으로써 부품 부족에 따른 고장과 부품 과잉 재고에 따른 낭비를 방지하여 미 공군이 매달 2500만 달러를 절약할 수 있다고 한다(고장이 거의 나지 않는 부품의 경우 AI의 예측은 별 도움이 되지 않았다). 병참은 또 다른 유망 분야다. 예를 들어 미 육군은 알고리즘을 사용하여 우크라이나 곡사포에 새 포신이 필요한 시기를 예측하고 있다. 또 AI는 인사관리에도 활용되기 시작했다. 육군은 14만 명의 인사 파일로 훈련된 AI모델을 군인들의 인사고과에 사용하고 있다.


완전히 반대쪽에 있는 위험하고 긴장된 상황에도 AI가 활용되고 있다. 러시아와 우크라이나는 전파방해로 인해 원격조종하는 사람과 드론 간의 연결이 끊어지더라도 드론이 자율적으로 목표물을 찾아내 공격할 수 있는 소프트웨어를 개발하기 위해 서두르고 있다. 양쪽 모두 이것을 위해 100달러 정도의 저비용 소형 반도체 칩을 사용한다. 우크라이나에서 촬영된 드론 공격 영상에는 드론이 목표물을 식별하고 정확히 겨냥하고 있음을 보여주는 "네모 표식"이 물체 주변에 나타나는 장면이 점점 더 많이 등장하고 있다. 이 기술은 아직 미숙하며, 목표물 포착 알고리즘은 어수선한 환경과 가려진 물체 등 자율주행차가 직면한 문제들에 더해 연기나 교란용 디코이 같은 전장 특유의 문제에 직면해 있다. 하지만 상황은 빠르게 개선되고 있다.


후방의 AI와 무기 내부에 장착된 AI 사이에는 방대한 혁신, 실험, 기술 발전의 여지가 존재한다. 미 공군 예비역 장군인 클린트 히노트와 호주의 예비역 장군인 믹 라이언은 드론이 그 자체로는 전쟁을 변화시키는 것이 아니라 혼란을 야기할 뿐이라고 주장한다. 하지만 "디지털화된 지휘통제 시스템"(스톰클라우드를 생각해보라)과 "새로운 시대의 민간 및 군용 센서의 메시 네트워크"와 결합하면 최전선에 있는 군인들도 과거엔 멀리 떨어진 지휘본부만 볼 수 있었던 정보를 실시간으로 보고 거기에 맞춰 움직일 수 있는 "혁신적인 삼위일체"가 될 수 있다고 이들은 말한다.


이를 위해서는 AI가 전제 조건이다. 여러 센서들의 '메시'부터 시작해보자. 드론, 위성, SNS 및 기타 소스에서 수집된 데이터가 군사 네트워크 상에 돌아다니고 있다고 상상해 보자. 수동으로 처리하기에는 너무 많은 정보량이다. 2021년까지 이스라엘 군정보기관을 이끌었던 타미르 헤이만 장군은 두 가지 큰 돌파구가 있었다고 말한다. 그에 따르면 8~9년 전 "근본적인 도약"이 있었는데, 음성 감청 정보를 음성-텍스트 변환 소프트웨어를 통해 텍스트로 바꿔 키워드를 쉽게 검색할 수 있게 되었던 것이다. 다른 하나는 컴퓨터 비전 분야였다. 영국 국방부의 '프로젝트 스포터'는 이미 위성 이미지에서 "물체를 자동으로 찾고 그것이 무엇인지 식별하는" 인공신경망을 사용하여 "활동의 변화를 연중무휴 24시간 자동 모니터링"할 수 있도록 하고 있다. 2월 현재, 한 민간 기업은 이 AI모델을 학습시키기 위해 2만5000개의 대상에 라벨을 붙였다.


영국 장군인 톰 코핑거-심즈는 지난해 영국 상원에서 이러한 시스템이 "아직 본격적으로 배치되지는 않았고 연구개발의 마지막 단계에 있다"고 말했지만, 2023년 초 영국이 수단에서 자국민을 대피시킬 때 민간인 집단을 식별하는 데 (군용이 아닌) 상용(商用) 도구를 사용한 사례는 있었다고 이야기했다. 미국은 앞서가고 있는 것 같다. 미국은 아프가니스탄과 이라크에서 드론으로 촬영한 사진 및 동영상의 홍수를 처리하기 위해 2017년에 '프로젝트 메이븐'을 시작했다.



이 프로젝트를 운영하는 국가지리정보국 국장은 5월에 메이븐이 "이미 전투원들에게 필요한 대량의 컴퓨터 비전 탐지 자료를 생산해내고 있다"고 언급했다. 메이븐의 목표는 "인간의 탐지, 분류 및 추적 능력을 따라잡거나 능가하는 것"이다. 아직은 그 목표에 이르지 못했는데, 일부만 노출된 무기처럼 까다로운 사례를 처리하는데 어려움을 겪고 있다. 하지만 우리 이코노미스트 매거진이 운용하고 있는 우크라이나 전쟁 관련 화재 추적기는 완전히 자동화된 머신러닝을 기반으로 하며 기자들이 따라잡을 수 없는 규모로 작동한다. 이 화재 추적기는 이미 9만3000건의 전쟁 관련 화재 추정 이미지를 찾아냈다.


AI는 전화통화나 사진 외에 더 많은 것들을 처리할 수 있다. 지난 3월 영국 해군은 기뢰 탐지제거 부대가 페르시아만에서 소형 드론 보트인 '해리어'를 이용한 1년간의 실험을 완료했다고 발표했는데, 예인소나(함정 밑에 달고 길게 늘어뜨려 끌고 다니는 음탐기-역자주)를 끌고다니며 해저에서 기뢰를 탐색하고 다른 선박들이나 육상 부대에 경고할 수 있었다. 그리고 미 국방부 관리인 마이클 호로위츠는 최근 온라인매체인 디펜스 뉴스에 미국, 호주, 영국이 오커스협정의 일환으로 각국의 대잠초계기 P-8에서 투하한 소노부이에서 수집한 대량의 음향데이터를 처리하는 데 사용할 수 있는 "3국간 알고리즘"을 개발했다고 말했다.


대부분의 경우 AI는 노이즈 속에서 의미있는 시그널을 식별하거나 물체더미 속에서 특정 물체를 식별한다. '저게 트럭인가 탱크인가? 닻인가 지뢰인가? 트롤 어선인가 잠수함인가?' 인간 전투원을 식별하는 것은 아마도 더 복잡하고 논쟁의 여지가 많을 것이다. 지난 4월 이스라엘 온라인 매체 +972매거진은 이스라엘군이 '라벤더'라는 인공지능 도구를 사용하여 수천 명의 팔레스타인인을 표적으로 식별하고 있으며, 인간 운영자는 시스템 결과를 피상적으로만 살펴본 후 공격을 명령한다고 주장한 바 있다(PADO 완역 기사). 이스라엘군은 라벤더가 "단순히 여러 정보원(情報源)들을 상호참조하는 데 목적이 있는 데이터베이스일 뿐"이라고 반박했다.


실제로 라벤더는 전화기록, 위성이미지 및 기타 정보와 같은 다양한 데이터를 융합하는 도구인, 전문가들이 '의사결정 지원 시스템'(DSS)이라고 부르는 것일 가능성이 높다. 미국이 과거 베트남에서 탐지센서들을 설치해 두고 여기서 얻은 음향 및 냄새 데이터를 컴퓨터로 처리했던 것도 원시적인 '의사결정 지원 시스템'으로 볼 수 있다. 런던 소재 앨런튜링연구소의 루퍼트 바렛-테일러는 테러와의 전쟁에서 미국의 정보요원과 특수부대가 전화기록과 기타 데이터를 가지고 사람과 장소 간의 연결을 시각화한 거대한 거미줄 모양 차트를 만들어 반군이나 테러리스트를 식별하는데 사용한 소프트웨어도 마찬가지로 '의사결정 지원 시스템'의 일종이었다고 말한다.

설명하는 AI, 명령하는 AI

하지만 과거와 다른 점이 있다. 오늘날의 소프트웨어는 센서의 대량확산으로 인해 엄청나게 많은 데이터를 가지게 되었다는 점과 함께 더 뛰어난 컴퓨팅 성능, 더 정교한 알고리즘(인공신경망의 획기적인 발전은 2012년에야 이루어짐)의 혜택을 누리고 있다는 점이다. 그 결과 단순히 정보가 더 많아지거나 더 좋아진 것만이 아니다. 정보감시정찰(ISR)과 지휘통제(C2) 사이의 경계가 모호해지면서 데이터를 이해하고 그에 따라 행동을 취하는 것 사이의 경계가 모호해진 것이다.


주로 야포 등 러시아 표적에 대한 데이터를 수집하는 우크라이나의 GIS(지리정보시스템) '아르타'(Arta) 소프트웨어를 예로 들어보자. 이 소프트웨어는 이미 "지휘관의 우선순위에 따라" 잠재적 표적 목록을 생성할 수 있다고 히노트 장군(미국)과 라이언 장군(호주)은 말한다. 또 최근 몇 달 동안 우크라이나에서 러시아군의 표적 명중률이 개선된 이유 중 하나는 러시아의 지휘통제(C2) 시스템이 드론의 정보를 처리하여 포병에게 전송하는 능력이 향상되고 있기 때문이라고 관계자들은 말한다. 인도주의 단체인 국제적십자위원회(ICRC)의 아서 홀랜드 미셸은 "일부 추정에 따르면 이전에는 몇 시간이 걸리던 표적의 탐색, 확인, 분석 활동이 몇 분으로 단축될 수 있었다"고 썼다.



미 공군은 최근 랜드연구소에 인공위성을 향해 다가오는 적 위협에 대처하는 "우주 전투체계"에 AI가 판단을 제공할 수 있을지 평가해 달라고 요청했다. 결론은 AI가 실제로 "고품질"의 대응책을 추천할 수 있다는 것이었다. 이와 유사하게 미 국방부의 블루스카이(당장의 실용성에 구애받지 않고 다양한 주제를 연구한다는 뜻-편집자주) 연구기관인 다르파(DARPA)는 '계획, 전술, 실험, 유연성을 위한 전략적 카오스 엔진(SCEPTER)'이라는 꽤 농담같은 이름의 프로그램을 개발 중인데, 이는 '매우 빠른 기계속도에서의 교전' 중에 지휘관에게 권장되는 조치를 생성하는 프로그램이다. 즉, 이것은 새로운 전쟁계획을 즉석에서 생성할 수 있다.


다르파의 프로그램 매니저인 에릭 데이비스는 SCEPTER와 유사한 다르파 프로젝트가 "현재 사용하고 있는 많은 도구들"은 "2~5년 전에는 존재하지도 않았던 것"이라고 말한다. 그는 전쟁과 같은 복잡하고 비선형적인 시스템을 단순한 선형 대수학의 관점에서 분석하는 데 사용할 수 있는 오래되고 모호한 수학적 분석틀인 "쿠프만 연산자 이론"을 예로 들었는데, 최근 이를 적용하는 데 있어 획기적인 발전이 이루어지면서 많은 AI 문제를 보다 쉽게 해결할 수 있게 되었다고 한다.



유로사토리 2024에 전시된 광학 장비. /사진=로이터/뉴스1

유로사토리 2024에 전시된 광학 장비. /사진=로이터/뉴스1

찬사와 불만

이 모든 것의 결과로 전쟁을 실제 수행하는 사람들과 전쟁을 길들이려 하는 사람들 사이에 이론적 대립이 심해지고 있다. 법률 전문가와 윤리학자들은 전쟁에서 AI의 역할이 커지는 것은 위험 요소가 아주 많다고 주장한다. 에섹스대학교의 노암 루벨은 "현재 우리가 가진 AI시스템은 적의(敵意)를 알아차릴 수 없다"고 주장한다. "진짜 총을 든 키 작은 군인과 장난감 총을 든 어린이, 또는 소총을 손에 쥐고 쓰러져 있는 부상병과 저격총으로 사격할 준비가 된 저격수를 구분할 수 없습니다." 기존의 알고리즘은 "합법적으로 사용될 수 없다"고 그는 결론지었다. 컴퓨터 과학자 스튜어트 러셀은 인공신경망이 너무 쉽게 속는다고 말한다. "가로등 기둥과 같이 완벽하게 무해한 물체를 가져다가 인공신경망이 탱크라고 확신할 수 있도록 무늬를 인쇄할 수도 있습니다."


군사 AI를 옹호하는 사람들은 회의론자들이 전쟁에 대해 지나치게 장밋빛 관점을 갖고 있다고 반박한다. AI 정책에 관여했던 한 영국군 예비역 장교는 특정 물체를 사냥하도록 프로그램된 공격용 드론은 적의 항복을 존중하기는커녕 항복 의사 자체를 인식하지 못해 공격할 수도 있다고 인정한다. 하지만 이 AI장착 드론을 띄우는 대신 먼거리에서 격렬하게 포격전을 펼친다면 "그런 상황에서는 항복 자체가 아예 존재할 수 없게 된다"고 말한다. 영국 공군장교 출신으로 현재 일본 기업 후지쯔에서 일하고 있는 키스 디어는 한 발 더 나아간다. "기계가 인간보다 오탐률이 낮다면 특히 압박이 심한 상황에서 권한을 위임하지 않는 것이 오히려 비윤리적일 것"이라고 그는 주장한다. "우리는 기계의 능력과 성과를 인간의 능력과 비교하는 다양한 종류의 테스트를 수행했다"고 이스라엘군의 헤이먼 장군은 말한다. "대부분의 테스트에서 기계가 훨씬, 훨씬, 훨씬 더 정확하다는 것이 밝혀졌습니다... 대부분의 경우 비교 대상이 될 수 없습니다."


한 가지 범할 수 있는 오류는 2000년대 대테러 작전에 기반해 미래를 추론해내는 것이다. "미래는 얼굴을 인식하여 10000피트 상공에서 총을 쏘는 것이 아니다"라고 스톰클라우드에 참여한 회사 중 하나인 안두릴의 설립자 팔머 럭키는 주장한다. "그게 아니라 대만 해협에서 중국군 상륙함들을 격침하는 것이죠." 그는 어떤 대상이 미사일 발사기가 노리는 시각적, 전자적, 열적 특징을 가지고 있다면 "틀릴 리가 없습니다... 믿을 수 없을 정도로 독특하기 때문"이라고 주장한다. 전쟁 전 컴퓨터를 통한 모델링은 불확실성을 더욱 줄여준다. "중국 분쟁에서 일어날 일의 99%는 실제로 일어나기 훨씬 전에 시뮬레이션을 여러 번 실행해봤을 것"이라고 팔머 럭키는 말한다.


이스라엘군의 헤이먼 장군은 "문제는 기계가 실수를 한다면 끔찍한 실수가 될 것이라는 점"이라고 말한다. "실수를 그대로 받아들이면 충격적인 사건으로 이어질 수 있습니다." 따라서 그는 사람을 완전히 "배제"하고 공격을 자동화하는 것에 반대한다. "정말 유혹이 될 것"이라고 그는 인정한다. "그런 자동화는 전례 없는 방식으로 절차를 가속화할 수 있습니다. 하지만 국제법을 위반할 수도 있습니다." 안두릴의 럭키는 가자지구 전투같은 "더럽고 지저분하고 끔찍한" 시가전은 AI 사용에 가장 적합하지 않다고 인정한다. "사람들이 터미네이터 로봇이 무함마드라는 사람을 찾아서 총을 쏜다고 상상할 수 있을텐데... 그런 일은 일어나지 않을 것입니다."


국제적십자위원회는 AI시스템이 잠재적으로 예측 불가능하고 불투명하며 편견의 영향을 받을 수 있다고 경고하지만, "이용 가능한 정보를 더 빠르고 광범위하게 수집하고 분석하여 민간인에 대한 위험을 최소화할 수도 있다"는 점을 인정한다. 도구가 어떻게 사용되느냐에 따라 많은 것이 달라진다. 이스라엘군이 '라벤더'를 보도된 방식으로 사용했다면 그것은 소프트웨어 자체의 문제라기보다는 지나치게 확대된 교전 규칙과 느슨한 운영자가 문제였다는 것을 보여준다.


수년 동안 전문가와 외교관들은 유엔에서 자율무기시스템(AWS)을 제한 또는 금지할지 말지를 놓고 논쟁을 벌여 왔다. 하지만 자율무기시스템은 정의하는 것조차 어렵다. 국제적십자위원회는 '특정한 탱크가 아닌 아무 탱크나' 식으로 일반적인 특징에 기반해 표적을 선택하는 것이 자율무기시스템이라고 말한다. 여기에는 우크라이나에서 사용되는 많은 드론이 포함될 수 있다. 국제적십자위원회는 사람을 표적으로 삼거나 예측할 수 없는 행동이 가능한 자율무기시스템을 금지하고자 한다. 영국 정부는 "완전한" 자율무기는 "상황에 적합한 인간의 개입" 없이 목표물을 식별, 선택, 공격하는 무기라고 반박한다. 국제적십자위원회보다 기준이 훨씬 높다. 미 국방부도 비슷한 견해를 취하며 "적절한 수준의 인간 판단" 유무를 강조한다.


금지대상이 되는 '자율무기시스템'을 어떻게 정의해야 할지는 매우 어려운 일이다. 그리고 그것은 단지 치명적인 공격 단계뿐만 아니라 그 이전의 행위와도 관련이 있기 때문이다. 고도로 자율적인 공격 드론은 인간의 통제가 빠진 것으로 보일 수 있다. 하지만 이러한 드론의 동작도 사전에 잘 이해되고 민간인은 없고 합법적인 군사 표적만 있는 지역에서 사용된다면 문제가 거의 발생하지 않을 수 있다. 반대로 단순히 표적만 제안하는 도구는 일견 무해해 보일 수 있다. 하지만 NGO인 아티클36의 표현대로 "인지적 명확성이나 인식 없이" AI가 제안한 개별 표적을 수동으로 승인하는 지휘관, 즉 아무 생각없이 빨간색 공격 버튼을 누르는 지휘관은 도덕적 책임을 기계에 넘긴 것이 된다.


이 문제는 두 가지 이유로 더욱 어려운 난제가 될 가능성이 높다. 하나는 AI가 AI를 낳는다는 점이다. 한 군대가 AI를 사용하여 목표물을 더 빠르게 찾아 타격하면 다른 군대도 이를 따라잡기 위해 AI에 의존할 수밖에 없다. 컴퓨터 시대가 시작된 이래 접근하는 위협을 추적하는 데 첨단 소프트웨어가 필수적으로 된 방공(防空) 분야에서는 이미 이런 일이 벌어지고 있다. 또 다른 이유는 인간 사용자가 군사 시스템의 동작과 한계를 파악하는 것이 점점 더 어려워질 것이기 때문이다. 홀랜드 미셸은 최신 머신러닝이 아직 "중대한" 의사 결정 지원 시스템에는 널리 사용되지 않는다고 지적한다. 하지만 곧 그렇게 될 것이다. 그리고 이러한 시스템은 적의 미래 의도나 감정 상태를 예측하는 등 "수학적으로 정의하기 어려운 작업"을 수행하게 될 것이라고 그는 지적한다.


심지어 핵 관련 의사결정에 AI를 활용하자는 이야기도 나오고 있다. (1950년대 이후 해왔던 것처럼) 국가가 각종 데이터를 융합하여 다가오는 위협을 추적할 수 있을 뿐만 아니라 적의 선제공격으로 우리측 정치 지도부가 사망으로 와해될 경우 자동으로 보복한다는 아이디어다. 소련은 냉전시대에 "페리메트르" 시스템의 일환으로 이런 종류의 "죽음의 손" 개념을 연구했다. 전 소련 공군 장교이자 군비통제 전문가인 레오니드 랴비킨은 이 시스템이 여전히 사용되고 있으며 현재는 AI 기반 소프트웨어에 의존하고 있다는 소문이 돌고 있다고 말한다. 2023년에는 미국 상원의원들이 "자율 AI에 의한 핵무기 발사 차단법"이라는 새로운 법안을 발의하기도 했다. 이 문제는 당연히 비밀스러운 영역이며 각국이 어느 정도까지 나아가고자 하는지에 대해서는 알려진 바가 거의 없다. 하지만 이 문제는 지난해 바이든과 시진핑 간의 정상회담에서 주요 의제로 다뤄졌을 만큼 중요한 사안이다.

사람의 역할

현재의 재래식 전쟁에서는 "누군가가 예스 또는 노라고 말할 시간이 거의 항상 있다"고 한 영국 장교는 말한다. "전체 킬체인에 대한 자동화가 필요하거나 추진되고 있지 않습니다." 하지만 러시아나 중국과의 고강도 전쟁에서도 그러할지는 덜 분명하다. 이스라엘의 엘리트 군사정보부대의 수장인 요시 사리엘 준장은 2021년에 익명으로 출간한 저서 '인간-기계 팀(The Human Machine Team)'에서 AI를 활용한 '인간-기계 팀'이 전쟁에서 "매일 수천 개의 새로운 표적"을 생성해낼 수 있다고 썼다. 그는 "새로운 표적을 찾는 것과 표적을 승인하는 의사결정 모두에 인간 병목현상이 있다"고 주장했다.


실제로는 이러한 모든 논쟁보다 실제 벌어지는 일들이 갈 길을 정해버린다. 러시아나 우크라이나 모두 드론이 "자율" 무기 시스템인지 아니면 단순히 "자동화" 무기 시스템인지에 대해서는 크게 신경 쓰지 않는다. 이들의 우선 순위는 적의 전파방해를 피하고 가능한 한 많은 적의 장갑을 파괴할 수 있는 무기를 만드는 것이다. 현재까지 1000개 이상의 우크라이나 의료 시설을 폭격한 러시아 군대나 생존을 위해 싸우고 있는 우크라이나 군대에게 오탐에 따른 오폭은 큰 문제가 되지 않는다.


나토(NATO) 국가들은 이 전쟁이 끝나면 AI 무기를 개발하고 전장에서 시험해본 경험이 풍부한 러시아 군대와 맞서 싸워야 할지도 모른다는 것을 잘 알고 있다. 중국 역시 미국과 동일한 기술을 많이 개발하고 있다. 중국 기업들은 민수용이나 산업용으로 미국에서 판매되는 드론의 대부분을 제조한다. 미 국방부의 중국 군사력에 관한 연례 보고서에 따르면 2022년 중국 인민해방군은 "빅데이터와 인공 지능을 사용하여" 인공위성이나 컴퓨터 네트워크와 같은 미국의 군사시스템 내 존재하는 "주요 취약점을 신속하게 식별"한 다음 공격할 수 있는 "다중 도메인 정밀전쟁"에 대해 논의하기 시작했다.


문제는 누가 우위에 있느냐이다. 한때 미국 관리들은 중국이 느슨한 개인정보 보호 규정과 민간 부문에 대한 통제력에 힘입어 더 많은 데이터에 접근할 수 있게 되어 미국보다 우수한 알고리즘과 무기를 개발할 수 있을 것이라고 우려했다. 하지만 이러한 우려는 이제 사라졌다. 미국 조지타운대의 보안신흥기술센터(CSET)가 최근 국방 획득 데이터를 조사한 결과, 미국과 중국이 "같은 종류의 AI 애플리케이션에 비슷한 수준의 관심을 기울이고 있다"는 사실이 밝혀졌다(차트 2 참조).


게다가 미국은 부분적으로는 반도체 중국 수출 제한 덕분에 최첨단 AI모델에서 앞서 나가고 있다. 데이터 회사인 에포크AI에 따르면 2023년에 미국은 61개의 주목할 만한 머신러닝 모델을 생산했고 유럽은 25개를 생산한 반면, 중국은 15개를 생산하는데 그쳤다. 이는 현재 군사용 모델은 아니지만 미래의 군사 시스템에 영향을 미칠 것이다. "중국은 군사 인공지능 분야에서 상당한 역풍을 맞고 있다"고 조지타운대 보안신흥기술센터의 샘 브레스닉은 주장한다. 그는 중국군이 세계적 수준의 시스템을 만들 수 있는 기술인재를 보유하고 있는지 여부도 불분명하며, 중국군의 중앙집중식 의사결정이 AI의 의사결정 지원을 방해할 수 있다고 지적한다. 많은 중국내 전문가들도 AI에 대해 "신뢰할 수 없다"며 우려를 표하고 있다. 또 다른 싱크탱크인 미국 신미국안보센터(CNAS)의 제이콥 스톡스는 "중국은 치명적인 군사력을 충분히 보유하고 있지만, 현재로서는 AI에 지원받은 자율성을 확보한 것으로 보이지 않는다"고 지적한다.


중국의 명백한 부진은 더 광범위한 패턴의 일부다. 런던 킹스칼리지의 케네스 페인처럼 일부는 AI가 전쟁 수행뿐만 아니라 전쟁의 본질적인 성격까지 변화시킬 것이라고 생각한다. "기계와 인간의 지능이 융합된 AI(인공+지능)는 전쟁에서 완전히 새로운 의사결정의 시대를 열 것"이라고 그는 예측한다. "아마도 수천 년 전 문자가 발견된 이래 가장 혁명적인 변화가 될 것입니다." 그러나 이러한 주장이 점점 더 그럴듯해지더라도 실제 변화는 여러 측면에서 여전히 멀게만 느껴진다.


영국의 퇴역 장군인 크리스 데버렐 경은 "아이러니한 점은 AI가 국방 분야에서는 어디에나 사용되고 있는 것처럼 이야기되고 있다는 점"이라고 지적한다. "영국 국방부의 AI 보급률은 거의 제로에 가깝습니다... 혁신할 부분이 많이 있습니다." 미 국방부의 고위관리는 미 국방부가 (데이터 이동 파이프인) 데이터 인프라, 그리고 파일럿 조종 전투기와 함께 작전을 펼치는 무인 항공기 부문에서는 상당한 진전을 이뤘다고 말한다. 그럼에도 불구하고 미 국방부는 예산의 1% 미만을 소프트웨어에 지출하고 있을 뿐인데, 이는 국방 기술 스타트업의 경영진이 자주 인용하는 통계다. 이 국방부 고위관리는 "[미 국방부]의 특수성은 무력사용을 수반하는 일을 맡고 있기 때문에 일의 결과가 매우 중대하다는 점"이라고 말하면서 이렇게 덧붙인다. "우리는 AI를 빠르게 그리고 안전하게 도입해야 합니다."


한편, 영국의 스톰클라우드는 "점점 더 좋아지고 있다"고 개발에 참여한 한 장교는 말하지만, 새로운 기술 도입을 둘러싼 조직내 정치와 관료주의로 인해 프로젝트가 더디게 진행되고 있다. 스톰클라우드 2.0 개발을 위한 예산은 국방 분야에서는 용돈에 불과한 1천만 파운드(약 175억원)이 책정됐다. 올해 몇몇 훈련에 사용할 계획이다. 이 장교는 "우리가 우크라이나이거나 조만간 전쟁이 일어날 것을 진정으로 걱정했다면 1억 파운드(약 1750억원) 이상을 들여서 몇 주 또는 몇 달 안에 배치했을 것"이라고 말한다.


1843년 창간돼 국제정세와 정치, 경제, 사회까지 폭넓게 다루고 있는 영국의 대표적인 주간지. 정통 자유주의 성향의 논평, 분석이 두드러지며 기사에 기자의 이름(바이라인)을 넣지 않는 독특한 전통을 가지고 있습니다. PADO가 가장 탐독하는 매거진이기도 합니다.
 
close
top