러시아-우크라이나 ‘드론 전쟁’
우크라이나군 한 군인이 전선에서 정찰 드론을 날리고 있다. [뉴시스]
최근 러시아-우크라이나 전쟁 양상을 보면 드론에 ‘자율성’을 더한 로봇이 등장해 눈길을 끈다. 자동 대응 동작을 코딩한 간단한 소프트웨어부터 인공지능(AI) 기술이 적용된 자율형 로봇까지 전장에 투입되고 있다. 그런 가운데 3월 중순 우크라이나 동부 격전지 아우디이우카에서 양측 무인 무기체계가 격돌했다. 인류 역사 최초로 ‘드론 vs 로봇’ 전투가 벌어진 것이다. 러시아는 아우디이우카 전투가 한창이던 지난해 12월 궤도형 전투 지원 로봇을 배치하기 시작했다. 이 로봇은 에스토니아가 개발한 ‘테미스(THeMIS)’라는 모델과 유사하지만 크기는 훨씬 작다. 궤도형 차체에 성인 남성 1명이 겨우 누울 수 있는 크기의 적재함이 있다. 우크라이나군이 노획해 분석해보니 러시아군 로봇은 원격 혹은 자동제어로 부상병을 실어 나를 수 있도록 설계됐다. 주변에 있는 적 드론의 제어 신호를 재밍(jamming)할 수 있는 전자전 키트도 부착돼 있다.
러시아군은 전투 지원 로봇을 전선에서 요긴하게 사용하고 있다. 보통 부상병이 생기면 적어도 병사 2명이 좌우에서 부축해 전선을 빠져나가야 한다. 총탄이 빗발치는 전장에서 적잖은 위험을 감수해야 하는 것이다. 이에 러시아군은 로봇 적재함에 부상병을 눕혀 후송하기 시작했다. 부상병을 태우러 가는 로봇의 빈 적재함에 탄약과 각종 보급 물자를 실어 보내는 일석이조 효과도 봤다. 무인 로봇은 전투에 직접 참가하는 무기는 아니지만, 일선 병력이 이른바 죽음의 무인지대에 갇혀도 생존할 수 있도록 돕는 장비로서 활약해왔다. 그 결과 러시아군은 높은 사기를 유지하며 아우디이우카 점령에 성공했다.
사상 첫 드론 vs 로봇 대결
우크라이나군의 드론 공격을 막기 위해 러시아군 전차에 탑재된 볼로네즈(Volnorez) 재머(원 안). [AFV Recognition 제공]
당시 우크라이나군은 1인칭 시점(FPV) 드론으로 전장을 정찰하다가 지면에서 작은 물체가 이동하는 것을 발견했다. 탄약을 싣고 러시아군 참호로 가던 로봇이었다. 로봇 정체를 식별한 우크라이나군은 곧장 FPV 드론을 충돌시켜 로봇을 파괴했다. 실전에서 드론으로 로봇을 파괴한 첫 사례다. 이제까지 전투용 드론은 적 기갑차량이나 건물, 진지를 공격하는 데 쓰였다. 미래 전투에선 인간이 탑승하지 않은 드론이나 로봇도 무인 무기의 공격 대상이 될 수 있음을 보여준 것이다. 전쟁사의 한 페이지를 장식할 만한 사건이었다. 그런데 이로부터 일주일도 지나지 않아 우크라이나 전장에선 드론 vs 로봇 전쟁사의 일대 사건이 또 벌어졌다. AI 드론이 전장에 투입돼 인간 전투 병력을 살상하는 초유의 사건이 일어난 것이다.
동부전선 격전지 쿠퍈스크에서 방어전을 벌이던 우크라이나군 제60기계화여단은 3월 셋째 주 새로운 드론 시스템을 만들어 작전에 투입했다. 민간 전문가들을 초빙해 러시아군 방어 시스템을 극복할 수 있는 신무기를 개발한 것이다. 최근 러시아군은 우크라이나군의 통제 전파를 교란해 드론을 무력화하는 재밍 시스템을 일선 부대에 보급하고 있다. 이에 FPV 드론의 공격 성공률이 떨어지자 우크라이나군은 전파 방해에도 표적을 공격할 수 있는 방법을 모색하기 시작했다. 그 결과 등장한 것이 AI가 접목된 전투용 드론이다.
기존 FPV 드론은 이륙부터 표적 충돌까지 모든 과정을 인간이 컨트롤러로 조종해야 헸다. 재밍 같은 돌발 변수가 생기면 조종 신호가 끊겨 그대로 추락하거나, 사전에 입력된 복귀 좌표로 자동으로 귀환할 수밖에 없었다. 반면 이번에 등장한 AI 드론은 조종 신호가 끊겨도 자동으로 주변을 탐색해 적을 식별하도록 설계됐다. 즉 표적 공격 여부를 인간이 아닌 AI가 결정하는 것이다. 우크라이나군 제60기계화여단의 AI 드론은 재밍으로 조종 신호가 끊기자 자체 판단에 따라 지상에 있던 러시아군 전차를 향해 돌진했다. T-80BVM으로 추정되는 러시아군 전차는 드론에 피격된 후 그대로 무력화됐다.
AI 무기 금기 깬 우크라이나
우크라이나군이 최근 드론으로 러시아군 로봇을 격파했다며 공개한 영상 속 모습. [우크라이나군 제공]
AI로 하여금 전장에서 표적을 식별해 추적·조준·공격하게 하는 것은 기술적으로 그리 어려운 일은 아니다. 전투 승패와 효율만 고려한다면 AI를 적용한 살상무기 개발은 지극히 합리적인 결정이다. 하지만 윤리 측면에서 보면 이는 대단히 위험한 일이다. 인간을 살상하도록 AI 무기를 학습시키고, 전장에서 실제로 인명을 해칠 권한을 AI에 부여하는 것이기 때문이다. 이 때문에 세계 여러 나라는 AI 무기체계 개발에 많은 투자를 하면서도 AI 스스로 살상 여부를 결정할 수 있는 무기는 만들지 않았다. 이 같은 법적·윤리적 금기를 우크라이나가 AI 드론으로 적군을 살상함으로서 깨버린 것이다.
“AI, 인류 멸망시킬 수도” 호킹의 경고
러시아의 전투로봇 Uran-9. [위키피디아]
금기는 처음 깨는 게 어렵지, 누군가 한 번 선을 넘으면 두 번째, 세 번째는 쉽다. 한때 기관총과 산탄총을 ‘악마의 무기’라며 꺼리던 열강은 제1차 세계대전이 격화하자 서슴없이 이들 무기를 대거 도입했다. 그런 점에서 AI 살상 로봇의 대량 확산은 이제 시간문제가 됐다고 할 수 있다. 세계 주요국은 이미 개발된 원격 조종 방식의 무인 무기에 살상 판단 능력을 가진 AI를 적용할 것이다. 인류는 머지않은 미래 전장에서 AI 로봇이 인간을 ‘효율적으로’ 살상하는 시대를 맞이할 수도 있다. 스티븐 호킹 박사는 “AI가 인류를 멸망시킬 수 있다”며 AI 개발과 무기화에 신중을 기해야 한다고 여러 차례 경고했다. 우크라이나 전장에서 깨진 AI 살상무기 금기를 국제사회가 다시 복원하지 않는다면 기계가 인간을 위협하는 영화 속 디스토피아(dystopia)가 현실이 될 수도 있다.