본문 바로가기

주간동아 로고

  • Magazine dongA
통합검색 전체메뉴열기

SCIENCE

킬러 로봇과 美 국방부, 누가 더 잔인할까

세계 곳곳 전쟁터 로봇 무기 투입 … 미국, 윤리성 논란에 ‘교전수칙’ 프로그램 개발

  • 박근태 동아사이언스 기자 kunta@donga.com

킬러 로봇과 美 국방부, 누가 더 잔인할까

킬러 로봇과 美 국방부, 누가 더 잔인할까

1 미국의 무인공격기 리퍼(Reaper).

공상과학(SF) 영화의 소재로만 여겨지던 로봇 전쟁이 현실화되고 있다. 미국은 아프가니스탄과 이라크 전장에서 무인공격기를 이용한 지상 공격을 수행한다.

2003년 3월 이라크전쟁 발발 이후 4300명 이상의 전사자를 낸 미군 처지에서는 로봇이 매력적인 무기일 수밖에 없다. 최근 미국의 유력 일간지 ‘로스앤젤레스 타임스’는 지난해 8월 이후 알카에다가 장악한 파키스탄 북부에서 프레더터 무인공격기의 공습이 급증했다고 보도했다.

하지만 국제분쟁 전문가들은 이들 로봇 무기 때문에 전쟁이 잔혹해지고 있다고 지적한다. 로봇 무기를 사용하는 측은 희생을 줄일 수 있지만 상대는 가혹하리만큼 심각한 피해를 입게 된다는 것이다. 실제 미군의 무인공격기가 탈레반 게릴라들이 은신하고 있을 것으로 추정되는 아프가니스탄의 한 마을을 공격하는 영상이 인터넷 동영상 사이트 유튜브에 공개되자 로봇 무기의 비윤리성이 지적됐다. 스스로 판단하고 행동하는 인공지능 로봇의 등장이 가까워지면서 전쟁 로봇의 윤리성 논란을 비켜가기 힘들어졌다.

로봇 전쟁에 전투 윤리 도입

킬러 로봇과 美 국방부, 누가 더 잔인할까

2 폭탄탐지형 로봇 마크봇(Marcbot).

비난이 빗발치자 미 국방부도 대안 마련에 나섰다. 대표적인 예로 전투 로봇에게 ‘교전수칙’을 가르치는 기술이 개발되고 있는 것. 교전수칙은 전쟁에서 적과 맞닥뜨렸을 때 취해야 할 적법한 대응 절차를 담은 규칙이다.



킬러 로봇과 美 국방부, 누가 더 잔인할까

3 전투로봇 프로그램을 작동시키는 미군.
4 교전수칙 프로그램.
5 전자동 기관총을 매단 마르스(MAARS) 팩봇.

적군과 아군의 식별이 어려운 현대전에서 교전수칙은 무고한 희생을 최소화하는 방패막이 구실을 한다. 그러나 최근까지도 로봇 무기가 투입된 전투에서는 제대로 적용되지 않고 있다.

미국 조지아공대 연구팀이 개발 중인 ‘에티컬 거버너(Ethical Governor)’ 프로그램은 무인공격기의 무차별적 공격을 막기 위한 소프트웨어다. 실제 이 프로그램은 최근 아프가니스탄과 이라크에서 벌어진 수많은 전투 상황을 바탕으로 한다.

연구팀을 이끌고 있는 론 아킨 박사는 “무인공격기가 전투 현장 상황을 인식하고 교전수칙을 따르도록 하는 것이 프로그램을 개발하는 목적”이라고 말한다.

연구팀은 전투 로봇이 정확한 판단을 내리도록 시나리오별로 대응방법을 짰다. 시나리오에는 2006년 탈레반이 장악한 아프가니스탄 북부에서 미군이 직면한 상황도 포함됐다. 당시 미군 정찰부대는 한 공동묘지에서 탈레반 게릴라의 활동을 포착했다. 공동묘지는 국제적으로 군사 행동을 엄격히 금지하는 구역. 만일 교전수칙을 모르는 전투로봇이 공격을 감행한다면 자칫 국제사회의 비난을 감수해야 할 수도 있다.

이 프로그램은 병원 인근 도로를 지나는 게릴라 차량 행렬도 공격 대상에서 제외한다. 로봇에서 발사된 미사일이 환자들로 붐비는 병원에 떨어질 것을 우려해서다. 이처럼 교전수칙 프로그램은 민간인이 피해를 입을 것으로 예측되면 전투행위를 즉각 중단하도록 하고 있다.

프로그램 개발에는 과학자뿐 아니라 전투를 경험한 전역 군인들도 참가했다. 베트남전쟁에 참가한 미군 전역자들은 “전투가 벌어지면 병사들은 움직이는 것은 모조리 총으로 쏴버리는 경향이 있다”며 “병사들의 이런 전투 습관을 프로그램에 반영해야 한다”고 조언했다.

물론 전투 로봇에게 교전수칙을 가르치는 것에 대한 회의론도 있다. 미국 카네기멜론대의 로봇 전문가 일리아 노바쿠시 박사는 “전투처럼 긴박한 상황에서 로봇이 과연 얼마나 정확한 판단을 내릴 수 있을지 의문”이라며 “로봇 기술의 발전 속도로 볼 때 비현실적”이라고 주장한다. 일부 로봇 전문가들은 로봇이 윤리적 판단을 내리는 지적 능력을 갖추는 것 자체가 불가능하다고 보고 있다.

“로봇이 윤리적 판단을?” 회의론 팽배

영국 셰필드대 노엘 샤키 박사도 “로봇 전쟁은 점점 기정사실화되고 있지만 로봇이 복잡한 윤리적 판단을 내릴 수 있을지는 의문”이라고 말했다. 그는 “로봇은 화를 내거나 복수를 꿈꾸지 않지만 동정심이 없는 것도 사실”이라며 “처음부터 명백하고 엄격한 윤리 기준을 프로그램에 적용하는 것이 더 현실적”이라고 말한다.

미 국방부에 따르면 아프가니스탄과 이라크 전장에는 현재 약 2000대의 로봇이 활약하고 있다. 미 국방부 산하 고등연구기획청(DARPA)을 포함한 각국의 주요 무기 연구기관들은 미래전투체계(FCS)에 무인 전투차량을 포함하는 등 전투 로봇의 도입을 가속화하고 있다. 미국은 2012년까지 인간 병사와 전투 로봇이 합동작전을 펼치는 실전 부대를 창설한다는 계획도 갖고 있다.

이런 상황에서 로봇이 교전수칙을 무시하고 무차별 공격에 나선다면 어떻게 대응해야 할까. 국방과학연구소(ADD)의 한 관계자는 “폭발력이나 파편으로 파괴하는 전통적인 무기보다 전자폭탄 같은 전자전(電子戰) 장비를 활용해야 한다”고 말한다. 전자폭탄은 폭발 순간 강한 마이크로 전자파를 내뿜어 반경 수km 안에 있는 모든 전자기기를 순식간에 고장내버린다. 로봇을 직접 파괴하기보다 전자기기의 기능을 상실시키는 것. 실제 2003년 미국은 이라크 국영방송에 전자폭탄을 떨어뜨려 이라크 전역을 공황상태에 빠뜨리기도 했다.

원격조종을 방해하는 주파수를 쏘거나 로봇이 연결된 무선통신 네트워크에 컴퓨터 바이러스를 심는 방법도 고려되고 있다. 재래식 수단으로 ‘탄소섬유탄’이 사용될 수도 있다. 수 나노미터(nm·1nm는 1m의 10억분의 1)∼수 마이크로미터(μm·1μm는 1m의 100만분의 1) 굵기의 탄소가루를 로봇에 뿌려 정교한 회로를 합선시키는 원리다. 그러나 미국 이스라엘 프랑스 등 주요 선진국도 아직까지 전투 로봇의 무차별 공격에 대한 방어 기술을 내놓지 못하고 있다.



주간동아 2009.07.21 695호 (p64~65)

박근태 동아사이언스 기자 kunta@donga.com
다른호 더보기 목록 닫기
1218

제 1218호

2019.12.13

“긴 터널 빠져나오자 우울의 고장”

목차보기구독신청이번 호 구입하기

지면보기 서비스는 유료 서비스입니다.