주간동아 1420

..

이스라엘-하마스 전쟁에 등장한 AI ‘하브소라’

방대한 데이터 분석으로 하마스 요원 위치 찾아내고 민간인 피해 최소화

  • 이종림 과학전문기자

    입력2023-12-25 09:00:01

  • 글자크기 설정 닫기
    세 달 가까이 이어지고 있는 이스라엘-하마스 전쟁에 첨단 인공지능(AI)까지 도입됐다. 이스라엘 방위군(IDF)은 AI 타기팅 시스템을 통해 하마스 요원의 위치를 찾아내 폭격하는 공습을 하고 있다. 더 많은 폭격 대상을 찾고 민간인 사망자 수를 사전에 추정해 피해를 최대한 줄이기 위한 시스템이다.

    27일간 1만2000개 이상 목표물 공격

    이스라엘의 가자지구 공습으로 폐허가 된 마을. [뉴시스]

    이스라엘의 가자지구 공습으로 폐허가 된 마을. [뉴시스]

    11월 2일 IDF는 웹사이트를 통해 “방대한 데이터를 분석해 적 위치를 신속하게 찾고 목표물을 생성하기 위해 ‘하브소라’(Habsora: 히브리어로 복음이라는 뜻) AI 시스템을 사용하고 있다”며 “하마스와 관련된 인프라를 정확히 공격하고 관련되지 않은 민간인 피해를 최소화하고자 이러한 시스템을 도입한 것”이라고 밝혔다. IDF는 AI를 통해 빠른 속도로 표적을 생성함으로써 27일간 전투에서 1만2000개 이상 목표물을 공격했다고 주장했다. 이는 하루에 400개 넘는 목표물을 공격한 셈이다.

    하브소라는 이스라엘 통신정보부가 개발한 프로그램으로 타깃을 결정하는 데 도움을 주는 일종의 AI 기반 의사결정 지원 시스템이다. 이 AI 시스템은 하마스나 팔레스타인 이슬라믹 지하드 무장세력이 거주할 가능성이 있는 집 또는 지역을 표적 삼아 공습을 가할 수 있는 권장 사항을 제시한다. 또한 주택 공격으로 얼마나 많은 민간인이 사망할 수 있는지 미리 예상하고 잠재적인 부수 피해를 평가한 결과에 따라 공격을 결정하도록 돕는다.

    하브소라는 머신러닝 알고리즘의 핵심 기능인 ‘확률적 추론’ 방법을 통해 표적을 생성한다. 기본적으로 대량의 데이터를 분석해 패턴을 식별하고 결괏값을 설정하는 기술이다. 이러한 알고리즘의 효율과 정확도는 주로 처리하는 데이터의 품질과 양에 따라 달라진다. IDF는 최근 수년간 무장세력 용의자 3만~4만 명에 대한 데이터베이스를 구축해 거주 정보 등을 수집해왔다. 이 정보와 함께 드론 영상, 위성 감시 데이터, 통신 감청, 세부적 움직임과 행동 패턴 모니터링 등으로부터 얻은 대규모 정보 세트를 분석해 타기팅 기반으로 삼는다.

    IDF에서 표적화 작업을 수행한 탈 미므란 예루살렘 히브리대 강사는 미국 국립공영라디오를 통해 “AI 시스템은 인간의 인지 능력을 능가하는 속도로 기존 정보 요원들이 하던 일을 대신한다”며 “장교 20명으로 구성된 그룹이 300일 동안 50~100개 표적을 생성할 수 있는 데 비해, 하브소라는 10~12일 동안 약 200개 목표를 생성한다”고 설명했다. 실제로 IDF는 표적 프로그램 가동 전 연간 50개 표적을 생성했지만, 시스템이 활성화된 이후부터는 하루 100개 이상 표적을 생성할 수 있게 됐다고 밝혔다.



    미·중·러, AI 군사도구 개발

    이스라엘군이 인공지능(AI)으로 가자지구 내 하마스 무장세력을 표적화해 공격하고 있다. [이스라엘공군 제공]

    이스라엘군이 인공지능(AI)으로 가자지구 내 하마스 무장세력을 표적화해 공격하고 있다. [이스라엘공군 제공]

    무엇보다 IDF는 이러한 AI 시스템을 도입한 이유로 더욱 정확하게 표적화된 목표를 공격해 민간인 사상자를 줄이기 위함이라는 명목을 내세운다. 하브소라는 건물에서 대피하는 민간인 비율을 측정해 얼마나 많은 민간인이 남았는지를 마치 신호등처럼 빨강, 노랑, 초록색으로 한눈에 보기 쉽게 표시해주는 기능까지 지원한다. IDF는 이러한 AI 기술을 통해 타기팅의 정확성이 향상됐다고 주장하지만, 일각에서는 AI 오작동 우려도 나온다. AI 시스템의 본질은 어떠한 유형의 추론이나 사실적 증거 또는 ‘인과관계’가 아닌, 과거 데이터로부터 얻은 통계적·확률적 추론과의 상관관계를 기반으로 결괏값을 제공하는 것이다. 이 때문에 이번 전쟁의 표적도 잘못 분류할 가능성이 있다.

    미국 뉴욕시립대(CUNY) 대학원 센터와 오리건 주립대 지구환경과학 공동연구팀이 분석한 자료에 따르면 이번 전쟁으로 가자지구의 건물 3개 중 1개가 손상되거나 파괴된 것으로 집계됐다. 그 과정에서 팔레스타인 민간인 피해는 계속해서 늘어나고 있다. 가자지구 보건부에 따르면 지금까지 1만8000명 넘는 팔레스타인인이 사망했으며 이들 중 대다수가 여성과 어린이였다.

    AI가 전쟁에 도입된 것은 이번 이스라엘-하마스 전쟁이 첫 사례는 아니다. 러시아는 우크라이나 침공을 통해 드론, 위성과 관련된 AI 기술을 사용했으며, 중국도 관련 무기를 개발하고 있다. 미국 또한 현장에서 표적을 식별하는 AI를 개발 중이다. 미 국방부가 추진하는 AI 프로젝트 ‘메이븐(Maven)’을 통해 AI 컴퓨터 비전 프로그램을 만들고 있다. 이 프로그램 중 일부 도구는 인간 분석가가 검색할 수 있는 양보다 훨씬 많은 위성 이미지를 수집하며, 상용 컴퓨터 비전 알고리즘을 사용해 탱크나 대공포를 직접 찾아내기도 한다.

    미국공군연구소가 AI 프로젝트 ‘메이븐’의 일환으로 개발한 차세대 ‘공공 경찰·전자전 체계(ARES)’ 항공기 자율연구시스템. [미국공군연구소 제공]

    미국공군연구소가 AI 프로젝트 ‘메이븐’의 일환으로 개발한 차세대 ‘공공 경찰·전자전 체계(ARES)’ 항공기 자율연구시스템. [미국공군연구소 제공]

    전문가들은 AI를 통한 이런 타기팅 알고리즘이 결국 전장에 배치될 자율시스템의 중간 단계라고 본다. 오늘날 자동화 무기는 2가지 주요 범주로 분류된다. 하나는 인간의 개입 없이 완전 자동화된 치명적인 무기 시스템이고, 다른 하나는 원칙적으로 인간이 제어할 수 있는 자율 무기다. AI 기술은 하브소라 같은 정보·감시·정찰 지원부터 스스로 목표물을 선정하고 공격하는 자율 무기 시스템에 이르기까지 다양한 단계에 적용될 수 있다. 전쟁에서 AI 기술 장악력이 커질수록 윤리적 문제에 관한 논란도 심화할 수밖에 없다. 사람의 개입 없이도 표적을 식별하고 사살하는 AI 드론이나 킬러 로봇이 전쟁에 투입된다면 AI 사용과 분쟁에 관한 책임 소재를 따지기가 더욱 어려워질 수 있다.

    군사적 AI 사용, 국제 안보 강화해야

    전쟁에 AI 도입이 현실화되자 11월 40여 개국은 군사 목적으로 AI를 책임 있게 사용하는 것에 관한 정치적 선언을 발표했다. 한국을 포함해 미국, 프랑스, 독일, 캐나다, 호주, 싱가포르, 일본 등이 참여했으며 북한, 러시아, 중국, 이스라엘은 빠졌다. 미국 국무부는 2월 가이드라인을 통해 AI의 군사적 사용이 윤리적이고 책임감 있게 이뤄져야 하고 국제 안보를 강화해야 한다고 강조했다. 이와 함께 국가가 자율시스템을 개발할 때 구현해야 할 조약들을 규정했는데, 여기에는 하브소라 같은 AI 기반 의사결정 지원 시스템이나 정보 수집 시스템도 포함된다. 마르타 보 스톡홀름 국제평화연구소 연구원은 ‘가디언’을 통해 “전쟁에 도입되는 AI 기술은 인간이 개입하더라도 ‘자동화 편향’(보조 도구에 지나치게 의존하는 것)을 유발한다”며 “AI 시스템에 의존할수록 기계화된 방식 탓에 민간인 피해를 고려하는 능력을 상실할 위험이 있다”고 덧붙였다.



    댓글 0
    닫기