주간동아 1244

..

자율주행 자동차에 공간지각 솔루션 제공하는 ‘멀티플아이’ [유니콘의 새싹]

  • 박세준 기자 sejoonkr@donga.com

    입력2020-06-21 08:00:01

  • 글자크기 설정 닫기
    멀티플아이의 임종우 대표.

    멀티플아이의 임종우 대표.

    어린 시절 TV에서 보던 로봇은 대부분 사람과 비슷한 모습을 하고 있다. 특히 얼굴, 그 중에도 눈이 사람과 닮았다. 로봇에서 귀와 코, 입은 찾아보기 어려운 경우도 있지만, 눈은 두 개인 경우가 많았다. 눈의 위치와 모양도 사람과 비슷하다. 

    하지만 실제 AI의 눈은 사람과 많이 다르다. 카메라 하나 혹은 다수가 눈의 역할을 하는 경우가 많다. 보통 사람이나 동물의 시야는 사물을 식별하는 것 외에 거리를 어림할 수 있게 한다. 이는 양 눈의 다른 시야를 이용하는 방식이다. 한 눈을 감고 사물을 보면 사물의 위치가 조금씩 다르게 보인다. 두 시야가 겹치는 부분에서 시신경과 뇌가 동일한 물체를 인식해, 처리한다. 때문에 조금 더 정확하게 거리를 알 수 있게 된다. 

    AI는 그동안 이 같은 기능을 센서 같은 보조 장치에 양보해 왔다. 눈(카메라)으로 사물을 본다고 보기는 어려웠다. 카메라는 부차적 역할을 하고, 주 역할은 센서에 있었다. 때문에 본다고 이야기하기보다는 사물이 해당 위치에 있음을 지각하는 정도였다. ‘멀티플아이’는 인공지능에 동물의 시각을 도입하려 한다. 네 방향에 설치된 광각 카메라를 통해 사물 식별은 물론 거리까지 측정해내는 기술을 개발해 냈다. 이 기술을 20여 년간 연구해 온 한양대학교 컴퓨터소프트웨어학부 임종우 교수가 직접 대표로 창업에 나섰다. 아래는 임 대표와의 일문일답.

    테슬라 충돌 방지 기술


    -멀티플아이가 보유한 특유의 시각 기술은 뭔가? 

    “동물의 시각을 생각하면 이해가 쉽다. 보통 동물은 두 눈으로 사물을 보고, 두 눈의 다른 시야로 사물간의 거리를 확인한다. 더 자세히 설명하면, 눈(카메라)의 시야가 겹치는 지점의 사물을 기준으로 거리를 계산하는 방식이다. 카메라의 화각이 겹치는 지점의 사물을 보고, 두 이미지가 얼마나 다른지를 확인해 거리를 계산한다. 전 방위 감지가 가능하도록, 4개의 광각 카메라를 이용해 전 방위를 볼 수 있게 만들었다.” 

    -기존의 카메라는 거리를 파악할 수 없었나. 

    “그렇다. 단적인 예로 6월 3일 사고를 낸 테슬라 자율주행 차를 보면 알 수 있다. 테슬라의 자율주행 차량이 전복된 트럭을 피하지 못하고 그대로 돌진해 충돌한 일이다. 카메라 시각으로 자율주행 AI가 주변을 지각하는데, 트럭을 보고 거대한 벽이 아니라 빈 공간으로 인식한 듯 보인다. 시각이 넓지 못해 주변 환경과 다른 벽이라는 것을 인지하지 못했고, 갑자기 거리가 가까워진 장애물이 생겼다는 것을 확인하지 못해 생긴 사고라 본다.”



    -멀티플아이의 기술로는 충분히 막을 수 있는 사고였나? 

    “아직 자율주행 차량에는 멀티플아이의 장치를 설치해 실험해 본 적은 없으니 확신할 수는 없다. 하지만 안전하게 멈췄을 가능성은 높다. 전 방위를 보고 거리를 측정할 수 있는 기술이니, 전복된 트럭이 장애물인지, 아니면 빈 공간인지는 인식할 수 있다.”

    자율비행 드론도 적용 가능

    임 대표가 멀티플아이의 기술에 대해 설명하고 있다.

    임 대표가 멀티플아이의 기술에 대해 설명하고 있다.

    -멀티플아이만의 장점이 있다면? 

    “그 동안은 화각이 겹치는 부분을 제대로 이용하지 못했다. 사람이나 동물은 각 눈에 비친 사물의 위치가 달라도 이를 시신경과 뇌를 이용해, 같은 사물로 인식해 거리를 측정하는데 활용한다. 하지만 컴퓨터는 이 인식이 어렵다. 멀티플아이는 딥러닝을 이용해 이를 해결했다. 가상 공간 이미지를 여러 장 학습시켜, 카메라만으로 사물간의 거리를 계산할 수 있게 만들었다.” 

    -센서나 레이더 등 보조 장치는 필요 없나. 

    “동물이 오감을 동원해 사물을 지각하는 것처럼, 인공지능의 시각에도 보조장치는 필요하다. 특히 자율주행 등 고속으로 움직이는 경우에는 눈으로 보이는 거리 외에도 다양한 변수를 해결해야 한다. 근거리에 있는 사물에는 멀티플아이의 카메라만으로 반응할 수 있지만 눈에 보이지 않는 사물은 레이더 등의 보조 장치가 필요하다.”

    -라이다를 대체할 수 있는 기술로 알려져 있다. 

    “라이다는 빛을 사물에 쏘고, 그 빛이 돌아오는 시간을 계산해 사물간의 거리를 측정하는 도구다. 현존하는 근거리 측정 도구 중 가장 정확하다. 문제는 가격과 내구성이다. 높은 가격에 내구성도 낮으니 자율주행차 업계에서는 라이다를 대체하는 일에 관심이 많다. 하지만 아직은 시기상조다. 카메라는 이미지는 정확히 볼 수 있으나, 움직이는 사물의 거리 측정에는 다소 오차가 있을 수 있다. 특히 3D 가상 이미지만 학습해 놓은 상태이기 때문에 실제 주행에서는 인식률이 떨어질 수 있다. 라이다를 통해 실제 거리를 계산하고, 이를 카메라로 다시 측정해 지속적으로 학습 시켜 AI를 고도화한다면, 가까운 미래에는 라이다를 대체할 수도 있다.”

    -당장 멀티플아이의 기술이 접목 가능한 분야는 뭔가? 

    “지금은 3D 지도를 만드는 데에 사용하고 있다. 전 방위 감지가 가능하고 한 번 움직이면 각 사물간의 거리도 기록할 수 있으니, 지하 대형 쇼핑몰 등에서 관심을 보이고 있다. 자율주행 관련해서는 배달이나 접객 로봇에 먼저 활용할 예정이다. 자율주행 자동차에 비해서는 저속으로 움직이고 장애물들의 속도도 높지 않아, 금방 접목이 가능할 것으로 보인다.” 

    -멀티플아이의 최종 목표는 자율주행업계 진입인가? 

    “AI가 카메라만으로 근거리 인식을 할 수 있게 만들고 싶다. 자율주행 업계 외에도 드론 등 비행 업계에서도 관심을 보이고 있다. 전 방위를 인식하는데다가 거리도 측정할 수 있으니, 드론에 해당 연산을 할 만한 장치가 들어갈 수 있다면, 쉽게 접목할 수 있다. 이외에도 활용방안은 무궁무진하다. AI에 시각이 필요한 곳이라면 어디든 적용할 수 있다.”



    댓글 0
    닫기