주간동아 711

..

“안경을 어디에 뒀더라?” “거실 테이블에서 인식됐습니다”

구글이 상상하는 검색의 미래 … 개인화, 모바일, 다양한 미디어 등 ‘진화 요인’ 풍성

  • 정리=강지남 기자 layra@donga.com 도움말 : 구글 www.google.com

    입력2009-11-09 18:09:00

  • 글자크기 설정 닫기
    “안경을 어디에 뒀더라?” “거실 테이블에서 인식됐습니다”
    2019년 여름, 직장인 구보 씨가 모처럼의 휴가를 맞아 친구들과 경남 통영 앞바다에서 요트를 타고 있다. 앞에 가는 멋진 요트를 발견한 구보 씨의 친구들은 ‘저 요트는 어느 회사 제품이고 값은 얼마일까’를 주제로 잡담을 나눈다. 친구들이 대화하는 동안 구보 씨는 익숙한 손놀림으로 휴대전화를 요트를 향해 놓는다. 눈 깜짝할 사이 휴대전화에선 “2019년 1월1일 씨엘사가 생산한 요트로 모델명은 AC109L, 가격은 1억5000만원입니다”라는 아리따운 아가씨의 목소리가 흘러나온다.

    친구들이 그만하면 적당한 가격인지 갑론을박을 벌이는 사이, 하늘 위로 별나게 생긴 새가 ‘꺼억꺼억’ 소리를 내며 지나간다. 그 새가 어떤 새인지 궁금한 구보 씨는 재빨리 휴대전화로 새의 울음소리를 녹음한 뒤 검색버튼을 눌렀다. 그러자 역시 ‘아가씨’가 어디서 서식하고 습성이 어떠한 새인지, 남해 지역에 몇 개체나 서식하고 있는지 친절하게 설명해준다.

    구보 씨라는 가상의 인물을 통해 10년 후 인터넷 검색 모습을 그려봤다. 이 일화가 함의하는 것 중 하나는, 미래에는 필요한 정보를 언제 어디서든 검색할 수 있어야 한다는 점이다. 컴퓨터 앞에서는 물론 달리는 차에서나 바다 위 요트, 하늘을 나는 비행기 안에서도 검색할 수 있어야 한다. 검색도구는 컴퓨터와 휴대전화는 기본이고 아직 개발되진 않았지만 몸에 착용하는 ‘입는 컴퓨터’일 수도 있다.

    사진, 음성으로 검색 가능

    좀 억지스러운 생각인지 모르지만 대화 중에 나온 말들을 골라 자동으로 검색한 뒤 그 결과를 실시간 보여주는 ‘핸드백 컴퓨터’가 있다면 어떨까? 이런 식의 검색은 검색 ‘방식’이 지금의 텍스트에서 음성이나 자연언어로 확장될 것이란 점을 시사한다. 대화 중 나온 ‘뮤지컬 캣츠 공연시간’ ‘칠면조 무리를 뜻하는 단어’ 등 음성 자체로 검색이 이뤄지는 것이다. 다시 말해 검색을 한다고 해서 반드시 검색창에 검색어를 텍스트로 입력할 필요가 없다.



    더 나아가 검색이 단어를 기반으로 이뤄질 이유도 없다. 구보 씨처럼 미래에는 사진, 동영상, 새소리, 물소리, 바람소리로도 검색이 가능해질 것이다. 문득 어떤 노래의 한 소절이 떠올라 그 노래에 관한 정보가 궁금해졌다면, 검색엔진에 아는 만큼 노래를 불러주고 이 노래의 제목, 가수, 수록 앨범, 출시연도, 과거 빌보드차트 순위 등을 찾도록 명령할 수 있게 될 것이다.

    아직 이런 기술이 개발되진 않았지만 구글은 10년 안엔 실현 가능하리라 예상한다. 검색결과를 표현하는 미디어 또한 다양해질 것이라고 내다본다. 현재 검색결과에서 볼 수 있는 파란줄 링크들만 해도 매우 놀라운 발전으로, 우리의 생활을 크게 바꿔놓았다. 그러나 브라운아이드걸스의 ‘시건방 춤’이 어떤 동작으로 구성됐는지 궁금한 구보 씨에게 가장 유용한 정보는 텍스트 기반의 웹페이지가 아닌 동영상일 것이다.

    미래의 검색엔진은 구보 씨에게 시건방 춤을 따라하기 쉽게 가르쳐주는 동영상을 가장 먼저 찾아줄 것이다. 지난해 구글이 발표한 ‘유니버설 서치’는 구글 검색결과가 텍스트뿐 아니라 이미지, 동영상, 뉴스, 책, 지도, 현지정보 등을 모두 보여주기 시작했음을 알리는 첫걸음이었다. 그러나 유니버설 서치는 여전히 평면적이다. 즉, 검색결과가 리스트 형식으로 제공될 뿐 어떤 정보가 더 적합한 검색결과인지는 보여주지 못한다.

    만일 검색결과 페이지가 대대적으로 혁신을 해 가장 연관성 높은 검색결과만-그것이 이미지든 동영상이든 책이든 지도든-한데 모아 보여준다면 어떨까? 또한 검색결과의 나열도 지금처럼 리스트 형식이 아니라 입체적인 기둥 모양으로 바뀔 수 있다. 구글은 이런 미래의 실현을 위해 검색결과 미디어의 다양화, 좀더 편리한 유저 인터페이스(UI·User Interface) 개발에 이미 착수한 상태다.

    ‘개인화’ 검색으로 당장 필요한 정보 제공

    “안경을 어디에 뒀더라?” “거실 테이블에서 인식됐습니다”

    구글은 ‘미래의 검색’이 현재보다 훨씬 진화하리라 생각하고 여러 다양한 신기술을 개발 중이다.

    구보 씨는 얼마 전 회사를 그만두고 개인사업을 시작한 옛 동료를 만나러 가는 중이다. 아파트 주차장에서 휴대전화 무선인터넷에 접속해 ‘AF’를 검색하자, 한남동에 있는 산악자전거 전문숍 ‘AF’의 위치가 표시된 지도가 뜬다.

    구보 씨는 휴대전화가 실시간 교통정보를 감안해 안내해주는 가장 빠른 길을 따라 운전한다. 그리고 가는 길 중간에 있는, 누리꾼들 사이에서 평판이 좋은 꽃가게에 들러 개업축하 화분을 산 다음 AF 사장으로 새 출발한 동료에게 건넨다.

    지금 구글에 ‘AF’를 검색해보자. 프랑스 항공사 Air France, 의류브랜드 Abercrombie and Fitch가 맨 위에 나타난다. 검색엔진이 구보 씨에 대해 아는 게 없기 때문에 한남동 산악자전거 전문숍 AF의 사장인 동료를 만나러 가는 구보 씨에게 하등 도움 될 것 없는 정보를 제공한 셈이다.

    그러나 미래의 검색엔진은 구보 씨가 당장 필요로 하는 검색결과를 제공할 수 있게 될 것이다. 구보 씨가 자신의 정보를 공유하도록 허가한다면 검색엔진은 구보 씨의 ‘사회적 맥락’을 분석해 그의 지인 중 한 사람이 AF의 사장이며 곧 그를 만나러 간다는 사실을 스스로 알아낼 것이다.

    또 구보 씨의 위치 정보를 이용해 그의 집에서 한남동 AF까지 가는 길에 있는, 괜찮은 꽃가게 정보를 찾아내 제공할 것이다. 이처럼 미래의 검색엔진은 완벽하진 않더라도 사용자 개인을 좀더 잘 이해하게 될 것이다. 사용자가 검색엔진에 자신의 검색정보를 공유하도록 허가하면 검색엔진은 사용자가 무엇을 좋아하고 싫어하는지 알아낸다. 우리가 어디에 있는지, 우리가 이미 알고 있는 사실, 그리고 오늘 새롭게 접한 사실도 알아낸다.

    검색엔진이 스스로 수집한 이런 ‘개인화’ 정보는 더 적합한 검색결과를 제시하는 데 쓰인다. 여러 종류의 개인화 정보 중 사용자가 ‘지금 어디에 있는가’ 하는 위치 정보는 특히 유용하다. 구보 씨가 “스타벅스는 일요일에 몇 시에 문을 닫지?”라고 검색엔진에 물었다 치자. 검색엔진이 구보 씨에게 가장 적합한 답을 내놓으려면 먼저 그가 어디에 있는지 알아야 한다.

    서울의 스타벅스와 시애틀의 스타벅스, 강남역 인근의 스타벅스와 대학 캠퍼스에 입주한 스타벅스의 일요일 문 닫는 시간은 다를 수 있기 때문이다. 구글은 이처럼 ‘개인화’한 검색이 훗날 매우 중요해질 것으로 전망하고 이에 대한 연구 및 실험에 투자하고 있다. 중국 상하이로 출장 간 구보 씨가 상하이 유명식당을 찾아가 맛있는 요리를 맛보려면 반드시 중국어에 능통해야 할까?

    검색엔진이 자동으로 중국어를 한글로 번역해준다면 중국어를 전혀 몰라도 식당을 찾아가 스스로 메뉴를 고를 수 있을 것이다. 바로 이런 미래를 위해 구글은 기계번역에도 투자하고 있다. 사용자가 어떤 언어를 쓰든 웹 검색의 혜택을 누릴 수 있게 말이다.

    “휴대전화, 획기적 검색 라이프 열어줄 것”

    미국 뉴욕으로 여름휴가를 떠난 구보 씨. 뉴욕 거리를 걷다 애완견 가게 쇼윈도에서 귀여운 강아지 한 마리를 발견했다. 구보 씨는 이 강아지의 가격이 궁금하다. 내비게이션과 나침반 기능을 갖춘 그의 휴대전화가 그가 바라보는 방향을 감지해 가게 점원보다 빨리 구보 씨에게 강아지 가격을 알려준다. 그 강아지가 어떤 종이고 생후 몇 개월 됐는지, 어떻게 훈련해야 하는지를 알려주는 것은 물론이다.

    호텔에서 샤워를 마치고 나온 구보 씨가 “안경이 어디 있지?”라고 중얼거린다. 그러자 휴대전화가 이렇게 대답한다. “RFID(Radio-frequency identification)를 통해 마지막으로 인식된 장소는 거실 테이블 위입니다.”

    전체 정보의 80%는 지리 정보를 포함한다. 따라서 위치 정보를 제공하는 모바일 기기야말로 미래 정보화사회를 이끌 주역으로 손꼽힌다. 중국 휴대전화 사용자에 대한 최근 연구에 따르면 대부분이 잠을 잘 때도 휴대전화를 1m 범위에 둔다고 한다. 1년 365일, 하루 24시간 내내 우리는 우리 몸과 휴대전화를 밀착시키고 있는 것이다!

    전 세계 휴대전화 가입자는 현재 32억명에 이르며 몇 년 안에 10억명 정도가 더 늘어날 것으로 예상된다. 전 세계에 등록된 차량 8억대, 발급된 신용카드 14억장을 가뿐히 넘어서는 규모다. 인류가 발명한 소비재 중 가장 많이 팔린 제품으로 휴대전화를 꼽는다 해도 무리가 없다. 지금 우리가 사용하는 휴대전화는 8~9년 전 쓰던 컴퓨터 성능보다 10배는 더 뛰어나다.

    휴대전화가 보유하고 있는 센서를 꼽아보면 시계, 배터리 센서(남은 전력 표시), 온도계(저온에서 충전이 잘 안 되는 배터리를 감안해 적절한 온도 측정), 노출계(화면 역광조명 측정) 등이 있다. 고급 휴대전화는 위치 센서, 가속도계(동작의 벡터 및 속도 감지), 나침반 기능까지 갖췄다. 그러나 무엇보다 중요한 휴대전화의 특징은 자체적으로 늘 네트워크와 연결돼 있다는 점이다. 따라서 휴대전화는 혁신적인 미래를 선사할 가장 강력한 도구로 꼽힌다.

    지구촌 곳곳에 흩뿌려진 미래의 휴대전화는 기상정보, 교통상황 등을 실시간 파악해 휴대전화 가입자에게 알려줄 것이다. 구글은 이런 미래에 대비하고자 광범위한 모바일 전략을 실천하고 있다. 최근에는 안드로이드 운영체제(OS) 2.0을 기반으로 한 스마트폰에서 구글지도를 사용할 수 있게 모바일 버전을 개발했으며 이를 곧 무료로 배포할 예정이다. 이 제품에는 음성으로 지도를 검색할 수 있는 기능이 추가됐고 실시간 교통상황, 거리 모습도 확인 가능하다.

    더욱 윤택해진 미래의 검색 라이프가 서서히 실현돼가고 있는 셈이다. 이 밖에도 안드로이드는 재미있고 유용한 기능을 제공한다. 특정 제품의 바코드를 안드로이드폰에 스캔하면 해당 제품의 가격, 리뷰, 판매처 등을 알려주고 해당 제품을 구매할 수 있는 온라인 쇼핑몰로도 접속할 수 있다. 음악이 흘러나오는 쪽에 안드로이드폰을 갖다대면 그 음악이 무엇인지 바로 알려준다. 안드로이드폰에 구글지도를 심어놓으면 내가 지금 어디에 있고, 내 앞의 건물이 무슨 건물인지 알 수 있다.

    검색, 수백 년간 진보할 과학

    우리는 80-20의 문제, 즉 마지막 20%만 해결하면 문제의 80%가 해결된다는 원리를 잘 알고 있다. 이에 비한다면 검색은 90-10의 문제라고 할 수 있다. 우리가 답을 찾지 못하는 나머지 10%가 해결해야 할 문제의 90%를 차지하는 것이다. 이동성, 방식, 미디어, 개인화, 위치, 사회적 맥락, 언어 등 미래검색의 도전에 적합한 솔루션을 찾기까지 수년, 혹은 수십 년이 걸릴지도 모른다. 그러나 검색은 앞으로 수백 년간 발전하고 진보할 과학이다. 수백 년 전의 생물학과 물리학이 그랬듯 검색의 가장 큰 진전은 이제부터다. 검색의 미래를 그려보며 흥분된 마음을 감출 수 없는 것은 이 때문이다.



    댓글 0
    닫기