릭 오스텔로 구글 디바이스 수석부사장이 5월 11일(현지 시간) 미국 캘리포니아주 본사에서 열린 ‘구글 I/O 2022’에서 신제품을 공개하고 있다. [사진 제공 · 구글]
자동 통역 실시간 미팅
‘구글 I/O 2022’에서 공개된 신형 스마트 글래스. [사진 제공 · 구글]
구글은 검색포털로서 기능을 일신하는 방안도 내놓았다. 구글 검색에 적용될 ‘멀티서치(Multi-search)’는 텍스트뿐 아니라 이미지나 동영상까지 검색 범주로 확대해준다. 기존에도 구글에서 이미지 검색이 가능하긴 했다. 다만 해당 이미지에 미리 태깅(tagging)한 키워드를 기반으로 검색하는 구조였다. 멀티서치는 인공지능(AI)이 자동으로 이미지를 인식해 어떤 정보를 담고 있는지 사용자에게 알려준다. 쉽게 예를 들어보자. 기존 구글 검색창에 ‘잡채’를 입력하면 잡채라는 단어가 포함된 페이지에 수록된 모든 사진이 나왔다. 완성된 잡채 모습뿐 아니라, 잡채를 만드는 과정과 연관된 사진이 모두 검색되는 것이다. 앞으론 멀티서치 기능을 통해 원하는 이미지를 정확히 콕 짚어서 검색할 수 있을 전망이다.
이번 콘퍼런스에 소개된 기술들을 살펴보면 향후 구글은 인터넷 검색 개념을 현실 공간으로까지 끌고 올 것으로 예상된다. 가령 멀티서치가 ‘구글 렌즈(Google Lens)’라는 구글의 이미지 검색엔진과 결합하면 사진을 매개로 더 똑똑한 상품 구입이 가능해진다. 스마트폰에서 구글 렌즈 기능을 실행해 마트 식품코너에 전시된 상품을 비추고 ‘견과류 미포함’이라는 키워드를 넣으면 식품 중 견과류가 없는 제품만 강조돼 보이는 식이다. 더 나아가 사진 촬영 후 ‘멀티서치 니어 미(Multisearch Near Me)’ 기능을 작동시키면 사진 속 상품을 근처 어느 상점에서 얼마에 살 수 있는지도 파악이 가능하다. 이처럼 여러 기술이 조합되면 스마트 글래스는 더 스마트해진다. 스마트 글래스를 착용하고 상품 진열대로 눈을 돌리면 수많은 식품에 대한 고객 평점과 사용자 후기는 물론, 알레르기 유발 여부까지 필터링해 볼 수 있다. 한마디로 오프라인 현실에 IT(정보기술) 정보가 결합된 새로운 인터넷 경험이 가능한 것이다.
구글은 텍스트와 영상 기반 지식 정보를 처리하는 새로운 솔루션도 선보였다. 구글의 문서 작성 툴 ‘구글 독스(Google Docs)’에 적용될 자동 요약 기능이 대표적이다. AI를 기반으로 문서의 핵심 내용을 요약해주는 것이 뼈대다. 이미 국내 포털서비스가 제공하는 뉴스에도 본문 요약 기능이 일부 제공되고 있긴 하다. 이번 구글 I/O 2022에서 공개된 문서 핵심 요약 기술은 데모 버전에서도 상당히 뛰어난 품질을 보였다. 앞으로 이 기능이 구글 밋, 지메일, 구글 번역기 등 다양한 서비스에 적용되면 사용자는 큰 힘을 들이지 않고도 방대한 텍스트 정보를 일목요연하게 정리해서 볼 수 있다. 세계 최대 규모 영상 플랫폼 유튜브의 자동 챕터 생성 기능도 주목된다. 음성과 이미지를 바탕으로 유튜브 영상 속 장면을 구분해주는 기능이다. 기존 텍스트 정보에서 검색어로 필요한 정보를 추려내듯이 영상을 탐색할 수 있는 것이다.
실제 도시 공간을 메타버스에 구현
개별적으로 기발하고 유용한 기능이라도 4차 산업혁명 시대의 조류와 조응해야 의미가 있다. 그런 점에서 구글이 기존 구글 지도에 추가 제공할 ‘이머시브 뷰(Immersive View)’ 기능을 주목해야 한다. AI 기술로 거리 사진과 항공 이미지를 결합해 실제 그 공간에 가본 것 같은 경험을 선사한다. 타임 슬라이드를 이용해 시간에 따른 풍경, 날씨, 교통 체증 변화도 확인할 수 있다. 이 같은 기술과 메타버스가 접목된다면 가상공간에 오프라인 도시를 옮겨놓는 듯한 효과도 기대할 수 있다.기술은 우리의 내일을 좀 더 편하게 만들어준다. 빠르게 등장했다가 사라지기도 하는 수많은 신기술 중 어느 것이 미래를 바꿔놓을지 모른다. 구글뿐 아니라 글로벌 빅테크 기업들의 콘퍼런스에 주목해야 하는 이유다.