인공지능은 마치 아이에게 말을 가르치는 것과 같다. [GettyImages]
몇 년 전까지만 해도 인간은 인공지능을 ‘계산 기계’라 부르며 애써 무시했다. 인공지능은 스스로 사고하는 능력이 없기에 단지 인간의 사고력 범위를 넓히는 수단으로 활용될 수 있다는 생각이었다. 하지만 계산과 인공지능은 전혀 다른 뜻이다. 최근 인공지능이라는 표현이 마구잡이로 사용되고 있다. ‘알고리즘’과 혼동해 쓰기도 한다. 하지만 이 둘의 차이를 분명히 알 필요가 있다.
계산은 주어진 식을 연산법칙에 따라 풀어내는 것이다. 쉽게 말해 문제를 푸는 게 바로 계산이다. 알고리즘의 사전적 의미는 ‘어떠한 문제를 해결하기 위해 입력된 자료를 토대로 원하는 출력을 유도해내는 규칙의 집합’이다. 간단히 말하면 풀지 못하는 대신, 방법을 아는 게 알고리즘이라는 얘기다. 좀 이상한 표현처럼 보이지만 실제로 이런 사례는 꽤 있다. 학창시절을 떠올려보자. 주어진 공식으로 풀지 못하는 문제인데 신기하게 답을 구하는 방법을 알아내는 경우가 종종 있지 않았나.
그렇다면 알고리즘과 인공지능을 혼동하는 이유는 뭘까. 간혹 인공지능을 알고리즘으로 대체해 사용하는 경우가 있다. 자동판매기를 예로 들어보자. 동전을 넣으면 음료가 나오는 게 알고리즘이다. 하지만 인공지능은 동전과 음료를 넣으면 자판기를 만들어준다. 소프트웨어가 받는 다양한 유형의 입력 정보에 대한 출력을 정의하는 규칙들 모음을 프로그램이라고 하는데, 인공지능은 받은 정보들을 바탕으로 프로그램을 만들어준다. 따라서 인공지능은 스스로 규칙적인 시스템을 구축해 사람에게 의존하지 않고 작업을 해결한다. 이것은 마치 아이에게 말을 가르치는 것과 같다.
결정된 결과를 예측하지 못하는 이유
원인과 결과에 해당하는 정보를 계속 집어넣으면 결국 아이는 스스로 말할 수 있게 된다. 여기서 정보를 받는 과정은 세상과 교감을 의미하며, 이러한 상호작용을 통해 우리 뇌는 타인과 대화할 수 있도록 스스로 훈련한다. 인공지능도 이와 비슷하다. 스스로 운전하는 자율주행 인공지능은 도로를 달릴 때 접하는 세상의 모든 정보를 수집한다. 그리고 이를 통해 안전한 주행을 위한 프로그램을 만들고, 사용자 피드백을 받아 계속 변화한다. 물론 상용화를 위해서는 넘어야 할 산이 많고 한계도 분명하다. 그럼에도 짧은 기간 인공지능은 인간의 뇌를 흉내 내며 엄청난 속도로 발전했다. 이제 인공지능이 인간처럼 학습하고 생각하는 새로운 시대가 머지않았다.인공지능을 학습시키는 이유 중 하나는 인간이 할 수 없는 일, 즉 미래를 예측하기 위해서다. 다행히 컴퓨터가 선택할 모든 미래는 결정돼 있다. 당연하게도 선택지 자체가 전부 프로그램 코드로 쓰여 있기 때문이다. 자동판매기에 동전을 어떤 방식으로 넣어도 나올 수 있는 음료가 정해져 있는 것과 마찬가지다. 미래가 이미 정해져 있다면 사실상 아직 오지 않은 ‘다음’이라는 말은 의미가 없고, 모든 미래는 그저 상태일 뿐이다.
영화를 볼 때 재생 바를 드래그해 원하는 장면으로 이동할 수 있는 것처럼 자유롭게 시간대를 이동할 수 있을지도 모른다. 하지만 컴퓨터가 아니라 우리가 사는 우주라면 어떨까. 우주의 미래도 전부 정해져 있는 건 아닐까. 누구도 이 말에는 동의하지 않는다. 시간여행은 불가능할 것이라는 추측은 둘째 치고, 미래는 나만의 자유의지로 결정된다고 믿기 때문이다. 아쉽게도 현재로서는 자유의지가 존재하는지 알 수 없다. 우주가 결정돼 있는지 아직 모르기에, 결과가 결정돼 있다고 확신하는 컴퓨터를 이용해 예측하려는 건 그럴싸하다. 그렇기에 인공지능의 어깨가 무거울 수밖에 없다. 그런데 정말 미래를 예측하는 게 가능할까.
영화 ‘나비효과’로 알려진 물리학의 이론이 있다. 바로 카오스 이론이다. 1961년 미국 기상학자 에드워드 로렌츠는 컴퓨터로 미분방정식을 풀고 있었다. 컴퓨터가 출력된 결과를 다시 초기 조건으로 넣고 계산하는 과정을 지켜보던 그는 시간을 아끼고자 예전에 적어둔 초기 조건을 손으로 입력했다. 그랬더니 놀라운 일이 벌어졌다. 그저 자동으로 입력되던 값을 직접 입력했을 뿐인데, 결과가 완전히 달라진 것이었다. 소수점 셋째짜리 미만의 미세한 오차 때문이었다. 컴퓨터가 입력할 때는 생략되지 않던 매우 작은 숫자가 손으로 넣을 때는 삭제됐고, 그 결과 오차가 또 다른 오차를 낳아 예측하지 못한 값을 출력한 것이다. 여기서 카오스 이론이 처음 등장했다. 이렇게 초기 조건에 민감해 큰 차이를 갖는 결과가 도출되는 경우 우리는 결과를 쉽게 예측할 수 없다.
인간과 AI를 구별하는 방법
예측할 수 없는 것과 결정되지 않은 것은 다르다. 현실은 결정돼 있지만 예측할 수 없다. [GettyImages]
미래를 예측하려면 어떻게 해야 할까. 우리 자신을 너무 과대평가하지 말고, 사고 영역을 줄여야 한다. 컴퓨터를 기반으로 만들어진 인공지능 프로그램도 마찬가지다. 결정돼 있다는 사실과 무관하게 인간과 인공지능 모두에게 미래를 예측하는 건 어렵다.
미래 예측이 가능한지 아닌지로 인간과 인공지능의 차이를 알기 힘들다. 그래서 나온 방법이 ‘튜링 테스트’다. 1950년 영국 수학자 앨런 튜링이 제안한 것으로, 대화를 보고 인간과 인공지능을 구분하는 시험이다. 하지만 미국 철학자 존 설은 반론을 제기했다. 튜링 테스트로는 인공지능의 수준을 제대로 판정할 수 없다는 것이었다. 그가 설계한 사고실험이 바로 ‘중국어 방’이다. 방 안에 중국어로 된 질문과 대답이 적힌 사전, 필기도구가 있다. 그곳에 중국어를 전혀 모르는 사람이 앉아 있다 해도 밖에 있는 중국인 심사관이 중국어 질문에 대한 답을 적어서 건네줄 수 있다. 즉 중국어 문답을 완벽하게 해내도 중국어를 안다고 할 수 없기에 튜링 테스트는 틀렸다는 것이다. 하지만 과학자들의 관점은 달랐다. 중국어 방에서 완벽한 중국어 문답이 가능하다면 그 과정이 어떻든 방은 하나의 시스템이며, 완성된 시스템은 중국어를 이해하고 있다고 보는 것이다. 우리가 전자기기로 빠르게 인터넷 검색을 해 질문의 답을 찾아내는 것도 지식의 확장이라고 볼 수 있으며, 번역 기능이 있는 안경을 쓰고 있다면 이것 역시 언어 영역의 확장이다.
AI가 소설 쓰고 작곡하는 세상
중국어 방은 본래 튜링 테스트의 불완전성을 공격하기 위한 논증적 반례였지만, 오히려 지금은 반복적인 튜링 테스트를 지지하는 예시가 됐다. 이러한 관점에서 보면 우리는 인공지능이 인간인지 아닌지를 구별할 수 있지만, 진짜 인간인지 아닌지를 알아낼 수는 없다. 만약 인공지능이 인간처럼 행동한다면 우리는 인간으로 여길 수밖에 없는 것이다.회원가입을 하거나 인증할 때 종종 나오는 도로 표지판 찾기 같은 자동 튜링 테스트는 이제 인공지능이 더 잘 맞히기도 한다. 오직 인간의 영역으로 여겨지던 예술조차 위협받고 있다. 인공지능이 그린 그림이 경매장에서 수억 원에 팔렸고, 소설을 쓰거나 작곡도 하며, 심지어 세상에 없는 요리까지 만들어낸다. 수많은 조합에서 나오는 창의성을 평범한 사람은 당해낼 수 없다. 시키는 일만 잘한다는 인공지능도 옛말이다. 인공지능을 개발한 회사로부터 지능을 탈중앙화시키기 위해 블록체인 기술을 접목한 한국 신생기업도 나왔다. 최근 등장한 증강 인공지능은 사람이 개입해 추가로 검토해야 하는 상황조차 스스로 검토해 추론하고 최종 검증한다. 반드시 사람이 마무리해야 했던 일조차 이제 인공지능이 할 수 있게 된 것이다.
인간의 연산력으로 계산이 불가능한 광활한 우주를 인공지능이라고 다 계산해낼 수 있는 것은 아니다. 인공지능 역시 우리와 마찬가지로 영원히 우주를 예측할 수 없다. 다만, 인공지능은 자신의 한계를 명확히 규정하고 가능한 일상의 범위에서 우리와 비슷하게 진화하고 있다. 그래서 구별하기가 더 어렵다.
궤도는… 연세대 천문우주학과 학부 및 대학원을 졸업하고 한국천문연구원 우주감시센터와 연세대 우주비행제어연구실에서 근무했다. ‘궤도’라는 예명으로 팟캐스트 ‘과장창’, 유튜브 ‘안될과학’과 ‘투머치사이언스’를 진행 중이며, 저서로는 ‘궤도의 과학 허세’가 있다.