주간동아 1092

2017.06.14

커버스토리

인간을 이기는 AI, 재앙인가 축복인가

AI혁명은 상수…‘새로운 세상’에 필요한 ‘인간의 규칙’ 준비해야

  • 송화선 기자 spring@donga.com

    입력2017-06-09 17:12:37

  • 글자크기 설정 닫기
    “지난해 이세돌 9단과 ‘알파고’의 바둑 대결이 열리기 전 ‘알파고 전승’을 얘기한 사람은 저밖에 없었어요. 그때 ‘이세돌 9단이 알파고한테 한 판도 이기기 힘들 것’이라고 인터뷰했다가 엄청난 비난을 받았죠. 그런데 이번에 보세요. ‘커제가 이길 것’이라고 내다본 사람이 하나도 없지 않습니까.”

    김진호 서울과학종합대학원대학교 빅데이터 MBA학과 주임교수의 얘기다. 1년여 전 그는 ‘세기의 대결’을 앞두고 ‘인공지능(Artificial Intelligence·AI)의 승리’를 예측했다 여론의 뭇매를 맞았다. 하지만 얼마 지나지 않아 ‘AI 능력을 제대로 알아본 전문가’로 화제를 모았다. 

    1년 만에 세상이 변했다. 이제는 누구도 ‘바둑의 직관이 인간의 영역’이라고 말하지 않는다. 5월 말 중국에서 열린 ‘바둑의 미래 서밋’(서밋)은 이 ‘상식’을 재확인케 한 자리였다. 알파고가 단 한 번도 우위를 잃지 않은 채 ‘인간계 1위’ 커제 9단을 무릎 꿇렸을 때, 눈물을 쏟으며 참담해한 건 어쩌면 커제 9단 한 명뿐이었을지 모른다.

    알파고 개발사인 구글 딥마인드의 데이비드 실버 수석과학자는 대국이 끝난 뒤 인터뷰에서 “지금 알파고는 이세돌 9단과 대결할 때 사용하던 버전에 3점을 접어주는 수준”이라고 밝혔다. 바둑계에선 3점을 ‘신과 인간의 격차’로 여긴다. 이제 인간이 바둑에서 AI를 누르는 건 사실상 불가능해진 셈이다.

    ‘서밋’에서 중국은 세계대회 우승 경력의 프로기사 5명으로 ‘드림팀’을 꾸리고도 알파고를 꺾지 못했다. 5명이 ‘집단지성’을 모아 대결해도 알파고가 더 강했다. 알파고는 표표히 바둑계 은퇴를 선언했다.



    이대로 알파고의 게임이 끝난 걸까. 아니다. 이제 ‘진짜’가 시작된다. 구글 AI가 바둑판을 벗어나 세상 속으로 들어오기로 결심했기 때문이다.



    놀이터 떠나 인간 세상으로 들어온 AI

    데미스 허사비스 구글 딥마인드 최고경영자(CEO)는 알파고의 바둑 은퇴를 선언하는 자리에서 “앞으로 AI는 에너지 효율화, 질병 진단 등 여러 산업에서 다양한 과제를 해결하는 주요 도구가 될 것”이라고 밝혔다. 이제 알파고의 상대가 이세돌, 커제가 아니라 바로 우리가 될 수 있음을 보여주는 선언이다. 물론 허사비스는 알파고를 ‘인간의 조력자’라고 했다. 그러나 그의 막강한 힘을 목도한 인간의 생각은 다르다.

    ‘이세돌과 알파고의 대국’이 있기 한 달 전인 지난해 2월 한국언론진흥재단(재단)이 시민 1038명을 대상으로 실시한 여론조사에서 응답자 절반가량(47.8%)은 ‘AI와 로봇의 위협이 있어도 내 일자리는 안전할 것’이라고 답했다. 그러나 올해 4월 재단이 남녀 1041명을 대상으로 같은 질문을 던졌을 때는 응답자의 23.5%만 이렇게 대답했다. 시민 24.3%가 그사이 ‘인간의 경쟁력’에 대해 비관론자가 돼버린 것이다.

    AI 전문가이자 아마 5단 기력인 감동근 아주대 전자공학과 교수는 이에 대해 “AI와 경쟁을 그렇게 두려워할 필요는 없다”고 했다.

    그는 지난해 펴낸 책  ‘바둑으로 읽는 인공지능’에서 ‘아마추어 바둑 팬들에게도 이세돌 9단의 패배는 매우 충격적이었다. 바둑은 컴퓨터가 인간을 이길 수 없는 단 하나 남은 보드게임이라는 자부심이 깨진 것이다. 세상에서 최고인 줄 알았던 우리 아이가 실은 그렇지 않다는 것을 깨닫게 된 순간처럼. 인공지능에 대해 조금 알고 있는 팬들에게는 충격의 강도가 더했다. 그저 강력한 계산 능력에 의존해 무차별 탐색 기법으로 체스를 정복한 딥블루 때와는 차원이 다른 것이다. (바둑은) 경우의 수가 너무 많아 인간의 직관이 반드시 필요할 것이라고 생각해왔는데, 인공지능이 바로 그 직관을 흉내 냄으로써 바둑을 정복한 것이다’라고 쓴 바 있다.

    ‘인간 고유의 영역’인 줄 알았던 ‘직관’까지 AI가 침범했다는 것이 가장 충격이었던 셈이다. 감 교수는 “알파고를 통해 AI의 혁신이 확인된 것은 맞다”면서도 “그러나 여전히 갈 길이 멀다”고 했다.

    “바둑은 경우의 수가 많기는 하지만 게임 규칙이 분명히 정해져 있습니다. 모든 정보가 판 위에 드러나고, 플레이어가 선택할 수 있는 옵션이 한정돼 있죠. 200수 안팎에서 승부가 결정됩니다. 그런데 인간사가 어디 그런가요. 인간 세상에는 바둑돌을 놓듯 정할 수 없는 문제가 수없이 많습니다. 목표와 규칙이 명확히 정의돼 있지도 않고, 문제를 풀 때 필요한 정보를 모두 얻을 수 없는 경우가 대부분이죠. 달리 말하면 구글은 AI가 가장 잘할 수 있는 종목을 골라 사람에게 도전한 겁니다.”



    학습 알고리즘+빅데이터=물 만난 AI

    감 교수에 따르면 알파고의 성취를 통해 우리가 알 수 있는 건 ‘바둑처럼 모든 정보가 공개되고 목표와 규칙이 명확하게 정의됐다면 어떤 것이든 인간보다 잘할 수 있는 인공지능이 탄생했다’는 점이다. 그러나 인공지능이 인간 수준의 직관과 통찰을 갖게 된 것으로 해석하는 것은 과도하다. 그는 로봇공학자 한스 모라벡이 “체스 인공지능을 만들기는 상대적으로 쉬운 반면, 한 살짜리 아이의 운동능력을 갖춘 인공지능을 만드는 일은 어렵거나 불가능하다”고 한 것을 언급했다.

    바둑 역사는 아무리 길어도 수천 년 수준이다. 하지만 인간이 직립보행을 위해 학습(진화)해온 시간은 수백만 년에 이른다. 아직은 세계 최고 수준으로 평가받는 로봇조차 이를 따라잡지 못했고, 심지어 인간이라면 돌쟁이 아기라도 척척 해낼 동작조차 흉내 내지 못한다.

    다만 AI가 바둑에서 인간을 능가했듯, 인간이 AI에 맞게 ‘게임의 규칙’을 만들어 알려주면 얘기가 달라질 수 있다. 세계적 과학기술 잡지 ‘와이어드’ 공동창간자인 케빈 켈리는 저서 ‘인에비터블 : 미래의 정체’에서 IBM의 AI ‘왓슨’을 만난 경험을 소개했다.
    ‘내가 과거에 인도에서 걸렸던 병의 증상을 일상 영어로 말하자, 왓슨은 가장 가능성이 높은 것부터 낮은 것까지 직감적으로 추정한 질병 목록을 제시했다. 가장 가능성이 높은 것이 람블편모충증이라고 했는데, 정답이었다’는 것이다.

    미국종양학회가 2014년 공개한 자료에 따르면 왓슨의 암 진단 일치율은 췌장암 94%, 난소암 95%, 직장암 96%, 대장암 98%, 자궁경부암 100% 수준이다. 나아가 왓슨은 3초에 약 2억 쪽 분량의 의학논문을 검토해 환자에게 가장 적절한 치료방법을 제시할 수도 있는데, 이 치료법의 정확도가 82.6%에 달했다. 지난해 구글의 AI는 그동안 고도로 훈련된 안과전문의만 진단해온 당뇨망막병증을 97~98% 수준으로 진단해냈다. 구글은 이 AI를 훈련하려 수년간 미국 전역 병원에서 약 12만 개의 안구 이미지를 분석했다고 밝혔다.

    AI 분야의 세계적 권위자인 앤드루 응 미국 스탠퍼드대 교수는 “AI는 우주선을 건조하는 것과 비슷하다. 거대한 엔진과 많은 연료가 필요하다. 로켓 엔진은 학습 알고리즘이고, 연료는 이 알고리즘에 먹일 수 있는 엄청난 양의 데이터”라고 했다. 그런데 2010년을 전후해 AI가 ‘딥러닝’을 통해 스스로 발전해나가는 ‘학습 알고리즘’(엔진)이 비약적으로 발전했다.

    인간이 AI에게 연료로 공급할 ‘엄청난 양의 데이터’를 모으는 것도 쉬워졌다. 케빈 켈리에 따르면 ‘구글은 AI를 이용해 검색을 개선한다기보다 검색을 이용해 AI를 개선하고 있다. 매번 당신이 검색어를 치고, 검색해서 나온 링크를 누를 때마다, 또는 웹에서 링크를 생성할 때마다, 당신은 구글 AI를 훈련시키고 있는 것이다. 이미지 검색 항목에 ‘부활절 토끼’라고 입력하고서 가장 부활절 토끼처럼 보이는 이미지를 클릭할 때, 당신은 AI에게 부활절 토끼가 어떤 모습인지를 가르치는 것’이다. 그러니 구글이 2015년 공개한 얼굴인식시스템 ‘페이스넷(FaceNet)’의 인식률이 99.96%로 인간(97.53%) 수준을 넘어선 건 놀랄 일이 아니다.  



    인간이 만든 AI, 인간을 공격할까

    자, 그렇다. 아직 AI엔 한계가 많다. 하지만 많은 영역에서 빠른 속도로 인간을 능가하는 수준의 경쟁력을 얻고 있는 것도 분명하다. 이제 인간은 육체노동뿐 아니라 지식노동 영역에서도 AI의 조력을 필요로 할 수 있고, 그 경우 AI와 인간이 더불어 사는 미래가 머잖아 현실이 될 수 있다. 이에 따라 최근엔 ‘스스로 판단할 수 있는 기계’가 일으킬 수 있는 다양한 윤리적 문제 해결책에 대한 논의도 활발해지는 분위기다. 이중원 서울시립대 철학과 교수는 “AI는 과거 인간이 개발해온 도구와 다르다.

    인간이 개발했지만 인간의 능력을 벗어나 있고, 일정 단계가 지나면 AI가 어떻게 그런 결과를 산출해내는지 인간이 알기조차 어렵다. AI가 인간 사회에 미칠 수 있는 영향이 막대한 만큼 하나의 ‘행위자’로 보고 관리, 감독 시스템을 마련해야 한다”고 밝혔다. ‘인격성’의 개념을 확대해 자율적인 AI가 사회적 피해를 일으킬 경우 그 책임을 묻는 방안 등에 대해서도 본격적으로 논의해야 한다고 강조했다. 

    현재 가장 널리 알려진 로봇 윤리 원칙은 아이작 아시모프가 1942년 펴낸 소설 ‘런어라운드(Runaround)’에서 제안한 세 가지다. 1. 로봇은 인간에게 해를 끼치거나, 아무런 행동도 하지 않음으로써 인간에게 해가 가도록 해서는 안 된다. 2. 로봇은 인간의 명령에 복종해야 한다. 단 그 명령이 첫 번째 원칙에 위배될 때는 예외로 한다. 3. 로봇은 자신을 보호해야 한다. 단 첫 번째와 두 번째 원칙에 위배될 때는 예외로 한다.

    AI 개발이 활성화되면서 세계 각국에서 비슷한 강령이 쏟아져나왔고, 2007년 우리나라도 산업자원부가 ‘로봇윤리헌장’ 초안을 공개했다. 그러나 △3장(인간 윤리) 인간은 로봇을 제조하고 사용할 때 항상 선한 방법으로 판단하고 결정해야 한다. △4장(로봇 윤리) 로봇은 인간의 명령에 순종하는 친구, 도우미, 동반자로서 인간을 다치게 해서는 안 된다. △6장(사용자 윤리) 로봇 사용자는 로봇을 인간의 친구로 존중해야 하며 불법개조나 로봇남용을 금한다 등의 내용으로 구성됐던 이 ‘초안’은 10년째 완성되지 않은 상태다. 

    해외에서는 1월 미국 ‘삶의 미래 연구소(FLI)’가 미국 캘리포니아 아실로마에서 발표한 23개 항의 ‘아실로마 AI 원칙(Asilomar AI Principles)’이 화제를 모으고 있다. ‘AI 연구의 목표는 인간에게 유용한 지능을 개발하는 것’이라는 내용을 1항으로 삼아 제정된 ‘아실로마 AI 원칙’에는 일론 머스크 테슬라 CEO, 허사비스 ‘알파고’ 개발자, 구글 연구책임자이자 미래학자인 레이 커즈와일, 과학자 스티븐 호킹 등이 서명했다. 원문과 서명자 명단은 삶의 미래 연구소 인터넷 사이트(futureoflife.org/ai-principles)에서 확인할 수 있다(상자기사 참조).

    2015년 알파고 개발사 구글 딥마인드는 과학학술지 ‘네이처’에 AI가 어떻게 비디오게임 사용법을 배웠는지 소개하는 논문을 발표했다. 그에 따르면 AI는 끝없는 반복 ‘학습’을 통해 스스로 손실을 줄이고 보상을 최대화하는 방향으로 ‘진화’했다. ‘학습’ 두 시간째에 들어선 뒤엔 게임 창안자조차 상상하지 못한 방식으로 게임을 정복했다. 전문가들에 따르면 자율적으로 학습하고 실행하는 능력을 갖춘 AI가 출현하면 이처럼 인간은 기계에 대한 통제권을 잃게 되고, 그것은 인류의 재앙으로 이어질 수 있다. 반면 AI는 인간의 질문에 대한 최적의 답을 찾고자 만들어진 도구에 불과하며, AI가 발전해도 ‘대답을 이끌어내는 질문을 던지는’ 인간의 영역은 사라지지 않을 것이라는 의견도 있다.

    1년 전까지만 해도 AI는 대중에게 SF영화처럼 허황되거나 막연한 대상이었다. 이제는 모두가 AI가 변화시킬 미래에 대해 이야기한다. 알파고는 바둑 최고수이면서도 스스로는 바둑을 두고 있다는 인식을 하지 못했다. 하지만 본게임이 막 시작됐다.

    아실로마 AI 원칙 번역문인공지능은 전 세계 사람들이 매일 사용하는 유용한 도구를 이미 제공하고 있다. 아래 원칙에 따른 인공지능의 지속적 발전은 앞으로 수십 년, 수백 년 동안 사람들을 돕고 그들의 역량을 강화하는 데 놀라운 기회들을 제공할 것이다.

    연구 관련 쟁점
    1. 연구 목표 : 인공지능(AI) 연구의 목표는 방향성 없는 지능이 아니라 인간에게 유용한 지능을 개발하는 것이다.
    2. 연구비 지원 : AI에 대한 투자에는 다음과 같이 컴퓨터과학, 경제, 법, 윤리 및 사회 연구 같은 어려운 문제들을 포함해 유용하게 사용할 수 있도록 보장하기 위한 연구비 지원이 수반돼야 한다.
    •미래의 인공지능 시스템이 오작동하거나 해킹당하지 않고 우리가 원하는 것을 수행할 수 있도록 강력하게 만들 수 있는 방안이 무엇인가.
    •인류의 자원과 목적을 유지하면서 자동화를 통해 인간을 계속 번영하게 할 방안이 무엇인가.
    •AI와 보조를 맞추고 그와 관련된 위험을 관리하기 위해 법률시스템을 좀 더 공정하고 효율적으로 업데이트할 방안은 무엇인가.
    •AI는 어떠한 가치에 따라야 하며, 그것이 가져야 하는 법적, 윤리적 지위는 무엇인가.
    3. 과학·정책 관계 : AI 연구자와 정책 입안자 사이에 건설적이고 건전한 교류가 있어야 한다.
    4. 연구 문화 : AI 연구자와 개발자 사이에 협력, 신뢰, 투명성의 문화가 조성돼야 한다.
    5. 경쟁 회피 : AI 시스템을 개발하는 팀들은 안전 기준을 부실하게 만들지 않도록 적극적으로 협력해야 한다.  

    윤리와 가치
    6. 안전 : AI 시스템은 작동 수명 전 기간에 걸쳐 안전하고 안정적이어야 하며, 검증할 수 있어야 한다.
    7. 오류 투명성 : AI 시스템이 손상을 일으킬 경우 그 이유를 확인할 수 있어야 한다.
    8. 사법적 투명성 : 사법적 의사결정에 자율 시스템이 개입할 경우 권한 있는 인간 기관이 감사할 수 있는 충분한 설명을 제공해야 한다.
    9. 책임성 : 첨단 AI 시스템 설계자와 제조자는 그것의 사용, 오용 및 행위의 도덕적 영향을 미치는 이해관계자다.
    10. 가치의 준수 : 고도로 자율적인 AI 시스템은 그것이 작동하는 동안 목표와 행동이 인간의 가치와 반드시 일치하도록 설계돼야 한다.
    11. 인간의 가치 : AI 시스템은 인간의 존엄성, 권리, 자유 및 문화적 다양성의 이상에 적합하도록 설계되고 운영돼야 한다.
    12. 개인정보 보호 : AI 시스템이 개인정보 데이터를 분석하고 활용할 수 있는 경우 사람들은 자신이 생성한 데이터에 접근해 관리 및 통제할 권리를 가져야 한다.
    13. 자유와 개인정보 : 인공지능을 개인정보에 적용할 때도 사람들의 실제 또는 인지된 자유를 부당하게 침해해서는 안 된다.
    14. 이익 공유 : AI 기술은 가능한 한 많은 사람에게 혜택을 주고 그들의 역량을 강화해야 한다.
    15. 공동 번영 : AI에 의해 만들어진 경제 번영은 모든 인류에게 이익이 되도록 널리 공유돼야 한다.
    16. 인간 통제 : 인간은 인간이 선택한 목적을 달성하기 위해 의사결정을 AI 시스템에 위임할 것인지 여부와 위임 시 방법에 대해 선택할 수 있어야 한다.
    17. 사회전복 방지 : 고도로 발전된 AI 시스템을 통제함으로써 부여된 힘은 건강한 사회를 위해 필요한 시민적·사회적 절차들을 존중하고 개선하는 데 쓰여야 한다.
    18. AI 무기경쟁 : 치명적인 AI 무기의 군비경쟁은 피해야 한다.

    장기적 이슈

    19. 역량 주의 : 합의가 없는 상태에서 미래 AI 역량의 상한에 대한 강한 가정은 삼가야 한다.
    20. 중요성 : 고도화된 AI는 지구 생명체의 역사에 중대한 변화를 가져올 수 있다. 그에 상응하는 관심과 자원을 계획하고 관리해야 한다.
    21. 위험 요소 : AI 시스템이 초래하는 위험, 특히 치명적이거나 실존적 위험으로 예상되는 것에 대비하고, 이를 완화하려는 노력을 해야 한다.
    22. 재귀적 자기 개선 : 스스로 시스템을 개선하거나 복제해 질과 양을 빠르게 증가시킬 수 있도록 설계된 AI 시스템은 엄격한 안전관리 및 통제 조치를 받아야 한다.
    23. 공동선 : 초지능은 윤리적 이상을 널리 공유하는 방식으로 발전돼야 한다. 한 국가 또는 한 조직보다 모든 인류의 이익을 위해 개발돼야 한다.





    댓글 0
    닫기