11월 말 샘 올트먼 오픈AI 최고경영자(CEO)가 회사에서 쫓겨났다가 닷새 만에 복직했다. 이와 관련해 소문이 무성했지만, 그중 유력한 소식 하나는 오픈AI가 회사 정체성에 혼란이 올 만큼 고도로 발전된 인공지능(AI)을 개발하고 있다는 것이다. 바로 ‘Q*(큐스타) 알고리즘’으로 불리는 AI 개발 프로젝트다. 현재 베일에 싸인 채 개발되고 있는 Q* 알고리즘은 인류를 위협할 강력한 AI 기술이라는 점에서 오픈AI 안팎에서 찬반양론을 불러일으키고 있다.
오픈AI에는 올트먼과 코딩의 달인으로 불리는 그레그 브로크만, 수석 과학자 일리아 수츠케베르와 외부인 3명으로 구성된 이사회가 있다. 초기 오픈AI의 성장을 견인한 올트먼은 챗GPT 개발의 아버지로 불리는 인물이다. 그는 미국 스탠퍼드대를 중퇴하고 에어비앤비, 드롭박스, 레딧, 스트라이프 등 전설적인 실리콘밸리 스타트업의 경영을 맡은 바 있다. 일론 머스크 테슬라 CEO와는 결이 다른 괴짜이자 천재 경영자라는 평을 받는다.
오픈AI 수석 과학자 수츠케베르 또한 굵직한 AI 기술을 개발했다. 약 10년 전 AI 딥러닝 혁명을 이끈 강력한 신경망인 알렉스넷(AlexNet)과 생성형 AI 혁명을 시작한 GPT 언어 모델(LLM)을 개발한 주역이다. 그는 급속한 AI 개발에 신중한 입장을 견지해오다가 이번 올트먼의 해고를 주도했다. 오픈AI 내부 보고서에 따르면 올트먼이 AI의 안전과 회사의 사명보다 이윤을 더 우선시하고 있다는 이유로 수츠케베르가 이사회 구성원을 설득해 그를 해고했다고 한다.
올트먼은 해고되기 몇 달 전 투자자들에게 새로운 AI 프로젝트에 대한 아이디어를 몇 가지 제시했다. 여기에는 엔비디아와 경쟁할 수 있는 맞춤형 칩 개발 계획과 함께 Q* 알고리즘 프로젝트가 포함돼 있었다. 챗GPT로 1년 만에 상업적 성장과 급속한 기술 개발을 이룬 오픈AI의 내부 분열 중심에 바로 Q* 알고리즘이 있는 것이다.
그동안 많은 과학자가 수학 문제를 푸는 AI 모델을 개발하려고 애썼지만 쉽지 않았다. AI 모델로 하여금 자신이 다루는 내용을 추론하고 실제로 이해할 수 있는 능력을 갖추게끔 만드는 것은 매우 어려운 과제이기 때문이다. 웬다 리 영국 헤리엇와트대 컴퓨터과학과 조교수는 ‘MIT테크놀로지리뷰’를 통해 “현재까지 AI를 사용해 수학 문제를 안정적으로 풀 수 있는 알고리즘이나 올바른 아키텍처조차 없는 실정”이라며 “언어 모델이 사용하는 딥 러닝과 변환기(신경망의 일종)는 패턴 인식에 탁월하지만 그것만으로는 수학을 풀기에 충분하지 않다”고 말했다.
챗GPT와 GPT-4 같은 기존 언어 모델로 일부 계산을 수행할 수는 있지만 그다지 효율적이거나 안정적이지 않다. 이 AI 모델은 다음 단어를 통계적으로 예측해 글쓰기나 언어 번역이 가능하지만 같은 질문에도 답변이 달라지는 경우가 많다. 실제가 아닌 답을 그럴듯하게 말하는 ‘환각’이 생겨나는 경우도 빈번하다. 정답이 하나뿐인 수학을 정복한다는 것은 AI가 인간 지능과 유사한 추론 능력을 갖췄다는 것을 의미한다. 따라서 이러한 기능은 고급 AI 시스템의 특징이며, 인간 두뇌처럼 광범위한 지적 작업을 수행할 수 있는 AGI로 꼽힌다.
그동안 챗GPT 같은 거대 언어 모델이 발전해왔지만 많은 AI 연구자는 AGI가 개발될 것이라고 쉽게 예측하지 못했다. 전문가들은 AGI 단계로 발전하기까지 앞으로 수십 년은 아니더라도 수년이 걸릴 것이라고 말해왔다. 한편으로는 급격히 발전하는 AI 기술에 경계심을 나타내는 이들도 있다. 딥러닝의 선구자인 제프리 힌턴 캐나다 토론토대 컴퓨터과학자 또한 그중 한 명이다. 그는 ‘더뉴요커’를 통해 “인간 두뇌에는 못 미칠 것이라 생각했던 컴퓨터 모델이 어느새 인간의 실존을 위협하는 기술로 발전했다”며 “AI가 우리보다 똑똑해지더라도 인간에게 유익한 일을 하도록 제어하는 것은 매우 어려울 전망”이라고 말했다.
오픈AI의 Q* 알고리즘 정체가 일부 유출되면서 기술 커뮤니티에서도 환호와 우려가 동시에 쏟아지고 있다. 물론 수학 능력이 더욱 강화된 AI 시스템에 한 걸음 더 가까이 다가가도록 할 수는 있지만, 수학 문제를 해결한다고 해서 초지능이 탄생했다는 의미는 아니다. 그럼에도 Q* 알고리즘 개발을 우려하는 이유는 고급 추론 및 의사결정 기능을 통해 예측할 수 없는 행동이나 결과가 발생할 수 있기 때문이다. 또한 오용되거나 의도하지 않은 결과가 발생할 가능성도 간과할 수 없다. AGI에 가까워질수록 기술 발전과 책임을 아우르는 ‘AI 안전’이라는 키워드가 떠오르는 이유다.
최근 수츠케베르는 AI로 인한 위험을 관리하는 초정렬(Superalignment) 팀을 이끌고 있다. 이 팀의 목표는 모든 영역에서 인간의 지능을 능가하는 초인공지능 시스템이 개발될 때를 대비해 AI가 인간의 가치와 목표에 따라 행동하도록 관리하는 메커니즘을 구상하는 것이다. 사내 컴퓨팅 성능의 20%를 투입할 만큼 비중 있게 운영되고 있다.
11월 영국이 주최한 AI 안전 회의 또한 같은 맥락에서 마련된 글로벌 정상회의다. 이번 회의는 영국 버킹엄셔주 블레츨리 파크에서 열렸다. 블레츨리 파크는 컴퓨터과학의 아버지로 불리는 앨런 튜링이 제2차 세계대전 당시 최초의 컴퓨터를 만들고 독일 에니그마 암호를 해독한 상징적인 곳이다. 유럽연합(EU)을 비롯해 영국, 미국, 중국, 인도 등 20여 개 참가국은 블레츨리 선언을 통해 AI를 안전한 방식, 즉 인간 중심적이고 신뢰할 수 있으며 책임감 있는 방식의 설계·개발·배포·사용에 협의할 것을 명시했다. 그리고 의도적인 악용과 의도치 않은 결과 등 AI가 가진 ‘잠재적’ 위험에 대응하기 위해 국제사회가 협력해야 한다고 촉구했다.
세계적인 딥러닝 연구자 중 한 명인 캐나다 컴퓨터과학자 요슈아 벤지오는 ‘네이처’를 통해 “매우 유용하면서도 잠재적 위험성이 있는 시스템을 구축하는 지금, AI 안전에 대한 키워드는 더는 피할 수 없는 주제”라며 “제약회사들이 생산하는 약에 독성이 없다는 것을 증명하려고 막대한 돈을 쓰듯이, AI 기술 또한 안전하다는 것을 증명하기 위한 노력이 필요하다”고 말했다.
해고된 지 닷새 만에 복귀한 샘 올트먼 오픈AI 최고경영자(CEO). [뉴시스]
오픈AI 이사회 갈등의 내면
오픈AI가 챗GPT를 선보인 지 어느덧 1년이 넘었다. 그동안 정보기술(IT) 산업을 비롯해 사회 전반에 엄청난 충격파를 던졌다 해도 과언이 아니다. 챗GPT 출시 이후 AI가 모든 기술의 중심에 자리 잡고 있으며, 언어부터 이미지까지 생성형 AI의 열풍이 지금까지도 이어지고 있다. 그 선두에 있는 오픈AI는 창립 초기부터 인간보다 똑똑한 AI를 개발해 공익을 위해 쓰는 것을 목표로 내세웠다. 이를 일반 인공지능(Artificial General Intelligence·AGI)이라고 부른다. 챗GPT가 역사상 가장 빠르게 성장하는 프로그램이 되면서 오픈AI의 기업가치 또한 900억 달러(약 118조600억 원)까지 성장했다. 또한 오픈AI는 본래 비영리단체였지만 AGI 개발 자금을 조달하고자 영리 및 비영리 구조로 전환됐다. ‘비영리단체가 통제하는 영리 자회사’인 오픈AI는 마이크로소프트(MS)를 포함한 투자자의 수익을 지분의 100배로 제한한다는 점 또한 이례적이다.오픈AI에는 올트먼과 코딩의 달인으로 불리는 그레그 브로크만, 수석 과학자 일리아 수츠케베르와 외부인 3명으로 구성된 이사회가 있다. 초기 오픈AI의 성장을 견인한 올트먼은 챗GPT 개발의 아버지로 불리는 인물이다. 그는 미국 스탠퍼드대를 중퇴하고 에어비앤비, 드롭박스, 레딧, 스트라이프 등 전설적인 실리콘밸리 스타트업의 경영을 맡은 바 있다. 일론 머스크 테슬라 CEO와는 결이 다른 괴짜이자 천재 경영자라는 평을 받는다.
오픈AI 수석 과학자 수츠케베르 또한 굵직한 AI 기술을 개발했다. 약 10년 전 AI 딥러닝 혁명을 이끈 강력한 신경망인 알렉스넷(AlexNet)과 생성형 AI 혁명을 시작한 GPT 언어 모델(LLM)을 개발한 주역이다. 그는 급속한 AI 개발에 신중한 입장을 견지해오다가 이번 올트먼의 해고를 주도했다. 오픈AI 내부 보고서에 따르면 올트먼이 AI의 안전과 회사의 사명보다 이윤을 더 우선시하고 있다는 이유로 수츠케베르가 이사회 구성원을 설득해 그를 해고했다고 한다.
올트먼은 해고되기 몇 달 전 투자자들에게 새로운 AI 프로젝트에 대한 아이디어를 몇 가지 제시했다. 여기에는 엔비디아와 경쟁할 수 있는 맞춤형 칩 개발 계획과 함께 Q* 알고리즘 프로젝트가 포함돼 있었다. 챗GPT로 1년 만에 상업적 성장과 급속한 기술 개발을 이룬 오픈AI의 내부 분열 중심에 바로 Q* 알고리즘이 있는 것이다.
기업가치가 900억 달러(약 118조600억 원)까지 성장한 오픈AI. [뉴시스]
인간과 유사한 Q*
오픈AI의 코드 생성(Code Gen) 팀과 수학 생성(Math Gen) 팀이 결합해 추진하는 Q* 알고리즘 프로젝트는 현재 비밀리에 진행되고 있다. 기술 커뮤니티를 통해 조금씩 정보가 유출되고 있는 바에 따르면 Q* 알고리즘은 Q러닝과 A* 검색을 결합한 새로운 AI 모델로 추정된다. 사전 정의된 지식에 의존하는 챗GPT와 달리 Q*는 인간의 인지 기능과 유사한 고급 추론을 하도록 훈련받는다. 인간과 같은 추론과 인지 능력을 갖춘 AGI로 나아가는 단계라 할 수 있다. 아직 세부 사항이 공개되지 않았지만 오픈AI 내부 연구원들이 놀랄 만큼 획기적인 기술 성과를 이뤘다는 보고가 있다. 가장 큰 특징은 초등학생 수준의 기본 수학 문제를 자율적으로 해결하는 능력을 갖췄다는 점이다.그동안 많은 과학자가 수학 문제를 푸는 AI 모델을 개발하려고 애썼지만 쉽지 않았다. AI 모델로 하여금 자신이 다루는 내용을 추론하고 실제로 이해할 수 있는 능력을 갖추게끔 만드는 것은 매우 어려운 과제이기 때문이다. 웬다 리 영국 헤리엇와트대 컴퓨터과학과 조교수는 ‘MIT테크놀로지리뷰’를 통해 “현재까지 AI를 사용해 수학 문제를 안정적으로 풀 수 있는 알고리즘이나 올바른 아키텍처조차 없는 실정”이라며 “언어 모델이 사용하는 딥 러닝과 변환기(신경망의 일종)는 패턴 인식에 탁월하지만 그것만으로는 수학을 풀기에 충분하지 않다”고 말했다.
챗GPT와 GPT-4 같은 기존 언어 모델로 일부 계산을 수행할 수는 있지만 그다지 효율적이거나 안정적이지 않다. 이 AI 모델은 다음 단어를 통계적으로 예측해 글쓰기나 언어 번역이 가능하지만 같은 질문에도 답변이 달라지는 경우가 많다. 실제가 아닌 답을 그럴듯하게 말하는 ‘환각’이 생겨나는 경우도 빈번하다. 정답이 하나뿐인 수학을 정복한다는 것은 AI가 인간 지능과 유사한 추론 능력을 갖췄다는 것을 의미한다. 따라서 이러한 기능은 고급 AI 시스템의 특징이며, 인간 두뇌처럼 광범위한 지적 작업을 수행할 수 있는 AGI로 꼽힌다.
그동안 챗GPT 같은 거대 언어 모델이 발전해왔지만 많은 AI 연구자는 AGI가 개발될 것이라고 쉽게 예측하지 못했다. 전문가들은 AGI 단계로 발전하기까지 앞으로 수십 년은 아니더라도 수년이 걸릴 것이라고 말해왔다. 한편으로는 급격히 발전하는 AI 기술에 경계심을 나타내는 이들도 있다. 딥러닝의 선구자인 제프리 힌턴 캐나다 토론토대 컴퓨터과학자 또한 그중 한 명이다. 그는 ‘더뉴요커’를 통해 “인간 두뇌에는 못 미칠 것이라 생각했던 컴퓨터 모델이 어느새 인간의 실존을 위협하는 기술로 발전했다”며 “AI가 우리보다 똑똑해지더라도 인간에게 유익한 일을 하도록 제어하는 것은 매우 어려울 전망”이라고 말했다.
오픈AI의 Q* 알고리즘 정체가 일부 유출되면서 기술 커뮤니티에서도 환호와 우려가 동시에 쏟아지고 있다. 물론 수학 능력이 더욱 강화된 AI 시스템에 한 걸음 더 가까이 다가가도록 할 수는 있지만, 수학 문제를 해결한다고 해서 초지능이 탄생했다는 의미는 아니다. 그럼에도 Q* 알고리즘 개발을 우려하는 이유는 고급 추론 및 의사결정 기능을 통해 예측할 수 없는 행동이나 결과가 발생할 수 있기 때문이다. 또한 오용되거나 의도하지 않은 결과가 발생할 가능성도 간과할 수 없다. AGI에 가까워질수록 기술 발전과 책임을 아우르는 ‘AI 안전’이라는 키워드가 떠오르는 이유다.
최근 수츠케베르는 AI로 인한 위험을 관리하는 초정렬(Superalignment) 팀을 이끌고 있다. 이 팀의 목표는 모든 영역에서 인간의 지능을 능가하는 초인공지능 시스템이 개발될 때를 대비해 AI가 인간의 가치와 목표에 따라 행동하도록 관리하는 메커니즘을 구상하는 것이다. 사내 컴퓨팅 성능의 20%를 투입할 만큼 비중 있게 운영되고 있다.
AI 위험에 국제사회 함께 대응해야
수츠케베르는 ‘가디언’을 통해 “AI가 실업, 질병, 빈곤 등 우리가 안고 있는 모든 문제를 해결할 것으로 기대한다”며 “한편으로는 AGI가 올바르게 프로그래밍되지 않으면 가짜 뉴스 문제가 백만 배 악화되고 사이버 공격이 극심해지는 등 훨씬 많은 이슈를 만들어낼 것”이라고 경고했다.11월 영국이 주최한 AI 안전 회의 또한 같은 맥락에서 마련된 글로벌 정상회의다. 이번 회의는 영국 버킹엄셔주 블레츨리 파크에서 열렸다. 블레츨리 파크는 컴퓨터과학의 아버지로 불리는 앨런 튜링이 제2차 세계대전 당시 최초의 컴퓨터를 만들고 독일 에니그마 암호를 해독한 상징적인 곳이다. 유럽연합(EU)을 비롯해 영국, 미국, 중국, 인도 등 20여 개 참가국은 블레츨리 선언을 통해 AI를 안전한 방식, 즉 인간 중심적이고 신뢰할 수 있으며 책임감 있는 방식의 설계·개발·배포·사용에 협의할 것을 명시했다. 그리고 의도적인 악용과 의도치 않은 결과 등 AI가 가진 ‘잠재적’ 위험에 대응하기 위해 국제사회가 협력해야 한다고 촉구했다.
세계적인 딥러닝 연구자 중 한 명인 캐나다 컴퓨터과학자 요슈아 벤지오는 ‘네이처’를 통해 “매우 유용하면서도 잠재적 위험성이 있는 시스템을 구축하는 지금, AI 안전에 대한 키워드는 더는 피할 수 없는 주제”라며 “제약회사들이 생산하는 약에 독성이 없다는 것을 증명하려고 막대한 돈을 쓰듯이, AI 기술 또한 안전하다는 것을 증명하기 위한 노력이 필요하다”고 말했다.
*유튜브와 포털에서 각각 ‘매거진동아’와 ‘투벤저스’를 검색해 팔로잉하시면 기사 외에도 동영상 등 다채로운 투자 정보를 만나보실 수 있습니다.