오픈AI 무리한 기술 개발
인공지능(AI) 기술의 위험성을 알리지 못하도록 막고 있다는 사실이 알려지면서 비판받고 있는 오픈AI. [뉴시스]
오픈AI 내부에서도 비판 목소리가 커지고 있다. 6월 4일 오픈AI와 구글 전현직 직원 13명은 ‘첨단 AI에 대한 경고 권리(Right to Warn)’라는 제목의 공동 성명을 통해 “직원들이 보복 걱정 없이 AI 위험성을 경고할 수 있도록 하라”고 촉구했다. 특히 비영리연구단체로 출범한 오픈AI가 2022년 챗GPT로 대박을 터뜨린 이후 성장과 이익만 추구하면서 직원들이 AI의 위험성을 알리는 못하도록 그들을 막아왔다는 주장이다. 현재 오픈AI는 퇴사자를 대상으로 퇴사 후 회사를 비판하거나 AI를 우려하는 의견을 낼 경우 수백만 달러 상당의 스톡옵션을 박탈한다는 계약을 맺고 있다. 이에 대해 성명자들은 AI 기업 측에 비방 방지 및 기밀 유지 협약 체결을 중단할 것을 촉구하는 동시에 “기업 내부 규제만으로는 이 문제를 해결할 수 없다”며 “적절한 입법이 필요하다”고 강조했다.
성명자들은 AI 위험성도 경고했다. 성명자 중 1명인 대니얼 코코타일로 전 오픈AI 연구원은 “오픈AI가 범용인공지능(AGI)을 최초로 구축하고자 무리하게 경쟁하고 있다”며 “AGI가 인류를 파괴하는 재앙이 될 확률은 70%에 달한다”고 밝혔다. 그는 AGI가 2027년쯤 완성될 것으로 전망했다. 올해 4월 회사를 그만둔 코코타일로 전 연구원은 “오픈AI가 책임감 있게 행동하지 않을 것 같아 회사를 떠났다”면서 오픈AI가 감독을 제대로 하지 못하고 있는 점도 지적했다. 그는 “마이크로소프트(MS)가 챗GPT-4 새 모델을 테스트하기 전 안전위원회로부터 승인을 받지 못했다는 얘기를 들었다”며 “오픈AI는 그럼에도 출시를 막지 않았다”고 밝혔다. 또한 그는 지난해 샘 올트먼 오픈AI 최고경영자(CEO)에게 “AI 모델 기술을 개발하기 위해 앞장서기보다 AI 위험을 막는 데 더 많이 노력해야 한다고 조언했지만 이후에도 오픈AI는 크게 달라진 것이 없었다”고 전했다. 이에 대해 린지 헬드 오픈AI 대변인은 “핫라인을 포함해 직원들이 우려를 표명할 방법이 있다”고 말했다.
안전 뒷전 지적받는 샘 올트먼
이에 앞서 5월 18일 얀 리이크 전 오픈AI 수퍼얼라인먼트(Superalignment)팀 공동리더는 사임을 발표하며 오픈AI를 강하게 비판한 바 있다. 수퍼얼라인먼트팀은 오픈AI의 공동 창립자 중 한 명이자 ‘천재 개발자’로 통하는 일리야 수츠케버 전 오픈AI 최고과학자가 이끌던, AI 통제 방법을 연구하는 조직이었다. AI 기업에는 꼭 필요한 팀이지만 최근 전격 해체됐다. 리이크 전 공동리더는 자신의 X 계정에 “인간보다 똑똑한 기계를 만드는 것은 본질적으로 위험한 일”이라며 “하지만 지난 수년간 오픈AI는 잘나가는 제품 개발을 위해 안정성을 뒷전으로 밀어냈다”고 지적했다. 이어 그는 “수퍼얼라인먼트팀은 중요한 작업을 수행하는 일에 지원을 받지 못했다”고 주장했다. 올트먼이 회사 복귀 후 사내 자원을 신제품 개발에만 몰아줘 수퍼얼라인먼트팀은 제대로 연구를 진행할 수 없었다는 것이다. 지난해 11월 17일 올트먼은 이사회로부터 기습 해고됐지만 오픈AI 전체 직원의 95% 이상이 집단 퇴사를 예고하자 닷새 만에 CEO에 복귀한 바 있다. 당시 올트먼이 AI 안전성은 뒷전으로 미루고 기술 개발에만 속도를 내자 이에 반발해 반대파들이 그를 기습 해고한 것으로 알려졌다.한여진 기자
119hotdog@donga.com
안녕하세요. 한여진 기자입니다. 주식 및 암호화폐 시장, 국내외 주요 기업 이슈를 취재하고 있습니다.
美 빅테크 AI 투자 확대로 SMR·통신 수혜 전망
머스크와 빌게이츠… 희비 갈린 미국 기업인