주간동아 1444

..

안팎에서 ‘AI 위험성’ 경고받는 오픈AI

일론 머스크, 애플-오픈AI 협업 비판… 내부선 “인류 파괴 확률 70%” 경고

  • reporterImage

    한여진 기자

    119hotdog@donga.com

    입력2024-06-19 09:00:01

  • 글자크기 설정 닫기
    챗GPT로 인공지능(AI) 주도권을 확대하고 있는 오픈AI가 높은 성장성 못지않게 안팎에서 논란에 휩싸이고 있다. 애플은 6월 10일(현지 시간) ‘2024 세계개발자회의(WWDC)’에서 오픈AI와 협업을 공식화하며 연말부터 애플의 AI 음성 비서 ‘시리(Siri)’에 오픈AI의 챗GPT를 적용한다고 밝혔다. 그러자 오픈AI 창립 멤버였던 일론 머스크 테슬라 최고경영자(CEO)는 이를 강도 높게 비난하며 자신의 엑스(X) 계정에 “오픈AI가 사생활을 보호할 수 있다는 건 터무니없다. 애플이 데이터를 오픈AI에 넘겨주면 실제로 무슨 일이 일어날지 전혀 모른다”며 강한 반감을 드러냈다. 이어 그는 “오픈AI가 당신을 배신할 수 있다”고 재차 경고했다.

    오픈AI 무리한 기술 개발

    인공지능(AI) 기술의 위험성을 알리지 못하도록 막고 있다는 사실이 알려지면서 비판받고 있는 오픈AI. [뉴시스]

    인공지능(AI) 기술의 위험성을 알리지 못하도록 막고 있다는 사실이 알려지면서 비판받고 있는 오픈AI. [뉴시스]

    머스크는 “애플이 현 운영체제(OS) 수준에서 오픈AI 기술을 통합하면 내 회사에서는 애플 기기를 사용 금지할 것”이라며 “방문자들은 문 앞에서 애플 기기를 확인받아야 하고, 기기는 패러데이 케이지(전자파 차단 상자)에 보관된다”고 지적했다.

    오픈AI 내부에서도 비판 목소리가 커지고 있다. 6월 4일 오픈AI와 구글 전현직 직원 13명은 ‘첨단 AI에 대한 경고 권리(Right to Warn)’라는 제목의 공동 성명을 통해 “직원들이 보복 걱정 없이 AI 위험성을 경고할 수 있도록 하라”고 촉구했다. 특히 비영리연구단체로 출범한 오픈AI가 2022년 챗GPT로 대박을 터뜨린 이후 성장과 이익만 추구하면서 직원들이 AI의 위험성을 알리는 못하도록 그들을 막아왔다는 주장이다. 현재 오픈AI는 퇴사자를 대상으로 퇴사 후 회사를 비판하거나 AI를 우려하는 의견을 낼 경우 수백만 달러 상당의 스톡옵션을 박탈한다는 계약을 맺고 있다. 이에 대해 성명자들은 AI 기업 측에 비방 방지 및 기밀 유지 협약 체결을 중단할 것을 촉구하는 동시에 “기업 내부 규제만으로는 이 문제를 해결할 수 없다”며 “적절한 입법이 필요하다”고 강조했다.

    성명자들은 AI 위험성도 경고했다. 성명자 중 1명인 대니얼 코코타일로 전 오픈AI 연구원은 “오픈AI가 범용인공지능(AGI)을 최초로 구축하고자 무리하게 경쟁하고 있다”며 “AGI가 인류를 파괴하는 재앙이 될 확률은 70%에 달한다”고 밝혔다. 그는 AGI가 2027년쯤 완성될 것으로 전망했다. 올해 4월 회사를 그만둔 코코타일로 전 연구원은 “오픈AI가 책임감 있게 행동하지 않을 것 같아 회사를 떠났다”면서 오픈AI가 감독을 제대로 하지 못하고 있는 점도 지적했다. 그는 “마이크로소프트(MS)가 챗GPT-4 새 모델을 테스트하기 전 안전위원회로부터 승인을 받지 못했다는 얘기를 들었다”며 “오픈AI는 그럼에도 출시를 막지 않았다”고 밝혔다. 또한 그는 지난해 샘 올트먼 오픈AI 최고경영자(CEO)에게 “AI 모델 기술을 개발하기 위해 앞장서기보다 AI 위험을 막는 데 더 많이 노력해야 한다고 조언했지만 이후에도 오픈AI는 크게 달라진 것이 없었다”고 전했다. 이에 대해 린지 헬드 오픈AI 대변인은 “핫라인을 포함해 직원들이 우려를 표명할 방법이 있다”고 말했다.

    안전 뒷전 지적받는 샘 올트먼

    이에 앞서 5월 18일 얀 리이크 전 오픈AI 수퍼얼라인먼트(Superalignment)팀 공동리더는 사임을 발표하며 오픈AI를 강하게 비판한 바 있다. 수퍼얼라인먼트팀은 오픈AI의 공동 창립자 중 한 명이자 ‘천재 개발자’로 통하는 일리야 수츠케버 전 오픈AI 최고과학자가 이끌던, AI 통제 방법을 연구하는 조직이었다. AI 기업에는 꼭 필요한 팀이지만 최근 전격 해체됐다. 리이크 전 공동리더는 자신의 X 계정에 “인간보다 똑똑한 기계를 만드는 것은 본질적으로 위험한 일”이라며 “하지만 지난 수년간 오픈AI는 잘나가는 제품 개발을 위해 안정성을 뒷전으로 밀어냈다”고 지적했다. 이어 그는 “수퍼얼라인먼트팀은 중요한 작업을 수행하는 일에 지원을 받지 못했다”고 주장했다. 올트먼이 회사 복귀 후 사내 자원을 신제품 개발에만 몰아줘 수퍼얼라인먼트팀은 제대로 연구를 진행할 수 없었다는 것이다. 지난해 11월 17일 올트먼은 이사회로부터 기습 해고됐지만 오픈AI 전체 직원의 95% 이상이 집단 퇴사를 예고하자 닷새 만에 CEO에 복귀한 바 있다. 당시 올트먼이 AI 안전성은 뒷전으로 미루고 기술 개발에만 속도를 내자 이에 반발해 반대파들이 그를 기습 해고한 것으로 알려졌다.



    *유튜브와 포털에서 각각 ‘매거진동아’와 ‘투벤저스’를 검색해 팔로잉하시면 기사 외에도 동영상 등 다채로운 투자 정보를 만나보실 수 있습니다.



    한여진 기자

    한여진 기자

    안녕하세요. 한여진 기자입니다. 주식 및 암호화폐 시장, 국내외 주요 기업 이슈를 취재하고 있습니다.

    평온한 美 증시에 ‘초대형 버블론’, 엔비디아 98% 폭락설

    국내에선 잘 안 통하는 액면분할 효과

    댓글 0
    닫기