오픈AI가 개발한 생성형 인공지능(AI) DALL-E가 그린 광자칩 이미지. [이종림 제공]
AI 컴퓨팅 성능 3개월에 2배 증가
챗GPT 같은 고성능 AI가 개발되면서 컴퓨팅 규모 또한 빠르게 확대되고 있다. 엔비디아 AI 칩은 늘어나는 수요를 따라가지 못해 품귀 현상을 빚은 지 오래다. 칩 가격이 치솟은 만큼 기업 몸값 또한 고공행진 중이다. 인텔, 마이크로소프트(MS), 아마존, 구글 등 거대 기업도 AI 칩이라는 황금시장에 뛰어들었지만 아직까지 이렇다 할 견제 대상이 되지는 못하고 있다. 기존 반도체업체들은 지난 50년간 신뢰해온 전자를 기반으로 전자칩을 개발했다. 높아지는 성능에 따라 칩의 트랜지스터 밀도를 늘리는 방법을 계속해서 고안해냈다. 트랜지스터 크기를 줄이고, 클록 속도(컴퓨터 프로세서 동작 속도)를 높였으며, 냉각과 낮은 전압 등 더 빠른 처리 속도를 가능하게 하는 방법들을 찾았다. 그러나 이런 방법들은 대부분 수년 안에 물리적 한계에 직면해 프로세서 속도가 빨라지는 것을 지원하지 못하는 시기에 도달할 것으로 전망되고 있다.국제에너지기구는 2026년 AI 관련 전력 소비가 2023년 대비 10배 증가할 것으로 예측했다. 현재 AI 모델은 수십억 개의 훈련 가능한 매개변수를 활용해 까다로운 작업을 수행한다. 거대모델을 훈련시키고 배포하려면 중규모 도시의 전력 수요에 해당하는 에너지를 소비해야 한다. 또한 대규모 데이터센터에서 제공하는 엄청난 메모리 공간과 컴퓨팅 기능이 필요하다. 컴퓨터 하드웨어 회사 라이트매터의 닉 해리스 최고경영자(CEO)는 국제전기전자공학회(IEEE)가 발간하는 ‘스펙트럼’을 통해 “AI에 필요한 컴퓨팅 성능은 3개월마다 2배로 증가한다”며 “무어의 법칙이 예측한 속도에 비해 폭발적으로 증가하는 컴퓨팅 수요가 기업과 경제를 위협할 수 있다”고 말했다.
고성능 AI 개발 속도를 유지하고 기계 학습 알고리즘을 지원하기 위한 가장 유망한 대안 중 하나는 아주 작은 빛 패킷(데이터 전송 단위)을 사용해 정보를 처리하는 방법이다. 이론적으로 광학컴퓨터는 동시에 더 많은 작업을 수행하고, 더 적은 에너지로 더 많은 데이터를 처리할 수 있다. 빛은 전자에 비해 여러 장점이 있기 때문이다. 광학 신호는 전기 신호보다 더 많은 정보를 전달할 수 있다. 즉 더 큰 대역폭을 가지며, 대량의 데이터를 프로세서 코어 사이에 거의 즉각적으로 전송한다. 광학 주파수는 전기 주파수보다 훨씬 크기 때문에 광학 시스템은 전자에 비해 짧은 시간에 더 많은 컴퓨팅 단계를 실행할 수 있다. 무엇보다 광자칩은 상대적으로 에너지가 적게 들어 환경 문제에 대한 부담이 덜하다. 이런 광학컴퓨팅은 AI와 같이 고속·고효율 처리를 요구하는 분야에서 획기적인 길을 열어줄 수 있다.
수백 배 효율적인 광학컴퓨팅
초기 개발된 광학 신경망의 얼굴 인식 시스템. [미국 캘리포니아공과대 제공 ]
이후 ONN 연구를 통해 AI의 기본이 되는 특정 계산 작업에서 빛 기반의 광학컴퓨터가 이점을 나타내는 것으로 입증됐다. 신경망에서 행렬 곱셈(matrix multiplication)은 기존 데이터에 대한 훈련이나 새 데이터 처리에서 기본 단계이지만, 이 과정에서 강력한 컴퓨팅 자원이 필요하다. 모든 AI 가속기의 목표는 신경망이 데이터를 처리하는 행렬 곱셈 과정에서 필요한 에너지를 줄이는 것이다. 이때 행렬 곱셈에 전기가 아닌 빛을 사용할 경우 훨씬 효율적일 수 있다. 2017년 MIT 양자광학연구팀은 이런 이론을 적용한 새로운 광학 신경망을 개발했다. 연구진은 빛의 광선으로 곱하고 싶은 수를 인코딩한 다음 위상(광파가 진동하는 방식)을 변경하며 광선을 보냈다. 광선을 반복적으로 분할하고 위상을 변경해 재결합시킴으로써 빛이 효과적으로 행렬 곱셈을 수행하도록 만들었다. 그리고 칩 끝에는 광선을 측정하고 결과를 나타내는 광검출기를 배치했다. 연구진에 따르면 이 칩은 기존 컴퓨터보다 수백 배 더 효율적으로 대규모 신경 네트워크를 처리할 수 있다.
올해 초 스위스 연방공과대(EPFL)에서 광학컴퓨팅을 연구하는 디미트리 프살티스 교수와 크리스토퍼 모저 교수 공동연구팀은 광학 신경망 아키텍처를 설계해 ‘어드밴스드 포토닉스 저널’에 발표했다. 연구진은 다중 모드 광섬유를 통한 빛 전파의 계산 능력을 확인하고, 프로그래밍이 가능한 매개변수와 결합시켜 디지털화했다. 그 결과 광학 신경망이 적은 메모리 및 에너지 소비로 기존 컴퓨터와 동일한 수준의 정확도를 달성한 것으로 나타났다.
물론 광자 시스템은 전자에 비해 높은 초기 비용, 기존 시스템과 통합 복잡성, 광범위한 전문 지식 부족 같은 문제에 처해 있다. 특히 메모리 분야에서는 광학 메모리가 대량생산 측면에서 획기적 발전을 이루지 못했다. 반면 고속 통신이나 양자컴퓨팅 분야에서는 더 큰 잠재력을 보여준다. 광자칩은 첨단 양자컴퓨팅을 구현하는 핵심 기술 중 하나로, 양자역학의 특성을 활용해 계산을 수행하기에 기존 컴퓨터보다 계산 효율이 높고 계산 능력도 강력하다. 피터 맥마흔 미국 코넬대 응용공학 및 물리학부 조교수는 미국 과학 전문 매체 ‘콴타매거진’을 통해 “여러 연구에서 광자칩은 전자칩에 비해 일반적으로 1000배 넘는 효율을 나타내는 것으로 확인됐다”며 “기업들이 수천 배 이익을 얻을 수 있다면 10년 프로젝트로 광학 신경망을 추구할 가치가 충분할 것”이라고 말했다.
실제로 반도체 기업 인텔과 TSMC를 비롯해 IBM, HP 등은 광자칩 제조 공정 기술을 적극 개발하고 있다. 일본 하마마츠, 독일 퍼스트센서, 미국 브로드컴은 광자 기술을 보유한 대표적인 업체들이다. 이미 1980년대부터 미국, 일본, 유럽은 관련 기술 산업에 투자해왔다. 미국은 1991년 미국 광전자산업활성화협회를 설립하고, 2014년 국가광학프로그램(National Photonics Program)을 열어 광학 및 광자 기초 연구개발과 응용을 지원하고 있다. 유럽은 2030년까지 글로벌 칩 생산량 점유율을 20%로 올린다는 유럽연합(EU) 반도체법이 승인됨에 따라 유럽 광학컴퓨팅 기업 CEO들이 8년간 42억5000만 유로(약 6조3060억 원)를 투자한다는 계획을 발표했다. 미국과 아시아에 주도권을 빼앗긴 반도체 시장에서 광자칩 연구로 새롭게 승부수를 띄운다는 전략이다.
세계 각국 광자칩 연구로 ‘승부수’
광자칩이 결합된 AI 가속기 허밍버드. [라이트인텔리전스 제공 ]
최근 중국 자금을 지원받은 미국 기반 광학컴퓨팅 업체 라이트인텔리전스는 64코어 AI 프로세서와 프로세서 코어를 연결하는 광자칩을 결합한 AI 가속기 허밍버드(Hummingbird)를 공개해 주목받았다. 이 기술은 프로세서와 메모리 속도의 격차를 줄이기 위해 광학 접근 방식을 사용해 다중 칩 설계를 확장한 것이다. ‘광 네트워크 온 칩’으로 불리는 이 기술은 통신과 전력 소비 문제를 일으키는 다중 칩의 문제를 해결하고 기존 전자칩의 한계를 넘어설 것으로 기대를 모은다. 모 스타인먼 라이트인텔리전스 엔지니어링 부사장은 전자산업 매거진 ‘EE타임스’를 통해 “광 네트워크 온 칩 기술이 엔비디아 제품을 대체할 것이라는 환상을 갖고 있진 않지만 기술 가능성에 무게를 두고 입증 가능한 것들을 제시할 계획”이라고 전했다.