본문 바로가기
AI

챗GPT의 인기, 진정한 승자는 NVIDIA?

by -Joy- 2023. 4. 6.

글쓰기나 그림 그리기와 같이 사람의 창의성을 필요로하는 작업을 소프트웨어로 수행할 수 있는 기술이 큰 인기를 끌고 있습니다. 챗GPT와 같은 생성형 인공지능 기술의 인기 및 인공지능 기술의 전쟁 속에서 진정한 승자는 Nvidia라는 말도 있는데, 이유는 뭘까요?

 

'챗GPT의 운영엔 왜 큰 돈이 들까' 바로가기

 

AI 기술과 GPU의 관계

먼저 Nvidia가 생성형 AI 기술에 대한 대화에서 중요한 역할을 하는 이유를 살펴볼 필요가 있습니다. 생성형 AI는 데이터베이스를 토대로 학습을 시키면 학습한 정보를 토대로 추론하여 답변을 생성해내는 방식의 소프트웨어입니다. 이를 위해서는 AI를 학습시키고 또한 추론의 배경이 되게 하는 디지털 정보를 저장하는 원격 데이터 센터와 수천 개의 칩이 필요합니다. 이렇게 학습과 추론에 방대한 데이터를 활용하는 AI 모델을 돌리는 칩은 테라바이트 수준의 데이터를 빠르게 처리할 수 있을만큼 강력해야 하는데, 이는 일반 컴퓨터 프로세서로는 불가능한 수준입니다. 이에 현재 AI 관련 기술에 이용되고 있는 것은 GPU(Graphic Processor Unit) 즉 그래픽 프로세서입니다. GPU는 원래는 3D 게임의 그래픽 렌더링을 위해 만들어졌지만 많은 양의 계산을 빠르게 수행할 수 있어 AI 기술의 '표준'이 되었습니다. 그리고 데이터 센터용으로 설계된 GPU도 따로 만들어지면서 AI 모델 훈련과 자연어 응답 생성을 더욱 빠르고 효율적으로 수행할 수 있게 되었습니다. 챗GPT와 같은 대규모 언어 모델(LLM)을 훈련시키는 데에는 수백 대의 GPU가 필요합니다. 또한 언어 모델의 지속적인 개선을 위해서는 더욱 많은 GPU를 필요로 합니다. 챗GPT의 인기와 관련 인공지능 기술의 발전으로 GPU의 수요는 최근들어 더욱 급증하고 있습니다.

 

Nvidia의 GPU가 AI 모델에 필수적인 이유

GPU 시장의 리더였던 엔비디아는 AI 열풍에서 가장 이익을 보는 회사들 중 하나로 부상했습니다. 개당 1만달러에 달하는 엔비디아 A100 GPU 시스템은 AI산업에서 가장 중요한 칩이 되었습니다. A100은 위에서도 언급한 것처럼 원래는 3D 게임의 그래픽 렌더링 기술을 기반으로 하지만 이제는 데이터 센터에서 머신러닝 작업에 활용되고 있습니다. 많은 계산을 동시에 할 수 있도록 지원하기 때문에 신경망 모델 훈련 및 활요에 중요하게 쓰이게 된 것입니다. 데이터 센터용으로 설계된 칩은 AI 모델을 훈련하는 데 걸리는 시간과 자연어 응답을 생성하는 데 걸리는 시간을 단축하는 데 있어서 단연 앞서게 되었습니다. 현재는 챗GPT, 빙 검색 AI, 스테이블 디퓨전 같은 머신러닝 모델에 유용하게 쓰이고 있습니다. AI 회사들은 서비스 운영을 위해 수백 개 또는 수천 개의 엔비디아 칩을 필요로 합니다. 인기 있는 AI 제품을 보유한 회사는 피크 기간을 처리하거나 모델을 개선하기 위해 지속해서 더 많은 GPU를 구입하고 있기도 합니다.

 

AI 분야의 일부 전문가들은 기업이 A100의 구매량을 늘리는 것을 서비스 발전의 신호로 보기도 합니다. 이미지 생성 AI 서비스 'Stability AI'를 보유한 Stable Diffusion사에 따르면 당사에서 1년 전 이용한 A100 GPU의 개수는 32대 정도였습니다. 서비스 초기만 해도 A100 GPU 32대에서 총 200,000만 컴퓨팅 시간동안 서비스를 훈련시켰는데, 순 하드웨어 구매에만(추론에 드는 비용 등은 제외) $600,000 정도가 들었습니다. 현재는 A100 GPU 약 5,400대를 구매 및 유지하고 있다고 합니다. 그새 Stable Diffusion사의 평가액도 10억 달러 수준으로 크게 뛰었습니다. 어느 기업이 총 몇 대의 A100 GPU를 운영하고 있는지를 추적하고 있는 회사도 있습니다. 그 기업이 기존에 몇 대를 운영했고 어느 시점에 몇 대씩을 추가 구매하고 있는지를 파악하면서 그 기업의 성적을 우회적으로 확인하는 것입니다.

 

메타에서 운영하고 있는 언어 모델인 LLaMA의 경우 엔비디아의 A100 GPU를 총 2,048대 운영했다고 알려져 있습니다. 약 1조 4천억 개의 토큰(750단어 = 토큰 1,000개)을 훈련시키는 데 약 21일이 걸렸다고 합니다. 다만 LLaMA는 빙과 챗GPT의 근간이 되는 GPT 모델 시리즈보다 훨씬 규모가 작은 언어 모델입니다. 관련사들의 추측에 따르면 빙을 운영하고 있는 마이크로소프트사 측에서 빙 채팅 운영을 위해선 약 20,000대 이상의 8-GPU 서버를 필요로 하며 인프라 구축에만 40억 달러를 필요로 하고 있습니다. 빙보다 훨씬 방대한 이용자를 지닌 구글이 빙 수준의 서비스를 모든 구글 이용자에게 제공하려면 매일 80억~90억 개의 쿼리를 처리해야 할텐데 이렇게 하려면 인프라 구축에만 800억 달러 이상이 들어가야 한다고 합니다. 구글이나 마이크로소프트가 아니더라도, 앞으로 더욱 많은 AI사들이 이러한 GPU를 사용해야 할텐데, 그 말인즉슨 AI 기술의 수요가 높아질수록 엔비디아의 A100에 대한 수요도 높아진다는 말이 됩니다. GPT와 같은 인공지능 기술이 일시적인 유행이 될지라도 당장 몇 년간은 계속 수요가 높아질 수밖에 없습니다.

 

진정한 승자는 NVIDIA?

AI 산업에서 쓰이고 있는 A100의 가격은 대당 약 $10,000 수준입니다. 관련 업계에서 농담삼아 하는 'GPU가 투자금액을 순식간에 녹여버리고 있다'는 말이 농담이 아닌 것입니다. AI 기술과 관련 서비스를 움직이는 데 필요한 GPU의 수요가 급증하면서 GPU 시장을 진작에 쥐어잡고 있었던 엔비디아는 AI 열풍에서 가장 큰 이익을 보는 회사로 부상했습니다. 2023년 현재 Nvidia의 GPU 제품인 A100의 AI 시장 점유율은 95% 수준입니다. 테라바이트 규모 데이터를 분석해 패턴을 빠르게 인식하고 추론하는 과정에서 GPU 성능이 갖는 비중은 점점 커지는 모양새입니다. 실제로 주가 측면에서도 엔비디아는 AI의 효과를 톡톡히 보고 있습니다. 작년 4분기 실적을 집계한 결과 엔비디아의 매출은 약 21%정도 하락했지만 그사이 주가는 14% 상승했습니다. GPU 관련 매출만 보면 약 11% 증가한 36억 달러를 기록하며 투자자들에게 긍정적인 평가를 받았기 때문이었습니다.

 

얼마 전 엔비디아의 CEO 젠슨 황도 이 상황과 관련하여 입을 열었습니다. 젠슨 황에 따르면 자사의 GPU 제품은 AI 모델의 데이터 학습에 들어가는 연산량에 비하면 가격이 꽤 저렴하게 책정되었다고 합니다. 일반 CPU를 사용했다면 10억 달러가 들어갔을 일을 자사 제품을 통해 1억 달러에 처리할 수 있는 것이며 GPT와 같은 대규모 언어 모델을 구축하는 데에 이제는 1,000만~2,000만 달러 수준의 '껌값'만 있으면 된다는 것입니다. 인공지능 기술을 보유한 다양한 기업들, 아니 구글이나 마이크로소프트, 메타 등의 IT 대기업들이 이와 같은 발언을 어떻게 생각할지는 모르겠지만, 적어도 엔비디아가 앞으로 당장 몇 년 간이라도 시장의 대부분을 잠식하며 엄청난 수익을 올릴 수 있는 위치에 있는 것은 분명해 보입니다.

 





댓글