2024.03 WAYNE HILLS AI FOUNDER:CAPTAIN.
EPISODE
사람들은 보통 1년 동안의 변화는 과도하게 기대하고 10년 동안의 변화는 과소 기대하는 경향이 있다.
엔비디아의 높은 주가와 OpenAI의 높은 Valuation은 결국 현금 창출 능력으로 지지 되어야 한다.
둘 다 LLM 기술이 얼마나 가치를 창출하고, 시장을 만들며, 원가 대비 높은 효용을 소비자들에게 제공하느냐에 달려 있다.
SORA를 비롯해서 획기적이고 신기한 서비스가 등장하고 있고, 파괴적인 여러 BM들이 쏟아져 나온다. 하지만, 차분히 생각해보자. 어떤 BM이 실제로 돈을 벌고, 기존 산업을 무너뜨리려면 투입 자원 대비 더 많은 가치를 기하급수적으로 만들어 내야 한다. 이 때 기존 산업과의 경쟁도 고려해야 한다.
8K 영상으로 1분짜리 광고를 만든다면, 초당 24프레임이므로 1440장의 이미지를 생성해야 한다. 감독이 원하는 수준의 품질에 도달하기 위해 세세한 수정을 100번 거친다고 하자. 즉 ABC를 담아서 만들어줘... ABD로 만들어줘... ABDc로 만들어줘... 하는 과정을 통해 계속 수정과 생성을 반복하게 된다.
이게 얼마나 많은 연산과 에너지를 소모하게 될까? 엔비디아의 신형 B200 그래픽 카드 하나가 1kW의 전력을 소비할 것으로 예상되는데, 8K 영상 1440장을 100번 생성하려면 B200을 몇 개 써서, 몇 번 작업을 해야 할까? 만약 수백만명의 유저가 각자 다양한 "생성"서비스를 요구하면 얼마나 부하가 걸릴까?
최근 미국에서는 [AI 전용 프로세싱 데이터 센터]의 전력 소비량에 대해 GW 단위를 이야기 하기 시작했다. 이해를 돕기 위해 다소 극단적인 가상의 사례를 살펴보자. 소위 하이퍼스케일 데이터 센터는 최소 10만대의 서버(게이밍 PC보다 조금 작은 사이즈)를 갖춘 규모이다. 하나의 서버에 B200을 8개 설치하면, AI 데이터센터에 80만개의 B200 이 돌아가게 된다. 1kW의 전력은 전자렌지나 다리미 한 대 돌릴 때의 전력량이므로 건물 내부에서 동시에 80만대의 전자렌지나 다리미를 켠다고 생각해보자.
이 데이터센터는 최소 0.8GW의 전력을 필요로 한다. 엄청나게 나오는 열을 냉각하기 위해 0.2GW의 전력을 투입해서 냉각장치를 돌린다고 치자. 센터 하나가 1GW의 전력을 필요로 하고, APR1400 원전 하나가 1.4GW의 전력을 생산할 수 있으니 데이터 센터 1대와 원전 1기를 연결해야 하는 셈이다.
그럼 B200은 얼마나 비싼가? 성능이 떨어지는 H100이 대당 5000만원 정도한다. 최신 AI 데이터센터 1동을 짓기 위해 돈을 얼마나 써야 할까? 시설 구축비는 빼고 80만개의 B200 가격만 40조원이다. LLM 사업이 호황이어서 100% 부하로 1년 8760시간 돌린다고 가정하자.
그럼 이 AI 전용 프로세싱 데이터센터는 1년에 전기를 최소 10 TWh 사용할텐데 그 전기료는 얼마일까? 요즘 전기요금을 적용하면 1조8000억원이다.
이 설비를 지어서 10년동안 운영하여 수익을 내려면 연간 이익을 얼마나 발생시켜야 할까? B200칩의 수명을 10년이라고 보면, 연간 대략 5조원의 이익을 내야만 투자를 회수할 수 있다. 이익률이 20%라고 보면 매년 25조원의 매출을 올려야 한다. AI 데이터센터 1동 기준이다.
정리하면, AI 데이터센터 1동에 40조원을 투자해서, 매년 전기료만 1조8000억원을 쓰고 매출은 25조원을 내는 회사들이 엔비디아의 고객이다. OpenAI는 그런 설비로 LLM 서비스를 해서 돈을 벌겠다는 것이다. AGI는 빼고도 결국 이런 구조의 사업을 하겠다는 건데, 이게 지속가능할까? 정말로?
물론 아주 극단적인 사례이다.
작년에 H100을 제일 많이 산 회사는 메타, MS 정도이고 각각 15만대 밖에 못 샀다. 공급량이 부족하기도 했다. 기존 데이터 센터의 서버랙에 AI 프로세싱 서버를 끼워 넣을 수도 있고, AI 데이터센터를 소규모로 여러 군데 지을 수도 있다. 하지만 LLM 사업 자체가 전기와 물 수요를 잘 관리해야 하고 투자 자금 이상의 돈을 벌어야 하는데, 기후위기와 에너지 전환기인 2024년 한번은 따져봐도 늦지 않다.
Comments