AI AI
속보
심층
이벤트
더보기
자금 조달 정보
특집
온체인 생태계
용어
팟캐스트
데이터
OPRR
简体中文
繁體中文
English
Tiếng Việt
한국어
日本語
ภาษาไทย
Türkçe
BTC
$96,000
5.73%
ETH
$3,521.91
3.97%
HTX
$0.{5}2273
5.23%
SOL
$198.17
3.05%
BNB
$710
3.05%
XRP
$2.25
2.07%
DOGE
$0.325
2.23%
USDC
$0.999
3.05%

황인훈 최신 팟캐스트: 엔비디아의 모트와 계속될까요?

이 글을 읽으려면 99 분
엔비디아가 구축한 컴퓨팅 시스템과 개발자 생태계는 AI의 실행 방식과 산업 구도를 정의하고 있습니다.
비디오 제목: Jensen Huang: - Nvidia의 모트는 계속될 것인가?
비디오 저자: Dwarkesh Patel
번역: Peggy, BlockBeats


편집자 메모: 외부에서 여전히 "Nvidia의 모트는 공급망에서 비롯되는가"에 대해 논의하는 가운데, 이 대화는 실제로 재현하기 어렵다고 생각되는 것은 칩 자체가 아니라 "전자를 토큰으로 변환하는" 전체 시스템 능력이라고 주장합니다. 즉, 계산 아키텍처부터 소프트웨어 생태계, 개발자 생태계까지의 협력이 포함된 것입니다.


본문은 Dwarkesh Patel과 Jensen Huang(황인훈)의 대화를 번역한 것입니다. Dwarkesh Patel은 현재 가장 주목받는 실리콘밸리의 기술 팟캐스트 호스트 중 한 명으로, Dwarkesh Podcast YouTube 채널을 운영하며 깊이 있는 연구 방식의 인터뷰로 유명합니다. 인공지능 연구자 및 기술 산업 핵심 인물과 오랜 시간 대화를 나누었습니다.


오른쪽은 Dwarkesh Patel이고, 왼쪽은 Jensen Huang입니다.


이 핵심을 중심으로, 이 대화는 세 가지 측면에서 이해할 수 있습니다.


첫째는 기술과 산업 구조의 변화입니다.
엔비디아의 강점은 하드웨어 성능뿐만 아니라 CUDA가 지원하는 개발자 생태계와 계산 스택 주변에 형성된 경로 의존성에 있습니다. 이 시스템에서는 연산 능력이 더 이상 유일한 변수가 아니며, 알고리즘, 시스템 엔지니어링, 네트워크 및 효율성이 함께 AI의 진행 속도를 결정합니다. 이는 중요한 판단을 내리게 되며, 소프트웨어는 AI로 인해 간단히 "상품화"되지 않을 것이며, 그 대신 에이전트의 보급으로 인해 도구 호출이 기하 급수적으로 증가함에 따라 소프트웨어의 가치가 더욱 커질 것입니다.


둘째는 비즈니스 경계와 전략 선택입니다.
끊임없이 확장되는 AI 산업 체인에 직면하여, 엔비디아는 "필요한 모든 것을 하지만 모든 것을 하지는 않는" 선택을 하였습니다. 그들은 클라우드 컴퓨팅에 진입하지 않으며 과도한 수직 통합을 수행하지 않고, 투자와 생태계 지원을 통해 전체 시장 규모를 확대하였습니다. 이러한 절제는 그들이 핵심적인 통제력을 유지하면서도 생태계의 대안이 되지 않도록 하였으며, 결과적으로 더 많은 참가자들을 그들의 기술 생태계에 편입시켰습니다.


셋째는 기술 확산과 산업 구조의 상이함에 대한 것입니다.
대화에서 가장 긴장감이 있는 부분은 구체적인 결론에 있지 않고, "위험"을 어떻게 이해하는가에 있습니다. 한 관점은 연산 능력 우위가 가져온 초발전 우위에 중점을 두지만, 다른 한편에서는 기술 확산 과정에서의 생태계와 표준의 장기적 소속에 더 많은 관심을 기울입니다. 단기적 능력 차이보다 미래의 AI 모델과 개발자가 어떤 기술 체계 위에서 작동할지에 관한 것이 더 중요한 문제일 수 있습니다.


다시 말해, 이 경쟁의 최종 결론은 단순히 "더 강력한 모델을 먼저 만드는가"가 아니라 "모델 실행의 기반 구조를 정의하는가"이다.


이 의미에서, NVIDIA의 역할은 더 이상 칩 회사가 아니라 AI 시대의 "커널 운영 체제 제공 업체"에 더 가까워졌다 - 그들은 어떤 경우에도 계산 능력이 어떻게 확산되든 가치 창출 경로가 여전히 그 주변을 돌고 있다고 보장하려고 시도한다.


다음은 원문의 내용입니다 (이해를 돕기 위해 원본 내용이 일부 수정되었습니다):


요약


- NVIDIA의 요새는 "칩"이 아닌 "전자에서 토큰으로의 전체 시스템 능력"에 있다. 핵심은 하드웨어 성능이 아닌 계산을 가치로 전환하는 올인원 능력(아키텍처 + 소프트웨어 + 생태계)이다.


- CUDA의 본질적인 이점은 도구가 아니라 전 세계에서 가장 큰 AI 개발자 생태계에 있다. 개발자, 프레임워크, 모델이 모두 동일한 기술 스택에 묶여 독립하기 어려운 의존 경로를 형성한다.


- AI 경쟁의 핵심은 계산 스택 × 알고리즘 × 시스템 엔지니어링의 결합이다. 아키텍처, 네트워크, 에너지 효율, 소프트웨어 협업을 통한 향상은 단순한 공정 진보를 훨씬 능가한다.


- 계산 능력 병목은 단기 문제이며 공급은 2-3년 내에 수요 신호에 따라 보완될 것이다. 실제 장기 제약은 칩이 아니라 에너지 및 인프라이다.


- AI 소프트웨어는 상용화되지 않을 것이며, 대신 에이전트 폭발로 도구 사용이 기하 급수적으로 증가할 것이다. 미래는 소프트웨어 가격이 싸지는 것이 아니라 소프트웨어 호출 횟수가 폭증하는 것이다.


- NVIDIA의 핵심 전략은 클라우드를 포기하는 것이다: "필요한 모든 것"을 하지만 전체 가치 사슬을 포함하지는 않는다. 수직 통합이 아니라 투자와 생태계 지원을 통해 전체 시장 규모를 확대한다.


- 실제 전략적 위험은 경쟁사가 계산 능력을 확보하는 것이 아니라 글로벌 AI 생태계가 더 이상 미국 기술 스택을 기반으로하지 않는 것이다. 한번 모델과 개발자가 이동하면 장기적인 기술 표준 및 산업 지배권이 그에 따라 이동할 것이다.


인터뷰 내용


NVIDIA의 요새는 어디에 있으며, 공급망인가 "전자에서 토큰"의 통제권인가?


Dwarkesh Patel(주최자):


우리는 이미 여러 소프트웨어 회사들의 가치 평가가 하락했다는 것을 보았는데, 그 이유는 누구나 AI가 소프트웨어를 표준 상품으로 변신시킬 것으로 예측했기 때문이다. 약간 순진한 이해 방식으로, 일련의 과정을 거쳐 디자인 파일(GDS2)을 대만반도체에 전달하고, 대만반도체는 논리 칩, 웨이퍼를 제조하고, 스위치 회로를 구축하며, 마지막으로 SK하이닉스, 미크론, 삼성이 제조한 HBM과 함께 패키징하여 ODM에게 전달하여 전체 기기 랙으로 조립한다는 가능성이 조금 순진해 보인다.


참고: HBM(High Bandwidth Memory, 고대역 메모리)은 고성능 컴퓨팅 및 AI를 위해 고안된 선진 메모리 기술이며; ODM(Original Design Manufacturer, 원래 디자인 제조업체)는 생산 뿐만 아니라 제품 설계를 담당하는 하드웨어 제조업체를 가리킵니다.


그러므로 이 관점에서 볼 때, NVIDIA는 본질적으로 소프트웨어를 개발하고, 제조는 다른 업체에 의해 이뤄집니다. 소프트웨어가 상품화된다면 NVIDIA도 상품화될 것입니다.


Jensen Huang(장선 황, NVIDIA CEO):
그러나 근본적으로 전자를 토큰으로 변환하는 과정이 필요합니다. 전자에서 토큰으로, 그리고 이러한 토큰을 시간이 지남에 따라 가치 있게 만드는 것은 완전히 상품화하기 어려운 변환 과정이라고 생각합니다.


전자에서 토큰으로의 변환 자체가 매우 특별한 과정입니다. 그리고 한 토큰이 다른 토큰보다 가치 있게 만드는 것은 한 분자를 다른 분자보다 가치 있게 만드는 것과 같습니다.


이 과정에는 예술, 공학, 과학 및 발명이 많이 포함되어 있어야만 해당 토큰이 가치를 가지게 됩니다.


분명히, 우리는 이 모든 것이 실시간으로 일어나는 것을 관찰하고 있습니다. 따라서 이러한 변환 과정, 생산 과정 및 그 안에 포함된 다양한 신호들은 실제로 완전히 이해되지 않았으며 이 여정은 아직 끝나지 않았습니다. 따라서 그러한 상황이 발생하지 않을 것이라고 생각합니다.


물론, 우리는 이를 더욱 효율적으로 만들 것입니다. 사실, 당신이 방금 문제를 설명한 방식은 사실상 저의 NVIDIA에 대한 하나의 마인드 모델입니다: 입력은 전자, 출력은 토큰이며, 이 사이의 부분이 NVIDIA입니다.


우리의 작업은 "필요한 일은 최대한 하고, 불필요한 일은 최소화하여" 이러한 변환을 실현하고 극도의 능력을 부여하는 데 있습니다.


제가 말한 "최소화"는 우리가 직접 수행할 필요가 없는 모든 부분에 대해 다른 사람들과 협력하고 그것을 우리의 생태계로 통합한다는 의미입니다. 오늘날의 NVIDIA를 살펴보면 우리가 상류 공급망 및 하류 공급망에서 가장 큰 규모의 협력 생태계 중 하나를 보유하고 있을 것입니다. 컴퓨터 제조업체, 애플리케이션 개발자부터 모델 개발자까지 - AI를 "다섯 층 케이크"로 볼 수 있습니다. 우리는 이 다섯 가지 수준에서 생태계를 갖추고 있습니다.


관련 기사: "NVIDIA Jensen Huang의 최신 기사: AI의 '다섯 층 케이크'"


그래서 우리는 최소한의 일만 하려고 노력하지만, 하지만 반드시 해야 하는 그 부분은 사실 매우 어려운 일입니다. 그 부분이 상용화되지는 않을 것이라고 생각합니다.


실제로 기업용 소프트웨어 회사가 본질적으로 "도구 제조"를 하는 것으로 보지 않습니다. 하지만 현실은, 오늘날 대부분의 소프트웨어 회사가 실제로 도구 공급업체입니다.
물론 예외도 있으며, 일부는 워크플로우 시스템을 코딩하고 고정시키지만, 많은 회사들이 본질적으로 도구 회사입니다.


예를 들어 Excel은 도구이고, PowerPoint는 도구이며, Cadence가 하는 것은 도구이고, Synopsys도 도구입니다.


Jensen Huang:
내가 보는 추세는, 많은 사람들의 견해와는 정반대입니다. 저는 에이전트의 수가 기하급수적으로 증가할 것이라고 생각하며, 도구 사용자의 수도 기하급수적으로 늘어날 것이라고 봅니다.


다양한 도구의 호출 사례 수도 크게 증가할 가능성이 매우 높습니다. 예를 들어 Synopsys Design Compiler의 사용 사례는 대폭 증가할 것으로 예상됩니다.
많은 에이전트가 floor planner, layout 도구, 디자인 규칙 확인 도구를 사용할 것입니다.


오늘날, 우리는 엔지니어의 수에 제한을 받고 있지만; 내일에는 이러한 엔지니어들이 다수의 에이전트로 지원되며, 우리는 이전에 없던 방식으로 설계 공간을 탐색할 것입니다. 오늘날 이러한 도구를 사용할 때, 이러한 변화는 매우 뚜렷하게 나타날 것입니다.


도구 사용은 이러한 소프트웨어 회사들이 폭발적인 성장을 이루도록 할 것입니다. 이러한 상황이 아직 일어나지 않은 이유는, 현재의 에이전트들이 아직 도구 사용에 미숙하기 때문입니다.


따라서, 이러한 회사들이 자체적으로 에이전트를 구축하거나, 에이전트 자체가 충분히 강력해져서 이러한 도구를 사용할 수 있게 될 것입니다. 결국 두 가지가 결합될 것으로 생각합니다.


Dwarkesh Patel
제가 기억하기로는 최근 공개된 내용 중에서, 여러분들이 경계 구성 요소, 메모리, 패키징 등에서 약 1000 억 달러 가까운 구매 약속을 했다고 합니다. 그리고 SemiAnalysis의 보고서에 따르면, 이 수치는 2500 억 달러에 이를 수도 있다고 합니다.


한 가지 해석은, NVIDIA의 요새는 여러 해 이러한 희귀 구성 요소들의 공급을 잠재운 것입니다. 다른 이들도 가속기를 만들 수 있겠지만, 그들이 충분한 메모리를 확보할 수 있을까요? 충분한 논리 칩을 확보할 수 있을까요?


이것이 NVIDIA의 앞으로 몇 년간의 핵심 장점이 되는 것일까요?


Jensen Huang:
이것은 우리가 할 수 있지만, 다른 사람들에게는 매우 어려운 일입니다. 우리가 상류에서 거대한 약속을 할 수 있는 이유는 일부는 명시적이며, 즉 당신이 말한 이러한 구매 약속임니다; 나머지는 암시적입니다.


예를 들어, 상류의 많은 투자는 사실 우리의 공급망 파트너가 수행한 것입니다. 왜냐하면 나는 그들의 CEO에게 말합니다: 나에게 이 산업이 얼마나 커질지 말씀해 주세요, 왜 이렇게 될 것인지 설명해 주세요, 함께 추론해 봅시다, 제가 보는 것을 말씀해 주세요.


이러한 과정을 통해 정보 전달, 비전 제시, 합의 구축을 통해, 나는 상류 다른 산업의 CEO들과 일치시킬 수 있었고, 그들은 이러한 투자를 하기 위해 기꺼이 했습니다.


그들이 왜 다른 사람이 아닌 나에게 투자하길 원하는 이유가 무엇인가요? 그들은 나가 그들의 생산능력을 살 수 있는 능력이 있고, 나의 하류를 통해 소비할 수 있다는 것을 알기 때문입니다. 바로 엔비디아의 하류 수요와 공급망 규모가 매우 크기 때문에 그들은 상류에서 투자하기를 원하는 것입니다.


GTC를 본적이 있나요? 컨퍼런스 규모는 많은 사람들이 놀랐을 것입니다. 본질적으로 그것은 360도의 AI 우주이며, 전체 산업을 하나로 연결했습니다. 사람들은 함께 모이는데, 그 이유는 서로를 알아야 하기 때문입니다. 나는 그들을 하나로 모아서, 상류가 하류를 볼 수 있도록 하고, 하류가 상류를 볼 수 있도록 하고, 동시에 모든 사람이 AI의 발전을 볼 수 있도록 했습니다.


그들은 더 중요한 것은, 그들이 AI 네이티브 기업과 스타트업에 접근할 수 있으며, 혁신의 다양한 형태가 일어나고 있음을 직접 확인할 수 있어서, 나의 판단들을 눈으로 직접 확인할 수 있습니다.


그래서 나는 많은 시간을 투자했습니다, 우리의 공급망 및 에코 시스템 파트너들에게 현재의 기회를 직간접적으로 설명했습니다. 많은 사람들은 제 기조연설이 제품을 순차적으로 발표하는 전통적인 발표회와는 달리, 보다 교육적으로 듣기가 어렵다고 말합니다. 이것이 바로 제 목적입니다.


나는 전체 공급망이 — 상류든 하류든 — 앞으로 무엇이 일어날지, 왜 그런지, 언제 일어날지, 규모가 얼마나 클지를 이해하고, 이러한 문제들을 나처럼 시스템적으로 추론할 수 있도록 해야 한다고 확신합니다.


그래서 방금 말한 그 "모트"가 실제로 존재합니다. 이 시장이 몇 년 내에 천억 달러 규모로 성장한다면, 우리는 이를 지탱할 수 있는 공급망을 구축할 수 있습니다. 현금흐름이 그렇듯이, 공급망도 흐름과 회전이 있습니다. 비즈니스 구조의 회전율이 충분치 않으면, 아무도 그에 대한 공급망을 구축하지 않을 것입니다. 우리가 이러한 규모를 유지할 수 있는 것은, 하류 수요가 매우 강력하며, 모두가 이를 볼 수 있기 때문입니다.


정확히 이것 때문에, 우리는 현재의 규모로 이러한 일들을 할 수 있습니다.


Dwarkesh Patel
저는 상류가 따라갈 수 있는지 더 구체적으로 이해하고 싶습니다. 지난 몇 년 동안 당사의 수익은 연간 거의 두 배씩 증가했으며, 제공되는 글로벌 컴퓨팅 규모는 세배로 증가했습니다.


Jensen Huang:
그리고 이 척도에서 계속해서 두 배씩 증가하고 있습니다.


Dwarkesh Patel
예. 그래서 논리 칩을 살펴보면, 당신들은 TSMC의 N3 공정의 주요 고객 중 하나이며, N2에서도 주요 고객 중 하나입니다.
어떤 분석에 따르면, 올해 AI는 N3 생산량의 60%를 차지할 것으로, 내년에는 86%까지 이를 수 있다고 합니다.


참고: N3은 TSMC의 3나노미터(3nm) 공정 노드를 가리키며, 현재 최첨단 칩 제조 기술 중 하나로 이해할 수 있습니다.


그렇다면 이미 이러한 큰 비중을 차지한 상황에서, 어떻게해서더 두 배로 늘릴 수 있을까요? 그리고 매년 두 배씩이나 늘리는 것이 가능한가요? 우리는 AI 성능의 성장이 상류 제한으로 인해 느려져야 하는 단계에 접어든 것일까요? 이러한 제한을 우회할 방법이 있을까요? 어떻게 매년 두 배의 웨이퍼 공장을 건설할 수 있는 걸까요?


Jensen Huang:
어떤 순간에는, 순간적인 수요가 실제로 전체 산업의 공급을 초과할 수 있으며, 상류든 하류든 상황에 따라 우리는 때때로 배관공(needs)의 수에 제한을 받을 수 있습니다 - 이것은 실제로 발생한 일입니다.


Dwarkesh Patel:
그렇다면 내년 GTC에는 배관공을 초대해야겠네요.


Jensen Huang:
그래, 이것은 사실 좋은 현상입니다. 여러분이 기대할 수 있는 시장 속에 있는 것이죠: 순간적인 수요가 산업 전체 공급보다 큰 경우입니다. 그 반대는 물론 좋은 일이 아닙니다.


만약 그 두 가지 사이의 간격이 너무 커지면, 특정 부분, 특정 구성 요소가 명백한 병목이 되어 산업 전체가 그것을 해결해야 합니다. 예를 들어, 지금은 CoWoS에 대해 많이 이야기하지 않는 것을 알 수 있습니다. 그 이유는 지난 두 년간에 저희가 그에 엄청난 규모의 투자를 하고 확장했기 때문에, 그 증가가 몇 배로 증가했기 때문입니다.


지금 전반적으로 상태가 꽤 좋은 것 같습니다. TSMC도 알고 있습니다. CoWoS의 공급은 논리 칩과 메모리 수요의 성장을 따라야 한다. 따라서 그들은 CoWoS를 확장하고, 동시에 미래의 고급 패키징 기술을 확장하고 있으며, 논리 칩과 동일한 속도로 확장하고 있습니다.


이것은 매우 중요합니다. 이전에는 CoWoS와 HBM 메모리가 "특수 능력"처럼 보였지만, 이제는 아닙니다. 이제 모든 사람들이 그것들이 주류 컴퓨팅 기술의 일부라는 것에 인식하고 있습니다.


동시에, 우리는 더 넓은 공급망에 영향을 미치기위한 능력을 가지고 있습니다. 과거에는, AI 혁명이 막 시작했을 때, 나는 지금 제가 하는 판단을 이미 5년 전에 했습니다.


일부 사람들은 믿었고 투자했습니다. 예를 들어, Micron의 Sanjay 팀이 있었습니다. 나는 그 회의를 지금까지도 명확히 기억합니다. 그때 미래가 어떻게 전개될지, 왜 그렇게 될지, 그리고 오늘날 이러한 결과들이 어떻게 예견되었는지에 대해 명확하게 설명했습니다. 그들은 그때 크게 투자를 선택했고, 우리도 그들과 협력 관계를 구축했습니다. LPDDR, HBM 등 다양한 분야에서 그들은 투자했고, 분명히 그들에게는 큰 보상이 있었습니다. 나중에 뒤쳐진 회사들도 있었지만, 지금은 모두가 이 단계에 도달했습니다.


그래서 나는 모든 기술 세대, 모든 병목 현상이 많은 주목을 받게 될 것이라고 생각합니다. 현재, 우리는 이러한 병목 현상을 몇 년 앞당겨서 "먼저 예견"하고 있습니다. 예를 들어, 우리는 Lumentum, Coherent 및 실리콘 포토닉 생태계 전체와의 협력을 통해 이러한 병목 현상을 앞당겼습니다. 지난 몇 년간, 우리는 사실상 전체 생태계와 공급망을 다시 구축했습니다.


실리콘 포토닉 분야에서, 우리는 TSMC를 중심으로 완전한 공급망을 구축했고, 그들과 기술 개발을 위해 협력하며, 많은 새로운 기술을 창안했고, 이러한 특허를 공급망에 라이선스로 제공하여 생태계를 개방했습니다. 우리는 새로운 기술, 새로운 워크플로우, 새로운 테스트 장비(쌍면 탐촉 등)를 개발하고, 관련 기업에 투자하고, 그들이 생산능력을 확대하는 데 도움을 주어 공급망을 준비시켰습니다.


그래서 당신은 볼 수 있듯이, 우리는 실제로 이러한 생태계를 적극적으로 이끌어내어 공급망이 미래 규모를 지원할 수 있도록 하고 있습니다.


Dwarkesh Patel:
일부 병목 현상이 다른 것보다 해결하기 쉽다고 들립니다. 예를 들어, CoWoS를 확장하는 것보다 더 어려운 것들과 비교해 보면


Jensen Huang:
사실 제가 방금 언급한 것은 가장 어려운 사례였습니다.


Dwarkesh Patel:
뭐요?


Jensen Huang:
배관공. 네, 정말입니다. 제가 말한 것이 가장 어려운 사례였습니다 - 배관공과 전기공. 그 이유는, 이것이 일부 "종말론자"들의 이야기에 약간의 우려를 갖게 합니다. 그들은 항상 일자리가 사라지고, 직업이 대체될 것이라고 얘기합니다. 만약 우리가 그로 인해 누군가에게 소프트웨어 엔지니어가 되지 말라고 권유하면, 미래에는 진짜로 소프트웨어 엔지니어가 부족할 것입니다.


유사한 예측은 10년 전에도 나왔습니다. 그 당시에 누군가는 "무엇이든 하지만 방사선과학 의사가 되지 마세요." 라고 말했습니다. 당신은 여전히 그 비디오를 온라인에서 찾을 수 있습니다. 방사선과학이 사라질 첫 번째 직업이 될 것이고, 세상은 더는 방사선과학 의사가 필요하지 않을 것이라고 말하는 것들을요. 그러나 현실은, 우리가 방사선과학 의사가 부족한 상황에 있습니다.


Dwarkesh Patel:
좋아요, 그럼 방금 얘기한 문제로 돌아가보죠: 어떤 부분은 확장할 수 있고, 어떤 부분은 안 되죠. 그러면 구체적으로 얘기해 보면, 논리 칩의 생산능력을 어떻게 두 배로 늘리나요? 결국 진정한 병목 현상이 여기 있고, 메모리와 논리가 제한 요소입니다. 그럼 EUV 리소그래피 장비는요? 매년 그 양을 두 배로 어떻게 만드나요?


젠슨 황:
이런 것들은 모두 불가능한 일이 아닙니다. 실제로 생산능력을 빠르게 확장하는 것은 쉽지 않지만, 이러한 것들을 2~3년 안에 실현하는 것은 실제로 어렵지 않습니다. 핵심은 명확한 수요 신호를 가지는 것입니다. 한 번 기계를 만들면, 열 대를 만들 수 있고; 열 대를 만들면, 백만 대를 만들 수 있습니다. 그래서 본질적으로 이러한 것들은 복사하기 어렵지 않습니다.


드와르케쉬 파텔:
그럼 이러한 판단을 공급망에 얼마나 깊이 전파시킬 것인가요? 예를 들어 ASML을 찾아가서 우리가 3년 뒤에는 NVIDIA의 연간 매출을 2조 달러로 만들기 위해 더 많은 EUV 광학 리소가 필요하다고 말할 것인가요?


젠슨 황:
제가 직접 하는 일도 있고, 간접적으로 추진하는 일도 있습니다. 만약 TSMC를 설득할 수 있다면, 자연히 ASML도 설득될 것입니다. 그래서 우리는 핵심 병목 현상을 인식해야 합니다. 하지만 TSMC가 이 경향을 믿는다면, 몇 년 뒤에는 충분한 EUV 장비를 보유하게 될 것입니다.


제가 말하고 싶은 것은, 어떤 병목도 2~3년 이상 지속되지 않을 것이라는 것입니다, 절대로.


이와 동시에, 우리는 계산 효율성을 향상시키고 있습니다. Hopper에서 Blackwell로 진화함에 따라, 대략 10배에서 20배가 향상되었고, 경우에 따라 30배에서 50배까지 이를 겪었습니다. 우리는 끊임없이 새로운 알고리즘을 제안하고 있습니다. CUDA가 충분히 유연하기 때문에, 우리는 생산능력을 확대하는 동시에 효율성을 향상시킬 수 있는 다양한 새로운 방법을 개발할 수 있습니다.


그래서 이러한 것들은 나를 걱정케 하지 않습니다. 실제로 나를 걱정하게 하는 것은 다운스트림 이외의 인자들입니다, 에너지 정책 같은 것들입니다. 에너지가 없다면, 확대할 수 없습니다; 에너지가 없다면, 산업을 구축할 수 없습니다; 에너지가 없다면, 새로운 제조 산업 시스템을 구축할 수 없습니다.


지금 우리는 미국의 재공업화를 촉구하고, 칩 제조, 컴퓨터 제조, 패키징을 미국으로 되역하고자 하며, 동시에 전기 자동차, 로봇 등 신산업을 구축하고자 합니다. 우리가 AI 공장을 건설할 때, 이러한 것들은 모두 에너지에 의존하며, 에너지 관련 건설 주기는 매우 길기 때문입니다. 이와 비교해서, 칩 생산능력을 증가시키는 것은 2~3년 문제입니다; CoWoS 생산능력을 증가시키는 것도 2~3년 문제입니다.


드와르케쉬 파텔:
매우 흥미로운 얘기네요. 내가 만나본 일부 게스트들은 제공한 판단이 정반대였습니다. 그러나 이 문제에 대해서는 제가 충분한 기술 배경이 없어 판단하기 어렵습니다.


젠슨 황:
하지만, 좋은 점은, 여러분은 지금 전문가들과 대화 중입니다.


Google의 TPU가 NVIDIA의 위치를 흔들 것인가요?


두아케쉬 파텔:
네, 맞아요. 제가 여쭤보고 싶은 건 경쟁사에 대한 것입니다. TPU를 본다면, 현재 세계 상위 3대 대형 모델 가운데 2개인 Claude와 Gemini은 TPU로 훈련되었다고 말할 수 있습니다. 이것이 미래에 Nvidia에게 의미하는 것은 무엇인가요?


주: TPU(Tensor Processing Unit, 텐서 처리 장치)는 구글이 인공지능(특히 딥 러닝)을 위해 고안한 특수 칩 종류입니다


젠슨 황:
우리가 하는 일은 전혀 다릅니다. Nvidia가 구축한 것은 "가속 계산"(accelerated computing)이며, 텐서 처리 장치(TPU)가 아닙니다.


가속 계산은 다양한 작업에 사용될 수 있으며, 분자 동력학, 양자 크로노다이내믹스 등에 사용되며, 데이터 처리, 데이터 프레임워크, 구조화된 데이터, 비구조화된 데이터, 유체 역학, 입자 물리, 물론 AI에도 사용됩니다. 따라서, 가속 계산의 응용 범위는 훨씬 더 넓습니다.


현재 말이 주로 AI로 집중되어 있지만, AI는 실제로 매우 중요하며 많은 영향을 미칩니다만, "계산" 자체의 범위는 AI보다 훨씬 넓습니다. Nvidia가 하는 것은 계산을 범용 계산에서 가속 계산으로 재구성한 것입니다. 저희의 시장은 어떤 TPU나 다른 특수 가속기가 다룰 수 있는 범위보다 훨씬 더 큽니다.


우리의 위치를 살펴보면, 우리는 다양한 종류의 응용 프로그램을 가속화할 수 있는 유일한 회사입니다. 우리는 대규모의 생태계를 보유하고 있으며 다양한 프레임워크와 알고리즘이 Nvidia 플랫폼에서 실행될 수 있습니다. 또한, 저희의 컴퓨팅 시스템은 "타인이 운영"할 수 있도록 설계되었습니다. 어떤 운영자도 저희 시스템을 구입하여 사용할 수 있습니다.


대부분의 자체 개발 시스템은 타인이 사용하도록 설계되지 않은 경우가 많으며, 기본적으로 직접 운영해야 합니다. 이러한 이유로 우리의 시스템은 아무도 운영할 수 있도록 설계되지 않은 경우가 많으며, 우리의 시스템을 사용하여 다른 사람이 플랫폼에 진입할 수 있도록 구성할 수 있습니다.


임대 계산을 위해 연산력을 임대하려는 경우 여러 산업을 대상으로 한 대규모 고객 생태계를 보유해야만 합니다. 시스템을 자체적으로 사용하려는 경우, 저희는 물론이고 가능성을 갖추고 있습니다. 예를 들어, 일론의 xAI.


어떤 산업, 어떤 회사의 운영자라도 우리의 시스템을 사용할 수 있으므로 릴리와 같은 회사를 위해 초고속 컴퓨터를 구축하여 과학 연구와 의약품 발견에 활용할 수 있습니다. 저희는 그들이 자체적인 초고속 컴퓨터를 운영하도록 도와주고, 이를 통해 의약품 연구와 생물학의 다양한 응용 분야에 활용할 수 있으며, 이러한 영역을 가속화할 수 있습니다.


그래서 우리는 다양한 응용 프로그램을 다룰 수 있고 TPU는 그렇지 못합니다. 네비디아가 구축한 CUDA도 매우 우수한 텐서 처리 플랫폼으로 작용할 수 있지만, 그게 전부만은 아니며 데이터 처리, 계산, AI 등의 전 과정을 다룹니다. 그래서 우리의 시장 기회는 훨씬 크고 범위도 넓습니다. 또한 우리가 거의 모든 종류의 전 세계 응용 프로그램을 지원하고 있기 때문에 어디서든 네비디아 시스템을 배포할 수 있으며 반드시 사용 고객이 있을 것입니다.


그래서 이것은 본질적으로 완전히 다른 것입니다.


Dwarkesh Patel:
이 질문은 약간 길어질 것입니다.


당신들의 현재 수익이 매우 놀라운데, 이러한 수익은 주로 제약업체나 양자 컴퓨팅에서 오지 않습니다. 당신들은 이러한 비즈니스를 통해 분기마다 600 억 달러를 버는 것이 아니라 AI가 전례 없는 기술이며 전례 없는 속도로 발전하고 있다는 이유로 번 돈입니다.


그래서 문제는: AI만 본다면, 최적의 솔루션이 무엇인가요? 저는 하위 수준 개발자가 아니지만 몇몇 AI 연구자 친구들과 이야기했을 때 TPU를 사용할 때 매우 큰 배열이며 행렬 곱셈에 적합하다고 말합니다. GPU는 더 유연하며 많은 분기 및 불규칙한 메모리 액세스를 처리하기에 적합합니다.


하지만 만약 AI를 본다면, 본질적으로 한 번 또 한 번 매우 예측 가능한 행렬 곱셈인가요? 그러면 warp 스케줄링, 스레드 전환, 메모리 뱅크 등과 같은 기능들로 칩 면적을 차지할 필요가 없습니다. 그래서 TPU는 현재의 이러한 컴퓨팅 수요 및 수익 성장에 있어, 주요 응용 분야에 대해 매우 최적화되어 있습니다.


이 관점에 대해 어떻게 생각하시나요?


Jensen Huang:
행렬 곱셈은 AI에서 중요한 한 부분이지만, 그것이 AI 전부는 아닙니다.


새로운 어텐션 메커니즘을 제안하거나 다른 방식으로 계산을 수행하려는 경우; 하이브리드 SSM과 같이 완전히 새로운 아키텍처를 설계하려는 경우; 확산 및 자기회귀를 융합한 모델을 구축하려는 경우 — 당신이 필요로 하는 것은 범용 프로그래밍 가능한 아키텍처이며, 우리는 당신이 상상할 수 있는 모든 것을 실행할 수 있습니다.


이것이 우리의 강점이며, 이는 새로운 알고리즘을 발명하는 것을 훨씬 쉽게 만듭니다. 이는 프로그램 가능한 시스템이라는 이유로, 새로운 알고리즘을 지속적으로 발명함으로써 AI가 그렇게 빠르게 진보할 수 있는 이유입니다.


TPU와 다른 모든 하드웨어는 모두 무어의 법칙의 영향을 받습니다. 우리는 무어의 법칙이 연간 약 25%의 성능 향상을 제공한다는 것을 알고 있습니다. 그래서 10배나 100배의 성능 향상을 달성하려면 매년 알고리즘과 그 계산 방식을 근본적으로 변경해야 합니다.


이것이 NVIDIA의 핵심 강점입니다.


우리가 Blackwell을 Hopper와 비교했을 때 크게 향상시킨 이유는 — 제가 당시 35배라고 말한 것 — 제가 처음으로 Blackwell의 효율성이 Hopper보다 35배 향상될 것이라고 발표했을 때, 아무도 믿지 않았습니다.


나중에 Dylan이 기사를 썼는데, 실제 향상이 50배에 더 가깝다고 하고, 이러한 향상은 모어(MoE)와 같은 새로운 모델 구조를 도입하고, 계산을 병렬화하고, 디커플링하며, 분산 처리하고, 전체 컴퓨팅 시스템으로 확장하는 것으로는 달성할 수 없다고 언급했습니다. 우리가 이 문제를 해결한 방법은 CUDA를 이용하여 새로운 컴퓨팅 커널을 개발하고, 이러한 업그레이드를 수행하는 데는 무어의 법칙만으로는 충분하지 않다는 점입니다.


참고: Dylan Patel은 반도체 및 AI 인프라 영역의 유명한 분석가이며, 연구 기관 SemiAnalysis의 설립자입니다.


따라서 우리의 강점은 아키텍처의 프로그래밍 가능성과 NVIDIA가 산업 파트너십을 맺은 회사로서의 측면에 있습니다. 우리는 컴퓨팅의 일부를 NVLink나 Spectrum-X와 같은 상호 연결 아키텍처로 오프로드할 수 있습니다. 다시 말해, 우리는 프로세서, 시스템, 인터커넥트, 소프트웨어 라이브러리, 알고리즘 등 다양한 영역에서 동시에 변화를 주도할 수 있습니다. 이 모든 것이 동시에 이루어집니다. 만약 CUDA가 이 모든 것을 지원하지 않는다면, 전혀 어디서부터 시작해야 할지 몰라야 합니다.


Dwarkesh Patel:


이는 NVIDIA의 고객 구조에 대한 한 가지 질문을 던집니다: 여러분의 수익의 60%가 이 다섯 대 규모 클라우드 공급업체로부터 온다면 (초대형 클라우드 사업자), 다른 시대에 다른 유형의 고객, 예를 들어 실험을 하는 교수님들에게, CUDA에 매우 의존적입니다. 다른 가속기를 사용할 수 없고 PyTorch + CUDA를 사용해야 하며, 모든 것이 최적화되어 있어야 합니다.


하지만 만약 이러한 초대형 클라우드 공급업체들이라면, 스스로 커널을 직접 작성할 수 있습니다. 실제로 그들은 그런 일을 해야 합니다. 마지막 5%의 성능을 끌어내려면 말이죠. Anthropic이나 Google 같은 회사들은 많은 시간 자체 개발 가속기나 TPU를 사용하여 훈련합니다. 심지어 OpenAI도 GPU를 사용할 때 Triton을 사용하며, 자체 커널이 필요하다고 말합니다. 따라서 그들은 CUDA C++를 직접 작성하고 cuBLAS나 NCCL과 같은 라이브러리를 사용하지 않고 자체 소프트웨어 스택을 구축하며, 다른 가속기로 컴파일 할 수 있습니다.


그래서 여러분의 대부분 고객들에게는 CUDA를 대체할 수 있고 실제로 대체하고 계실 수 있습니다. 그렇다면 CUDA는 정말 전선 AI개발에 여전히 필수적으로 NVIDIA에 의존할 정도로 어디까지 중요한가요?


Jensen Huang:
먼저, CUDA는 매우 풍부한 생태계입니다. 어떤 컴퓨터에서든 개발을 시작한다면 CUDA부터 시작하는 것이 매우 현명한 선택입니다. 이 생태계가 매우 풍부해서 우리는 모든 주류 프레임워크를 지원합니다.


사용자 지정 커널을 작성해야 하는 경우, Triton과 같이, 우리는 Triton의 백엔드에 NVIDIA 기술을 많이 기여하며 다양한 프레임워크가 더 나아지도록 적극적으로 도와주고 있습니다. 이제 Triton, vLLM, SG Lang 등 많은 프레임워크가 있습니다.


사후 훈련(post-training) 및 강화 학습의 발전으로 이 분야는 빠르게 확장되고 있습니다. 예를 들어 Vairal, NeMo RL 및 새로운 다양한 프레임워크가 있습니다. 특정 아키텍처에서 개발해야 한다면 CUDA에서 시작하는 것이 가장 합리적입니다. 왜냐하면 여러분이 만든 코드가 문제인 경우에는 밑바닥에 있는 많은 코드 문제가 아닌 여러분의 코드가 문제일 가능성이 높습니다.


또한 이 시스템들의 코드 베이스는 매우 방대합니다. 시스템에 문제가 발생하면 그 문제가 여러분에게서 오는지, 그리고 컴퓨팅 플랫폼 자체에 오는지 알고 싶어할 것입니다.


당연히 여러분은 문제가 여러분에게서 발생한 것인지, 컴퓨팅 플랫폼에서 발생한 것인지를 원할 것입니다. 물론, 우리 자신도 많은 버그를 가지고 있지만, 저희 시스템은 이미 매우 성숙해졌기에 신뢰할 만한 기반 위에 여러분이 계속해서 구축할 수 있습니다.


두 번째로, 설치 기수의 규모입니다. 무슨 일을 하든 개발자라면 가장 중요한 것은 "설치 기수" 입니다. 여러분이 작성하는 소프트웨어가 가능한 한 많은 컴퓨터에서 실행될 수 있기를 원합니다. 여러분은 자신을 위해 소프트웨어를 작성하는 것이 아니라, 클러스터 전체 또는 심지어 산업 전체를 위해 소프트웨어를 작성하는 것입니다. 왜냐하면 여러분은 프레임워크 개발자이기 때문입니다.


NVIDIA의 CUDA 생태계는 본질적으로 우리의 가장 중요한 자산입니다. 글로벌에서는 이미 수 억 개의 GPU가 있습니다. 모든 클라우드 공급자가 V100, A100, H100, H200부터 L 시리즈, P 시리즈까지 다양한 사양을 제공합니다.


그리고 그들은 다양한 형태로 존재합니다. 로봇 회사라면, CUDA가 로봇에 바로 설치되어 실행되기를 바랄 것입니다. 우리는 거의 모든 곳에 있습니다.


즉, 소프트웨어나 모델을 개발하고 나면 어디서든 사용할 수 있습니다. 그래서 이 설치 기수 자체의 가치는 극도로 큽니다.


마지막으로, 배포 위치의 유연성입니다. 저희는 모든 클라우드 플랫폼에 존재하며, 이것이 저희를 독특하게 만드는 요소입니다. AI 회사 또는 개발자로서, 최종적으로 어떤 클라우드 공급업체와 협력할지 확신하지 못하고 시스템이 어디에서 실행될지도 확신할 수 없습니다. 하지만 저희는 모든 곳에서 실행될 수 있으며, 온프레미스 배포 (on-prem)를 포함하여 모든 곳에서 실행할 수 있습니다.


그래서, 생태계의 다양성, 설치 베이스의 규모, 그리고 배포 위치의 유연성은 이 모두가 결합될 때 매우 가치 있는 것입니다.


Dwarkesh Patel:
그 말이 맞습니다. 하지만 궁금한 점은, 이러한 이점이 여러분의 주요 고객들에게 실제로 중요한지입니다. 이러한 이점을 누릴 수 있는 많은 사람들이 있지만, 소프트웨어 스택을 직접 구축할 수 있는 분들—즉, 여러분에게 주요 수입원이 되는 분들—특히 강화 학습 시나리오와 같이 AI가 "검증 가능한 피드백 루프" 작업에서 점점 강력해지는 세계에서 주의를 기울여야 할 것입니다. 예를 들어, 어텐션 또는 MLP와 같은 커널 최적화는 매우 쉽게 검증 가능한 피드백 루프입니다.


그렇다면 이러한 대규모 클라우드 공급업체들은 이러한 커널을 직접 작성할 수 있을까요? 물론, 그들은 여전히 비용 대비 효율성을 이유로 NVIDIA를 선택할 수 있을 것입니다. 하지만 문제는, 대부분의 고객이 소프트웨어 스택을 직접 구축할 수 있다면, CUDA에 의존하지 않는다면, 이러한 수익률을 유지할 수 있을까요?


Jensen Huang:
우리는 이러한 AI 연구소에 투입된 엔지니어들의 수가 매우 많으며, 그들과 함께 일하며 전체 기술 스택을 최적화해 주는데 도움을 주고 있습니다. 그 이유는, 누구보다도 우리의 아키텍처에 대해 잘 알고 있기 때문입니다. 그리고 이러한 아키텍처는 일반적인 CPU처럼 보편적이지 않습니다.


CPU는 조금 마치 "가정용 자동차"와 같습니다. 이를 크루즈 컨트롤로 운전하는 모든 사람이 잘 운전할 수 있고, 모든 것이 간단합니다. 그러나 NVIDIA의 GPU 가속기는 F1 레이싱 카와 같습니다. 누구나 시속 100마일로 운전할 수 있다고 상상할 수 있지만, 그것을 극한까지 밀어붙이려면 상당한 전문 지식이 필요합니다.


또한 우리는 이러한 커널을 생성하기 위해 많은 양의 AI를 사용합니다. 저는 상당히 확신합니다. 상당한 기간 동안 저희는 여전히 필수적일 것입니다. 저희의 전문 능력은 이러한 AI 연구소의 파트너가 매우 쉽게 성능을 두 배로 향상시킬 수 있습니다. 종종 저희는 그들의 기술 스택이나 특정 커널을 최적화한 후, 그들의 모델이 3배, 2배 또는 50%까지 가속화될 수 있습니다. Hopper와 Blackwell 클러스터를 보유한 점을 감안할 때 특히 이것은 매우 큰 성능 향상입니다.


성능을 2배로 향상시키면 수익도 2배로 증가합니다. 이는 직접적인 수익에 대응됩니다. NVIDIA의 컴퓨팅 스택은 전 세계적으로 TCO(총 소유 비용)면에서 우수하며 어떤 경쟁사도 존재하지 않습니다. 어떤 플랫폼이 성능/TCO 비율 면에서 우리보다 나은지를 입증할 수 있는 회사는 없습니다. 전혀 없습니다. 게다가 이러한 벤치마크 테스트는 공개적으로 존재합니다.


Dylan이 맞다고 말했습니다. Inference Max는 공개되어 있으며 누구나 사용할 수 있습니다. 그러나 어떤 TPU 팀도 그들의 추론 비용 우위를 보여주기 위해 사용하고 싶어하지 않습니다. 이것은 매우 어렵습니다. 아무도 이를 입증하려고 나서지 않습니다.


MLPerf도 마찬가지입니다. 그들이 주장해온 40%의 우위를 입증하는 것을 환영합니다. TPU의 비용 우위를 입증하는 것을 보고 싶습니다. 제게는 이것이 무의미하다고 생각되며 기본적인 원리에도 부합하지 않습니다. 전혀 설득력이 없습니다.


그래서 저는 우리가 성공한 근본적인 이유는 우리의 TCO가 매우 우수하기 때문이라고 생각합니다.


또 하나, 당신이 말한 대로 우리의 60% 고객은 상위 5대 제조사에서 나왔지만, 이러한 비즈니스의 대부분은 사실 외부 고객을 대상으로 합니다. 예를 들어, AWS에서 NVIDIA의 컴퓨팅 리소스 대부분은 외부 고객에 제공됩니다. Azure에서도 우리의 고객들은 주로 외부 고객이며, OCI에서도 마찬가지입니다. 그들이 우리를 선택하는 이유는 우리의 보급 규모가 매우 넓기 때문입니다.


우리는 전 세계에서 최고 품질의 고객을 그들에게 제공할 수 있으며, 이러한 고객들 자체가 NVIDIA 플랫폼 위에 구축되어 있습니다. 그리고 이러한 기업들이 NVIDIA 위에 구축된 이유는 우리의 보급 규모와 유연성이 매우 강하기 때문입니다.


그래서 저는 이 돌아가는 바퀴의 작용 때문에 성공한 것이라고 생각합니다: 설치 기초, 아키텍처의 프로그래밍 가능성, 생태계의 지속적인 축적. 그리고 지금은 전 세계적으로 수천 개의 AI 기업들이 있습니다. 만약 여러분 중 한 기업이 AI 스타트업이라면, 어떤 아키텍처를 선택하겠습니까? 가장 보급화되어 있고, 최대 설치 기초를 가진, 가장 풍부한 생태계를 가진 아키텍처를 선택할 것입니다. 이것이 이번 바퀴의 논리입니다.


그래서 그 이유는:


· 첫째로, 당사의 단위 비용 성능은 매우 높으므로 토큰 비용이 가장 낮습니다;

· 둘째로, 당사의 단위 전력 성능은 전 세계 최고 수준이며, 파트너가 1GW 데이터 센터를 구축한다면 최대의 토큰을 생성해야 하며, 즉 가장 많은 수익을 창출해야 합니다. 그리고 당사의 아키텍처는 단위 전력 아래에서 가장 많은 토큰을 생성할 수 있습니다.

· 제 세 번째 목표는 컴퓨팅 자원을 임대하는 것이라면, 저희는 세계에서 가장 많은 고객을 보유하고 있습니다.


이것이 이 플랫폼이 설립된 이유입니다.


Dwarkesh Patel:
흥미로운 점입니다. 제 생각에는 이 문제의 핵심은 시장 구조가 어떤지에 있습니다. 많은 기업들이 존재하더라도, 수천 개의 AI 기업이 컴퓨팅 자원을 거의 동등하게 나눠가지는 상황이 있을 수 있습니다.


하지만 실제 상황이 대규모 클라우드 공급업체들을 통해 Anthropic, OpenAI와 같은 베이지 모델 기업들이 실제로 컴퓨팅 자원을 사용하고, 이들은 서로 다른 가속기를 모두 활용할 수 있는 능력이 있을 수도 있습니다.


Jensen Huang:
저는 여러분의 전제가 틀린 것이라고 생각합니다.


Dwarkesh Patel:
아마도요. 그럼 다른 방식으로 질문을 바꾸겠습니다. 성능과 비용에 관한 이러한 주장이 모두 사실이라면, 왜 Anthropic과 같은 기업들이 최근 Broadcom, Google과 다중 외부 TPU와 협력했을까요? 그리고 그들의 대부분 컴퓨팅 자원은 이러한 시스템에서 비롯됩니다. Google에게 있어 TPU 자체가 주요 컴퓨팅 원천입니다. 그래서 이러한 대형 AI 기업들을 보면, 이전에는 주로 NVIDIA를 사용했으나 최근에는 그렇지 않습니다.


이러한 이점이 이론적으로 성립한다면, 그렇다면 왜 그들은 여전히 다른 가속기를 선택하는 걸까요?


Jensen Huang:
Anthropic은 비교적 특별한 사례입니다. Anthropic이 없다면, TPU의 성장은 거의 존재하지 않았을 것입니다. TPU의 성장은 거의 전적으로 Anthropic에서 비롯되었습니다. 마찬가지로, Anthropic이 없다면 교육 수요의 성장도 거의 존재하지 않았을 것입니다.


이는 매우 명백한 사실입니다. 수많은 유사한 기회가 존재하는 것이 아니라, 실제로 Anthropic 하나뿐입니다.


Dwarkesh Patel:
그러나 OpenAI도 AMD와 협력하고 있으며, 그들은 자체 Titan 가속기를 개발 중입니다.


참고: AMD(Advanced Micro Devices)는 미국의 반도체 기업으로, 계산 칩을 주로 설계하며, NVIDIA 및 Intel의 주요 경쟁사입니다.


Jensen Huang:
그들의 대부분은 여전히 NVIDIA를 사용하고 있습니다. 우리도 계속해서 협력할 것입니다. 다른 솔루션을 시도하는 다른 사람들 때문에 불만을 느끼지 않습니다. 그들이 다른 방법을 시도하지 않는다면, 우리 솔루션이 얼마나 훌륭한지 어떻게 알 수 있을까요?


가끔은 이 점을 재확인하기 위해 비교해야 할 때가 있습니다. 또한 우리는 현재의 위치를 자랑스럽게 여겨야 합니다.


시장에는 항상 다양한 이야기들이 있습니다. ASIC 프로젝트가 얼마나 취소되었는지 살펴보십시오. ASIC를 시작했다고 해서 반드시 NVIDIA보다 나은 제품을 만들 수 있다는 뜻은 아닙니다.


사실, 이것은 쉽지 않습니다. 오히려 이를 합리적으로 고려한다면 상당히 내용이 맞지 않는다고 할 수 있습니다. NVIDIA가 일부 심각한 실수를 했다고는 볼 수 있지만, 우리의 규모와 속도를 고려할 때——우리는 매년 대대적인 도약을 이루는 전 세계에서 유일한 기업입니다.


Dwarkesh Patel:
그들의 논리는 다음과 같습니다: NVIDIA보다 나은 제품을 만들 필요는 없으며, NVIDIA의 70%보다 못 한다면 충분하다. 왜냐하면 그들은 여러분의 이익율이 70%라고 생각하기 때문입니다.


Jensen Huang:
하지만 실제로는 ASIC의 이익율도 매우 높습니다. NVIDIA의 이익율은 대략 60%–70% 정도이며, ASIC의 이익율도 65% 정도 될 수 있습니다. 그래서 여러분은 실제로 얼마나 절약하게 될까요?


어딘가에 비용을 지불해야 합니다. 그러므로 제가 본 것처럼, 이러한 기본(ASIC) 비즈니스의 이익율은 사실 매우 높으며, 그들 스스로도 그렇게 생각하며 자랑스럽게 여깁니다.


아주 이른 시기에, 우리는 이것을 할 능력이 없었습니다. 사실 말하자면, 그때 제가 기반 모델 실험실인 OpenAI나 Anthropic과 같은 것을 구축하는 것이 얼마나 어려운지 실제로 깊이있게 이해하지 못했습니다. 또한, 그것들이 사실 공급자로부터 대규모 투자 지원을 받아야 한다는 점을 완전히 자각하지 못했습니다.


그 당시에, 우리는 Anthropic이 우리의 컴퓨팅 자원을 사용하도록 투자하는 등 50억 달러 이상을 투자할 능력이 없었습니다. 그러나 Google과 AWS는 가능했습니다. 그들은 처음부터 상당히 많은 자금을 투입했고, 그 대가로 Anthropic은 그들의 컴퓨팅 자원을 사용했습니다.


그때 우리가 그것을 할 수 없는 능력이 없었고, 나는 말씀 드리겠습니다, 이것은 제 실수 중 하나입니다: 실제로 그들이 다른 선택지가 없다는 점을 정말 인식하지 못했습니다. 위험 투자 기관들이 AI 실험실을 지원하기 위해 50억 달러나 100억 달러를 투자할 수는 없고, 그것이 Anthropic으로 성장하기를 기대할 수는 없습니다.


이것은 제 판단의 실수였습니다. 하지만 그 당시에도 그것을 알았다면, 우리가 그 단계에서 그것을 할 능력이 있다고 생각하지 않았습니다.


하지만 나는 같은 실수를 다시 하지 않을 것입니다. OpenAI에 투자하고, 그들이 확장하는 데 도움을 준 것에 대해 기쁘게 생각합니다. 후에 Anthropic이 저희를 찾을 때, 나는 투자자가 되어 기여하고 그들이 성장하는 것을 돕는 데 기쁨을 느꼈습니다.


그냥 그 당시에는 우리가 그것을 할 수 없었다. 다시 하고 싶다면, 만약 당시에 엔비디아가 지금처럼 강력했다면, 저는 이러한 일을 매우 즐겁게 할 것입니다.


왜 엔비디아는 '클라우드'를 하지 않았을까요?


Dwarkesh Patel:
이것은 매우 흥미로운 문제입니다. 오랜 시간 동안, 엔비디아는 인공지능 분야에서 '삽을 팔아 돈을 벌었던' 회사였고 많은 돈을 벌었습니다. 그리고 지금 여러분들은 이 돈들을 그 곳에 투자하기 시작했습니다. 보도에 따르면, 여러분들은 OpenAI에 300억을 투자했고, Anthropic에 100억을 투자했다고 합니다. 그리고 이러한 회사들의 가치는 계속 상승하고 있습니다.


그래서, 여러 해를 회고할 때, 여러분들은 그들에게 컴퓨팅 자원을 제공하고, 트렌드를 보았으며, 그 당시 그들의 가치는 지금의 십분의 일이나 심지어 일 년 전보다 훨씬 낮았습니다. 하지만 당시 여러분들은 이미 많은 현금을 보유하고 있었습니다.


사실, 이러한 가능성이 존재했습니다: 엔비디아 자체가 기본 모델 회사가 되거나, 좀 더 일찍 더 낮은 가치에 대규모 투자를 했다면, 여러분이 지금 하는 것과 유사한 일을 했을 것입니다.


그래서 저는 정말 궁금합니다, 왜 그렇게 일찍 시작하지 않았는지요?


Jensen Huang:
우리는 '할 수 있는 시점'에 즉시 행동했습니다. 만약 당시에 가능했다면, 더 일찍 시작할 것입니다. Anthropic이 우리의 지원이 필요했을 당시, 나는 그것을 지원했을 것입니다. 그러나 당시에 우리는 실제로 그런 능력이 없었습니다.


이것은 우리의 능력 범위에 속하지 않았으며, 또한 우리의 의사결정 관행에도 해당하지 않았습니다.


Dwarkesh Patel:
자금 문제인가요, 아니면?


Jensen Huang:
네, 투자 규모의 문제입니다. 당시에 우리는 외부 투자에 대한 전통이 거의 없었으며, 그 규모의 투자는 물론 이야기조차 나오지 않았습니다. 그리고 우리는 그것이 필요한 것임을 깨달지 못했습니다.


당시 내 생각은, 그들은 완전히 리스크 투자를 찾아가서, 다른 회사들처럼 했으면 된다고 생각했습니다. 그러나 그들이 하려는 일은 실제로 리스크 투자로서는 지원할 수 없는 것이었습니다. OpenAI가 하려는 일도, 리스크 투자가 지원할 수 있는 것이 아니었습니다.


나중에 깨달은 것은 이것입니다. 그러나 그들의 이것이 화려한 결정이었다. 그들은 당시에 그렇게 해야 한다는 것을 알아차렸습니다. 저는 그들이 그렇게 한 것에 기쁘게 생각합니다. 비록 우리가 그 때 참여하지 못하여 Anthropic이 다른 협력자로 전환하게 되었지만, 그래도 이것은 좋은 일이라고 생각합니다. Anthropic의 존재는 전 세계에게 좋은 일이며, 그것에 대해 기쁘게 생각합니다. 몇 가지 유감은 수용 가능합니다.


드와케시 파텔:
그러면 한 가지 핵심 질문에 다시 돌아가 보죠. 지금까지 이미 많은 자금을 보유하고 있으며 이는 계속해서 증가하고 있습니다. 그렇다면 NVIDIA는 이 자금을 어떻게 활용해야 할까요?


하나의 아이디어는 현재 중간 계층 에코시스템이 있어서, 이러한 AI 연구소들이 자본 지출(capex)을 운영 지출(opex)로 전환하여 컴퓨팅 리소스를 임대할 수 있도록 도와주는 것입니다.


GPU가 매우 비싸지만, 모델이 발전함에 따라 그들은 라이프사이클 동안 더 높은 가치의 토큰을 지속적으로 생성할 수 있습니다. 그리고 NVIDIA 자체가 이러한 초기 자본 지출을 감당할 능력을 갖고 있습니다. 예를 들어, 보도에 따르면, CoreWeave에 대해 630억 달러의 지원을 제공했으며 200억 달러를 투자한 바도 있습니다.


그렇다면 NVIDIA가 왜 직접 클라우드 공급자가 되지 않을까요? 왜 하이퍼스케일러가 되어 자체 클라우드를 구축하고 컴퓨팅 리소스를 임대하지 않을까요? 결국 여러분은 해당 자금력을 갖고 있습니다.


Jensen Huang:
이것은 회사의 철학적 문제이며, 저는 이것이 현명한 철학이라고 생각합니다: "할 수 있는만큼 많은 일을 하되, 할 수 있는 만큼 철저히 적은 일을 하라."


이것은 우리가 컴퓨팅 플랫폼을 구축하는 데 있어서, 만약 우리가 하지 않는다면, 저는 이 일은 정말 아무도 하지 않을 것이라고 믿습니다.


만약 우리가 이러한 위험을 감당하지 않고, NVLink를 구축하지 않고, 전체 소프트웨어 스택을 구축하지 않고, 이 에코시스템을 구축하지 않고, 20년 동안 CUDA를 만들어내지 않는다면(이 중 상당 부분은 손해를 보는 시점도 있습니다), 이러한 CUDA-X의 도메인 특화 라이브러리를 만들지 않고 (광선 추적, 이미지 생성, 초기 단계 AI 모델, 데이터 처리, 구조화된 데이터, 벡터 데이터 처리 등), 만약 우리가 이런 것들을 하지 않는다면, 이러한 것들은 존재하지 않을 것입니다.


'저는 이것에 대해 전적으로 확신합니다. 우리는 심지어 광학 리소그래피 계산을 위해 cuLitho 라이브러리를 개발했습니다. 만약 우리가 이것을 하지 않는다면, 누구도 이를 수행하지 않을 것입니다. '


그래서, 계산 가속이 오늘날 이 정도로 발전할 수 있는 이유는 우리가 이러한 일을 했기 때문입니다. 이것이 우리가 힘을 모아서 할 필요가 있는 분야입니다.


그러나 동시에, 세계에는 이미 많은 클라우드 공급자들이 있습니다. 심지어 우리가 하지 않더라도 누군가가 도전해올 것입니다. 그렇기 때문에 "필요한 일은 가능한 많이 하되, 그렇지 않은 일은 가능한 적게 하라"라는 원칙에 기반하여, 회사 내에서 이러한 이념이 계속 존재합니다. 저는 이러한 관점에서 모든 결정을 내립니다.


클라우드 분야에서, 우리가 CoreWeave를 초기부터 지원하지 않았다면, 이러한 새로운 유형의 AI 클라우드(neocloud)는 존재하지 않았을 것입니다. 만약 우리가 그들을 지원하지 않았다면, 그들이 오늘날의 규모로 발전하지 않았을 것입니다. Nscale, Nebius 같은 것도 마찬가지이며, 우리의 지원이 없었다면 그들은 지금의 발전을 이루지 못했을 것입니다. 그리고 지금, 그들은 모두 잘 발전하고 있습니다.


그러나 이것이 우리가 직접 해야 할 비즈니스인가요? 아닙니다. 우리는 여전히 그 원칙을 고수합니다. 필요한 일을 하고, 그 외의 것을 최소화하려고 합니다. 그래서 우리는 생태계에 투자합니다. 전체 생태계가 번영하기를 희망하기 때문입니다. 우리의 아키텍처가 가능한 많은 산업과 국가를 연결하고, 전 세계적으로 AI가 구축되어 미국의 기술 스택 위에 구축되기를 희망합니다.


이것이 우리가 추진하고 있는 비전입니다.


동시에, 방금 언급했듯이 많은 우수한 기본 모델 회사들이 현재 존재하고 있으므로 우리는 그러한 회사들에 최대한 투자하려고 합니다.


또 한 가지, 우리는 '승자 선택'을 하지 않을 것입니다. 우리는 모두를 지원하고자 합니다. 이것은 우리의 비즈니스 요구사항이자 우리가 하려는 것입니다. 그래서 한 회사에 투자할 때, 다른 회사들에도 투자할 것입니다.


Dwarkesh Patel:
그렇다면 왜 승자를 선택하지 않겠다고 일부러할까요?


Jensen Huang:
왜냐하면 그것이 우리의 책무가 아니기 때문입니다. 첫 번째로.


두 번째로, NVIDIA가 처음 설립됐을 때, 그래픽스 회사가 약 60곳이었고, 3D 그래픽을 하는 회사가 약 60곳이었지요. 결국 우리만이 살아남았습니다. 만약 당시 60곳 중 하나를 성공시킬 수 있다면, NVIDIA가 가장 좋지 않은 선택이었을 가능성이 매우 높습니다.


그것은 당신의 세대 이전의 이야기이지만, 그때 NVIDIA의 그래픽 아키텍처는 완전히 잘못되었습니다. 약간의 차이가 아닌 근본적으로 잘못되었습니다. 우리는 개발자가 거의 지원할 수 없는 아키텍처를 디자인했고, 그것은 처음부터 실패했을 운명이었습니다. 우리는 매우 합리적인 '첫 번째 원리'를 기반으로 했지만 최종적으로 잘못된 결론에 이르렀습니다.


모든 사람들이 우리가 성공할 수 없다고 생각했지만 우리는 최종적으로 살아남았습니다. 그래서 저는 이를 인정할만큼 충분히 겸손하며 승자를 선택하지 않으려 합니다. 그들이 스스로 성장하게 하든지, 모두를 지원하든지 하는 것입니다.


Dwarkesh Patel:
모르는 부분이 하나 있습니다. 당신은 이러한 새로운 클라우드 업체들을 일부러 우선 지원하지 않고 싶지만, 방금 언급했듯이, NVIDIA가 없었다면 그들이 존재할 수도 없을 것입니다. 그 두 가지가 동시에 성립하는 방법은 무엇인가요?


Jensen Huang:
먼저, 그들은 스스로 존재하길 원하고 우리에게 도움을 요청해야 합니다. 그들이 명확한 의지, 비즈니스 계획, 역량, 열정을 가질 때 — 물론 그들 스스로도 일정한 역량을 가지고 있어야 합니다 — 초기에 일부 투자 지원이 필요하다면, 우리는 여기에 있을 것입니다.


하지만 중요한 것은 그들이 자신만의 돌아가는 체계를 빨리 구축해야 한다는 것입니다. 방금 당신의 질문은 우리가 자금 조달 사업에 진입하려는지에 대한 것이었습니다. 답은 그러지 않고 싶다는 것입니다. 우리는 금융 기관이 되고 싶지 않습니다. 시장에는 이미 자금 조달을 하는 많은 사람들이 있어서 우리는 자금 조달을 직접 하는 대신 이러한 금융 기관들과 협력하길 원합니다.


그래서 우리의 목표는 우리 자신의 일에 집중하고 비즈니스 모델을 최대한 간단하게 유지하면서 전체 생태계를 지원하는 것입니다.


Jensen Huang:
OpenAI와 같은 기업이 IPO 이전에 300 억 달러 규모의 투자를 필요로 할 때, 우리는 그들을 매우 신뢰하며 — 나는 개인적으로 그들을 극도로 신뢰하며, 그들이 이미 탁월한 기업이었고 더욱 뛰어난 기업이 될 것이라고 믿습니다. 이 세상은 그들의 존재를 필요로 하며, 모두가 그들의 존재를 바라보며, 나 또한 그들의 존재를 바랍니다. 그들은 승자가 되기 위한 모든 요소들을 갖췄으므로, 우리는 그들을 지원하고, 성장하는 데 도움을 주겠습니다.


따라서, 우리는 이러한 유형의 투자를 할 것이며, 그들이 실제로 우리의 그런 행동이 필요로 하는 것입니다. 하지만, 우리의 원칙은 "가능한 한 적게 하는 것"이라는 것입니다.


Dwarkesh Patel:
이 문제는 명백한 것일 수 있지만, 지난 몇 년 동안 우리는 GPU 부족 상태에 있었으며, 모델이 강력해짐에 따라이 상황이 더욱 심각해졌습니다.


Jensen Huang:
예, 우리는 실제로 GPU 부족 상태에 있습니다.


Dwarkesh Patel:
그리고 NVIDIA는 이러한 희귀 자원 할당 시, 가장 높은 입찰가만 고려하는 것이 아니라, 새로운 클라우드 업체들이 존재할 수 있도록 하거나 CoreWeave에 일부, Crusoe에 일부, Lambda에 일부를 제공하는 것으로 인식됩니다.


먼저, 이러한 주장을 인정하십니까? 둘째, 이것이 NVIDIA에 어떤 이점이 있습니까?


Jensen Huang:
당신의 전제가 잘못되었다고 생각합니다. 물론, 우리는 이러한 문제에 대해 매우 신중하게 대하고 있습니다.


첫째, 구매 주문서가 없으면, 몇 번의 의사소통이 있어도 무의미합니다. 그러므로 우리는 모든 고객들과 함께 수요 예측을 잘하려고 노력하고 있습니다. 이러한 제품들의 생산 주기와 데이터 센터 구축 주기가 매우 길기 때문에, 우리는 수요를 맞추기 위해 예측을 사용합니다. 이것이 첫 번째입니다.


둘째, 가능한 한 더 많은 고객들과 함께 예측을 하려고 합니다. 그러나 결국, 주문을 내려야 합니다. 주문을 하지 않는다면, 저도 아무것도 할 수 없습니다. 그러므로 어느 순간에는 "선 주문 선 서비스"가 됩니다.


그러나 이 외에도, 귀하의 데이터 센터가 아직 준비되지 않았거나, 일부 중요한 구성 요소가 아직 준비되지 않아 시스템을 일시적으로 배치할 수 없는 경우, 우리는 다른 고객에게 우선 서비스를 제공할 수도 있습니다. 이것은 단지 우리 공장의 전체적인 처리량을 극대화하기 위한 것입니다.


이 상황 이외에도 우선순위 원칙은 "선착순"입니다. 주문을 내야 합니다. 주문을 내리지 않으면 안 됩니다.


물론, Larry와 Elon이란 분과 함께 저녁을 먹을 때 GPU를 요청했다는 등의 이야기가 있습니다. 함께 저녁을 먹은 적이 있지만, 실제로 GPU를 "요청"한 적은 없습니다. 그들은 주문을 내기만 하면 됩니다. 주문을 내면 최대한의 생산 능력을 제공할 것입니다. 상황은 그렇게 복잡하지 않습니다.


Dwarkesh Patel:
그럼 이는 주문 시스템처럼 들리는데, 주문을 언제했는지, 데이터 센터가 준비되었는지에 따라 달라집니다. 그러나 여전히 순전히 "가장 높은 입찰가자가"가 아닌 거죠?


Jensen Huang:
저희는 그렇게 하지 않습니다.


Dwarkesh Patel:
가장 높은 입찰가를 기준으로 할당하지 않는다는 말이죠?


Jensen Huang:
절대 그렇지 않습니다. 그것은 매우 나쁜 비즈니스 관행입니다.


가격을 설정하고, 고객이 구매 여부를 결정합니다. 수요가 증가할 때 일부 기업은 가격을 인상할 수 있지만, 저희는 그렇지 않습니다. 이것은 우리의 방식이 아닙니다. 고객은 우리를 신뢰할 수 있습니다. 저는 신뢰할 수 있는 존재가 되길 원합니다. 산업의 기반이 되길 원합니다. 가격 변동을 예측할 필요가 없습니다.


만약 제가 вам 견적을 제시했다면, 그것이 최종 가격입니다. 수요가 급증하더라도 가격을 바꾸지 않을 것입니다.


Dwarkesh Patel:
그렇다면 이것이 AMD와 TSMC 간의 안정적인 관계인 이유 중 하나이긴 한데요, 그렇죠?


Jensen Huang:
엔비디아와 TSMC는 이미 거의 30년간의 협력사이입니다. 엔비디아와 TSMC 사이에는 공식적인 법적 계약이 없어서, 어떤 부분은 저의 잘못일 수도 있고, 때로는 더 좋은 조건을 얻을 수도 있고, 때로는 그렇게 좋지 않은 조건일 때도 있습니다. 그러나 전반적으로 볼 때, 이 관계는 매우 대단하며 그들을 완전히 신뢰하고 의존할 수 있습니다.


또한 엔비디아에게는 특정한 것이 확실합니다: 올해에 Rubin이 매우 훌륭할 것이라는 점, 내년에는 Vera Rubin Ultra가 출시될 것이라는 점, 그리고 다다음 해에는 Feynman이 출시될 것이라는 점입니다. 다다음 해에는—저는 아직 그 이름을 공개하지 않았습니다. 즉, 매년 우리를 신뢰할 수 있습니다. 전 세계에서 저와 같은 ASIC 팀을 찾아보고, 회사 전체를 걸고 매년 여러분을 지원해 줄 수 있다고 말할 수 있는 회사가 있는지 찾아보세요.


나의 토큰 비용은 매년 한 차수씩 감소할 것이며, 나는 이것을 시계처럼 믿을 수 있습니다. 방금 TSMC에 대해 유사한 말을 했습니다. 역사상 어떤 웨이퍼 공장도 이런 말을 할 수 있는 일이 없었습니다.


하지만 오늘, 당신은 NVIDIA에게 이렇게 말할 수 있습니다. 우리를 매년 신뢰할 수 있습니다.


10 억 달러의 AI 공장 연산 능력을 사고 싶다면, 문제 없습니다. 1 억 달러를 사고 싶어도, 문제 없습니다. 1000만 달러를 사고 싶어도, 심지어 한 개 럭카르드만 사고 싶어도, 문제 없습니다. 다음 1000억 달러의 AI 공장 주문을 하고 싶다면, 또한 문제 없습니다.


오늘, 세계에서 우리와 같은 회사는 단 하나뿐입니다. 또한 나는 TSMC에게 이렇게 말할 수 있습니다: 10 억 달러를 사고 싶다, 문제 없습니다. 우리는 함께 계획을 잘 세우고, 흐름을 지나야 할 것들을 지나고, 성숙한 기업이 할 것들을 해내기만 하면 됩니다.


그래서 나는 NVIDIA가 전 세계 AI 산업의 기초가 될 수 있는 이유를 이해합니다. 이 포지션에 도달하기까지 몇십 년이 걸렸습니다. 이 곳에는 거대한 투자와 집중이 있었으며, 회사의 안정성과 일관성은 매우 중요합니다.


NVIDIA가 '다중 경로 베팅'을 거부하는 이유


Dwarkesh Patel:
이것이 매우 흥미로운 질문을 던집니다. 우리는 이전에 TSMC, 메모리 병목 현상에 대해 이야기했습니다. 이제 만약 이런 세계로 진입한다면: 이미 N3의 대부분을 확보했고, 앞으로도 N2의 대부분을 확보할 수도 있습니다. 그런 상황에서는 오래된 7나노 같은 이전 공정 노드의 여유 생산량을 활용할 생각은 없으십니까?


Jensen Huang:
필요가 없습니다. 이유는 각 세대 아키텍처의 진보는 단순히 트랜지스터 크기의 변화가 아닙니다. 포장, 적층, 수치 시스템, 시스템 아키텍처에 대한 엔지니어링 작업도 수행했습니다. 당신이 이 단계에 도달하면 오래된 노드 버전을 다시 만든다면, 그에 필요한 연구 및 개발 규모는 아무도 견딜 수 없습니다. 우리는 계속해서 나아갈 수 있지만, 되돌아갈 여력이 없다고 생각합니다.


물론, 사상 이렇게 연구해 보겠다: 언젠가 세계적으로 '최첨단 생산 능력은 더 이상 증가할 수 없다'고 이야기한다면. 그러면 제가 즉시 7나노를 사용하러 갈 것인가요? 물론입니다, 의심할 여지 없습니다.


드와케시 파텔:
이전에 누군가와 이 문제에 대해 이야기했습니다: 왜 엔비디아는 완전히 다른 칩 프로젝트를 동시에 추진하지 않는 걸까요? 예를 들어 Cerebras와 같은 칩 외부 아키텍처를 만들거나, Dojo와 같이 대규모 패키징을 하는 프로젝트, 또는 CUDA에 의존하지 않는 것을 만들 수도 있습니다.


자원은 있고, 엔지니어링 인력도 있으니 이들을 병행해서 할 수 있습니다. 인공 지능이나 아키텍처의 미래가 정확히 어디로 향할 지 아무도 모르는데, 왜 모든 것을 한 바구니에 넣어야 할까요?


젠슨 황:
물론 우리는 그렇게 할 수 있습니다. 단지 더 나은 해결책을 보지 못했을 뿐입니다. 이러한 것들은 모두 시뮬레이션해 보았는데, 우리 시뮬레이터에서는 아마도 모두 더 나쁘게 나왔습니다. 그러므로 우리는 그것을 하지 않을 것입니다. 우리가 지금 하는 일은, 우리가 실제로 하고 싶고 가장 옳다고 생각하는 프로젝트입니다.


물론, 앞으로 작업 부하 자체가 급격히 변함으로써——제가 말하는 것은 알고리즘이 아닌, 실제로 작업 부하가 변경된 경우——우리는 다른 종류의 가속기를 추가할 수도 있습니다.


예를 들어 최근에 우리는 Grok을 추가했는데, 우리는 Grok을 CUDA 생태계에 통합할 것입니다. 우리가 지금 하고 있는 것이 바로 이겁니다. 이것은 토큰의 가치가 이미 매우 높아졌기 때문에, 동일한 모델이 다른 응답 시간에 따라 서로 다른 가격 수준에 대응할 수 있습니다.


몇 년 전에는 토큰이 거의 무료였거나, 싸면 거의 무료와 같았습니다. 그러나 지금은 서로 다른 고객이 토큰을 요구하는 방식이 다릅니다. 그리고 이러한 고객들 자체가 그것으로 많은 돈을 벌어갈 수 있습니다. 예를 들어, 소프트웨어 엔지니어에게는 오늘보다 더 빠른 응답 시간을 제공할 수 있다면, 그들이 오늘보다 더 효율적일 경우에는 지불할 의향이 있습니다.


하지만 이러한 시장은 실제로 최근에야 나타난 것입니다. 그래서 나는 지금, 첫 번째로 우리가 동일한 모델을 응답 시간을 기준으로 서로 다른 시장 계층을 형성할 수 있는 능력을 실제로 갖게 된 것이라고 생각합니다.


이것이 우리가 이렇게 하는 이유입니다. 그러나 아키텍처 자체에 대해 이야기하고 있다면, 나는 말하겠습니다, 더 많은 돈이 있다면, 난 기존 아키텍처에 더 많은 돈을 투자할 것입니다.


드와케시 파텔:
나는 이 "매우 높은 프리미엄 토큰" 및 추론 시장 계층화 아이디어를 매우 흥미롭게 생각합니다.


마지막 질문. 딥러닝 혁명이 일어나지 않았다고 가정했을 때, NVIDIA는 오늘날 무엇을 하고 있을까요?


Jensen Huang:
물론, 게임은 계속 하겠지만, 이외에도 계산 가속화입니다. 우리가 계속 해오던 일이기 때문에요.


우리 회사의 기본 가정은: 무어의 법칙이 둔화될 것이라는 겁니다. 범용 컴퓨팅은 많은 일에 적합하지만, 많은 계산 작업에는 이상적인 해결책이 아닙니다. 그래서 GPU와 CPU를 결합하여 CPU 작업 부하를 가속화시키도록 했습니다. 다양한 코드 커널, 다양한 알고리즘이 GPU로 오프로드되어 실행될 수 있습니다. 결과적으로 응용 프로그램은 100배, 200배 빨라질 수 있습니다.


어디에 사용될까요? 엔지니어링, 과학, 물리학, 데이터 처리, 컴퓨터 그래픽, 이미지 생성 등 다양한 분야죠.


그래서 오늘날 AI가 없더라도, NVIDIA는 여전히 매우 큰 기업일 것입니다. 이유는 사실 근본적입니다: 범용 컴퓨팅의 확장 능력은 거의 한계에 다다랐습니다. 성능을 향상시키는 한 가지 방법 — 유일한 방법은 아니지만, 매우 중요한 방법 중 하나 — 은 도메인 특화 가속입니다.


우리가 처음에 접근한 것은 컴퓨터 그래픽이었지만 다른 여러 분야도 있습니다. 과학 계산, 입자 물리학, 유체 시뮬레이션, 구조화된 데이터 처리 등 다양한 유형의 알고리즘이 모두 CUDA에서 혜택을 받습니다.


그래서 우리의 미션은 항상 이 세계에 가속 계산을 제공하는 것이었습니다. 일반 컴퓨팅으로는 달성할 수 없거나 충분한 능력 수준으로 확장할 수없는 응용 프로그램을 밀어내어 계속 전진시켜 과학 분야에 도움을 주는 것입니다. 우리가 처음 개발했던 몇 가지 응용 프로그램은 분자 동력학, 에너지 탐사의 지진 처리, 물론 이미지 처리도 포함됩니다.


모든 이러한 분야에서 일반적인 컴퓨팅 자체가 너무 비효율적입니다. 그래서, 네, AI가 없었다면 매우 안타까울 것입니다. 그러나 계산적인 발전을 통해 우리가 딥 러닝을 대중화했다는 점에서 입니다. 우리는 어떤 연구원, 과학자, 학생이든 어디에서든 PC 하나 또는 GeForce 그래픽 카드 하나로 놀랍도록 훌륭한 과학 연구를 할 수 있도록 했습니다. 그 기본적인 약속은 긴 시간 동안 절대로 변하지 않았으며 전혀 바뀌지 않았습니다.


그래서 GTC를 참석하면 처음에 대부분이 사실 AI와 관련이 없는 것을 알 수 있습니다. 컴퓨터 리소그래픽 계산, 양자화학, 데이터 처리 등 AI와 관련이 없지만 매우 중요한 것들입니다. AI는 흥미롭고 흥분되는 분야라는 것을 알고 있습니다.


그러나 여전히 많은 사람들이 AI와 무관한 매우 중요한 작업을 하고 있습니다. 텐서는 그들의 유일한 계산 방법이 아닙니다. 우리는 이 모든 사람들을 돕고자 합니다.


드와르케시 파텔:
Jensen, 너무 감사합니다.


Jensen Huang:
별말씀을요. 이번 대화를 정말 즐겼어요.


[원문 링크]



BlockBeats 공식 커뮤니티에 참여하세요:

Telegram 구독 그룹:https://t.me/theblockbeats

Telegram 토론 그룹:https://t.me/BlockBeats_App

Twitter 공식 계정:https://twitter.com/BlockBeatsAsia

举报 오류 신고/제보
문고 선택
새 문고 추가
취소
완료
새 문고 추가
자신만 보기
공개
저장
오류 신고/제보
제출