OpenAI의 Stargate expansion 발표를 보면, 진짜 미친 규모다. 5개 신규 data center 사이트에 7GW 용량이라고? 이게 얼마나 큰 규모인지 감이 안 올 수도 있는데, 이건 정말 astronomical한 수준이다.
전력 소모가 진짜 미친 수준이다
OpenAI가 말하는 규모? 솔직히 감도 안 와. 그냥 말로만 들어서는 "아, 크구나" 싶은데 실제로는:
- 한국 전체가 쓰는 전기의 상당 부분: OpenAI 혼자서 우리나라 전력 회사를 먹여살릴 기세
- GPU가 몇 개나 들어갈지 모르겠음: 냉각 포함해서 생각하면... 셀 수도 없을 듯
- 서울만한 도시 하나 돌릴 전력: 그냥 AI 전용 도시 짓는 수준
이건 data center가 아니라 AI만을 위한 별도의 전력 도시를 만드는 거다.
300개 이상 제안서를 검토해서 선정
OpenAI가 이번 사이트 선정을 위해 30개 이상 주에서 300개 이상의 제안서를 검토했다고 한다. 각 지역에서 "우리 여기 data center 지어주세요"라고 경쟁한 거다. 마치 올림픽 유치 경쟁 같은 상황이었을 것이다.
선정된 지역들을 보면:
Oracle Partnership (5.5GW):
- Shackelford County, Texas
- Doña Ana County, New Mexico
- Midwest location (곧 발표 예정)
- Abilene, Texas 근처 600MW 추가 확장
SoftBank Partnership (1.5GW):
- Lordstown, Ohio - SoftBank가 이미 착공해서 내년 운영 예정
- Milam County, Texas - SB Energy와 협력한 빠른 deployment
일자리는 엄청 많이 생길 듯
OpenAI에서는 엄청난 수의 일자리가 생긴다고 광고하고 있다. 기술직만이 아니라:
- Construction workers: Data center 건설
- Electrical engineers: Power infrastructure 설계
- Cooling specialists: 냉각 시스템 운영
- Network engineers: High-speed connectivity
- Security personnel: Physical & cyber security
- Maintenance technicians: 24/7 운영 지원
특히 Texas 지역이 많이 선정된 이유는 전력 공급이 안정적이고 renewable energy 비중이 높기 때문이다. 한국 개발자들도 알겠지만, AI training에는 안정적인 전력 공급이 생명이다.
NVIDIA GB200 이미 배치 시작
Texas Abilene의 flagship site에서는 이미 6월부터 NVIDIA GB200 rack 배치를 시작했다고 한다. OpenAI가 이미 early training과 inference workload를 돌리고 있다는 뜻이다.
GB200은 NVIDIA의 차세대 AI chip인데, 이전 generation 대비 performance가 엄청나게 향상되었다. 하지만 그만큼 power consumption과 heat generation도 늘어났다. 그래서 이런 massive cooling infrastructure가 필요한 거다.
Oracle Cloud Infrastructure의 역할
Oracle이 infrastructure provider로 참여한다는 게 흥미로운 점이다. 보통 AI infrastructure하면 AWS나 Azure를 떠올리는데, Oracle이 OCI(Oracle Cloud Infrastructure)로 적극 나서고 있다.
Oracle을 고른 이유가 뭘까? 아마 저렴하고 전용 hardware 제공해주고, 기존 Oracle 고객사들이랑 연결하기 편해서인 듯. AWS나 Azure 대신 Oracle 택한 게 좀 의외긴 한데, 비용 때문일 거야.
SoftBank의 혁신적 접근
SoftBank가 단순한 투자자가 아니라 technical innovation을 제공한다는 점도 주목할 만하다. 특히:
Advanced data center design: 기존 data center와 다른 AI-specific architecture
SB Energy partnership: 재생에너지 powered infrastructure로 sustainability 확보
Fast-build approach: 기존보다 훨씬 빠른 deployment timeline
지정학적 의미
Trump 대통령이 1월에 White House에서 이 프로젝트를 발표했다는 점에서 알 수 있듯이, 이건 단순한 기업의 infrastructure 투자가 아니라 국가적 전략이다.
American AI dominance: 중국과의 AI 경쟁에서 미국의 우위 확보
Domestic job creation: Manufacturing이 아닌 AI infrastructure로 고용 창출
Energy independence: Renewable energy 기반 AI infrastructure 구축
National security: Critical AI infrastructure를 국내에 구축
다른 tech giants의 대응
OpenAI가 이런 massive scale로 나오니까 다른 회사들도 가만히 있을 수 없을 것이다:
Google: 이미 TPU farm을 확장하고 있지만, OpenAI 규모를 따라잡으려면 더 투자해야 한다
Microsoft: OpenAI의 major partner이지만, Azure infrastructure도 동시에 확장해야 한다
Meta: Llama model training을 위한 자체 infrastructure 구축 가속화
Amazon: AWS가 뒤처지지 않으려면 Bedrock platform 대폭 확장 필요
한국 개발자들에게 의미하는 바
이런 massive infrastructure가 구축되면 우리에게는 어떤 변화가 있을까?
- API access cost 감소: 더 많은 compute capacity = 더 저렴한 API calls
- Latency 개선: 더 많은 edge location = 더 빠른 response time
- Model capability 향상: 더 큰 infrastructure = 더 powerful한 model training 가능
- Regional expansion: 아시아 지역에도 similar infrastructure 구축될 가능성
특히 한국 같은 경우 Naver의 HyperCLOVA나 Kakao의 KoGPT 같은 local language model들이 이런 global scale infrastructure와 경쟁해야 하는 상황이 올 것이다.
개인적으론 좀 과한 것 같기도 해. OpenAI가 엄청난 규모로 밀어붙이는 건 맞는데, 과연 이게 다 필요할까? 7GW면 진짜 미친 규모인데, 이걸 다 써먹을 수 있을지 의문이야.
ChatGPT 만들 때도 이런 큰 infrastructure 필요했나? 지금은 진짜 AI가 돈지랄 게임이 된 건지... 몇 년 후에 답이 나올 거 같다.