검색창 열기 인더뉴스 부·울·경

Stock 증권

“딥시크 충격은 시장의 오해…AI 핵심주 매수 기회 삼아야”

URL복사

Thursday, January 30, 2025, 19:01:00

‘가성비’ 딥시크 등장에 美 AI주 휘청..엔비디아 -17% ‘털썩’
"딥시크가 AI 슈퍼 사이클 가속화할 것..AI 핵심주 성장세 이상無"

 

인더뉴스 김대웅 기자ㅣ중국 인공지능(AI) 스타트업 딥시크발 충격으로 엔비디아가 하룻새 17% 급락하는 등 미국 증시가 공포에 질렸지만, 이는 오히려 AI 핵심주에 대한 저가 매수의 기회가 될 것이라는 전망이 나온다. 

 

딥시크 모델로 인해 미국 빅테크의 AI 투자가 과도하다는 주장은 무리일 뿐더러, 딥시크가 AI 슈퍼 사이클을 가속화할 것이란 진단에서다. AI 타임라인이 가속화되고 추가 수요를 더 창출할 수 있다는 것이 핵심으로, AI 핵심 인프라 기업에 대한 긍정적 스탠스는 변함없다는 주장이다.

 

30일 금융투자업계에 따르면 NH투자증권은 딥시크로 인한 최근 글로벌 증시 쇼크에 대해 "시장의 오해로 인해 매수 기회가 발생했다"고 규정했다.

 

최근 중국 딥시크가 개발한 AI 모델은 전세계 증시에서도 크게 주목받고 있다. 이 모델은 첨단 칩 없이도 세계 상위 10위 안에 드는 성능을 보여줬다. 딥시크의 AI 어시스턴트 앱은 미국 애플 앱 스토어에서 챗GPT를 제치고 무료 앱 1위를 차지하기도 했다.

 

 

특히 이 앱은 엔비디아 H800칩을 사용해 비교적 저렴한 비용으로 개발됐고, 이에 미국의 대중국 수출 통제 조치의 효과에 의문이 제기되는 상황이다. 이같은 성과는 AI 분야에서 미국의 주도권과 막대한 투자가 지속될 수 있을지에 대한 의문을 불러일으키기에 이르렀다.

 

하지만 임지용 NH투자증권 연구원은 "엔비디아와 ASIC 대장인 브로드컴, TSMC 같은 코어 기업들의 업계 내 경쟁력과 해자를 건드리는 이슈가 아니다"고 판단했다. 그는 "마이크로소프트 또는 OpenAI, 구글 등의 Closed End 모델에 대한 위협은 우려 요인"이라면서도 "딥시크 비용 분석에는 검증이 필요한 부분이 많고, 전방위적인 AI 응용처에서의 효용 역시 보장되지 않았다"고 강조했다.

 

특히 사전 훈련 클러스터에 대한 정보는 전혀 검증되지 않았기 때문에 이를 두고 단순히 비용 효율 측면에서 우위에 있다고 결론 내리기에는 무리가 있다는 설명이다.

 

임 연구원은 "딥시크에 대한 올바른 해석은 오픈 소스 모델이 독점 모델보다 더 발전 가능성이 높으며 오픈 리서치와 오픈소스 시스템이 채택될 가능성이 더 높다는 의미"라며 "AI 타임라인이 가속화되고 중소 후발주자들도 새로운 가능성을 보여줌으로써 추가 수요를 더 창출할 수 있다는 것이 핵심"이라고 분석했다.

 

이에 따라 "AI 슈퍼 사이클의 파동은 더욱 진폭을 키우며 전개될 것"이라며 "보다 큰 변동성을 내포한 채로 AI 코어 인프라 기업들의 주가 우상향이 진행될 것"으로 내다봤다. 그는 "컬러(color)는 변할 수 있으나 코어(core)는 변하지 않는다"고 강조했다.

 

한편, 지난해 중국 항저우에서 설립된 딥시크는 인공지능 일반화(AGI)를 목표로 상업적 응용보다는 기초 기술 개발에 집중하는 AI Lab이다. 

 

시장에서 주목받는 이유는 최근 공개한 오픈소스 딥시크 V3의 높은 GPU 효율성 때문이다. V3 모델은 14조8000억개의 토큰으로 사전 훈련됐고 6710억개의 매개변수로 이뤄졌다. 이는 4050억개의 매개변수를 가진 라마 3.1(메타의 AI 모델)의 약 1.6배에 달하는 크기로 오픈 소스 기준 사상 최대 규모의 LLM(거대언어모델)이다.

 

 

딥시크의 성과는 크게 두 가지 중요한 시사점을 제공한다. 첫째, 미국의 기술 제재에도 불구하고 중국의 AI 기업들은 아키텍처 개선을 통해 하드웨어 한계를 극복하며 미국과의 기술 격차를 줄이고 있다는 점이다. 둘째, 중국 AI 기업들의 치열한 가격 전쟁 및 잇따른 투자 확대로 연결되면서 로컬 AI 반도체 칩 및 인프라 선두기업에 긍정적으로 작용할 것이란 점이다.

 

최설화 메리츠증권 연구원은 "투자의 관점에서 보면 중국의 AI 기업들이 아직 치열한 출혈 경쟁을 하기 때문에 당장 수익화를 하기 어렵다"면서도 "중국 AI 산업의 개화와 빅테크 중심의 투자 확대는 로컬 반도체 칩 기업과 데이터센터 인프라 선두기업에는 긍정적일 것"이라고 진단했다.

 

이어 "중국의 AI 모델이 기술혁신을 통해 효율화되면서 저사양의 국산 칩 활용이 더욱 수월해졌다"며 "트럼프 2기 행정부에서도 미국의 대중국 기술 제재가 더욱 강화될 수밖에 없으며 국산 대체에 대한 필요성은 더욱 높아지게 될 것"으로 내다봤다.

 

English(中文·日本語) news is the result of applying Google Translate. <iN THE NEWS> is not responsible for the content of English(中文·日本語) news.

배너

김대웅 기자 stock@inthenews.co.kr

배너

네이버클라우드, AIDC ‘각 세종’서 GPU 최적화 기술 공개…GPUaaS 시대 견인한다

네이버클라우드, AIDC ‘각 세종’서 GPU 최적화 기술 공개…GPUaaS 시대 견인한다

2025.10.28 09:00:00

인더뉴스 이종현 기자ㅣ네이버클라우드는 국내 최초의 AI 데이터센터인 '각 세종'에서 열린 테크밋업에서 GPU 운영 효율을 극대화하고 AI 인프라를 스스로 설계·운영할 수 있는 기술 역량을 공개했다고 27일 밝혔습니다. 네이버클라우드는 글로벌 수준의 GPU 운영 내재화 역량을 기반으로 산업 전반의 AI 활용을 높이겠다는 계획입니다. 이상준 네이버클라우드 CIO는 "AI 인프라의 경쟁력은 GPU를 얼마나 많이 확보하는가를 넘어 확보한 자원을 얼마나 안정적이고 효율적으로 운영하는지에 달려 있다"라며 "네이버클라우드는 GPU 확보와 운영 기술 내재화의 균형을 통해 AI 인프라 경쟁력을 완성하고 있다"라고 말했습니다. 네이버는 2019년 엔비디아의 슈퍼컴퓨팅 인프라인 '슈퍼팟(SuperPod')을 세계에서 가장 빠르게 상용화한 기업으로 초고성능 GPU 클러스터를 직접 설계·운영한 경험을 보유하고 있습니다. 이러한 실증 경험을 바탕으로 '각 세종'에서 대규모 GPU 클러스터를 직접 설계·운영하며 냉각·전력·네트워크 등 데이터센터 핵심 인프라를 자체적으로 설계하고 AI 워크로드에 최적화하는 기술을 내재화했습니다. 이상준 CIO는 이어서 "네이버의 데이터센터는 AI 워크로드 전체를 통합적으로 제어할 수 있는 풀스택 AI 인프라"라며 "이처럼 인프라를 하나의 시스템으로 통합적으로 설계·운영할 수 있는 역량은 국내는 물론 글로벌에서도 손꼽힌다"라고 강조했습니다. '각 세종'은 기존 IDC가 수행하던 저장·처리 기능을 넘어 AI 학습과 추론이 동시에 이뤄지는 고밀도 GPU 연산 공간으로 설계됐습니다. 이를 위해 전력과 냉각 효율, 무정지 운영까지 모두 고려해 AI 인프라가 24시간 안정적으로 작동할 수 있는 환경을 구축했습니다. AI 연산이 집중되는 데이터센터에서 가장 중요한 요소는 발열 관리입니다. GPU 전력 밀도가 높아지면서 냉각은 효율과 안정성을 좌우하는 핵심 요소가 됐습니다. 이에 '각 세종'은 '각 춘천' 운영으로 축적한 실데이터와 열환경 분석을 바탕으로 직접외기·간접외기·냉수를 병행하는 하이브리드 냉각 시스템을 적용했습니다. 이는 계절별로 냉각 방식을 자동 전환해 겨울에는 외부의 찬 공기로 직접 냉각하고 간절기와 여름에는 간접외기와 냉수를 병행합니다. 이를 통해 GPU 밀도가 높아져도 안정적인 열 제어와 높은 에너지 효율을 유지할 수 있습니다. 또한, 액침냉각 컨테이너 인프라를 구축해 냉각 용액의 안정성, 에너지 효율, 운영 안정성 등을 검증 중입니다. 이를 기반으로 네이버클라우드는 고전력·고밀도 환경에 대응하는 차세대 냉각 기술 로드맵을 구체화하고 수냉식 서버 냉각 관련 자체 특허도 출원 완료했습니다. '각 세종'은 장애 상황에서도 서비스가 멈추지 않도록 전력과 냉각, 서버 운용 체계를 완전히 분리하면서도 유기적으로 통합한 이중화 구조로 설계됐습니다. GPU 서버의 고전력 특성에 맞게 UPS(무정전 전원 장치)와 배전 설비를 재배치해 장애 전파를 구조적으로 차단했으며 이러한 구조 '각 세종'이 24시간 안정적으로 운영할 수 있는 핵심 기반입니다. 네이버는 수십만대 서버 운영 경험을 바탕으로 표준화된 인프라 구조와 자동화된 운영 체계를 구축했습니다. 모든 서버는 도입 전 단계에서 성능·전력 효율·운용성을 검증해 표준 사양으로 구성되며 GPU 등 고성능 자원은 실시간 상태 감시와 자동 복구 기능을 통해 장애 발생 시에도 안정적인 서비스 연속성을 유지할 수 있습니다. 또한 GPU 클러스터 운영에는 자원 관리·배치·복구를 자동화하는 기술이 적용돼 대규모 환경에서도 일관된 효율과 안정성을 유지하고 있으며 반복적인 장애 대응이나 자원 조정 작업 상당 부분도 시스템이 자동으로 처리하도록 설계됐습니다. 네이버는 이러한 운영 기술을 GPU 뿐 아니라 데이터센터 전반의 인프라 관리 영역으로 확장하며 복잡한 AI 워크로드 환경에서도 예측 가능한 인프라 운영을 실현하고 있고 향후 AI 기술을 활용해 운영 효율을 지속적으로 고도화한다는 계획입니다. 이러한 운영 기반 위에서 네이버의 AI 플랫폼은 모델 개발부터 학습, 추론, 서빙까지 AI의 전 과정을 하나로 연결하는 통합 운영 체계로 작동합니다. 내부적으로는 하이퍼클로바(HyperCLOVA)의 학습과 운영이 모두 이 플랫폼 위에서 이루어지며 GPU 자원 배분, 모델 관리, 스케줄링까지 효율적으로 통제됩니다. 이에 개발자는 인프라 제약 없이 학습·실험을 진행할 수 있고 운영자는 GPU 사용 현황과 전력 효율을 실시간으로 모니터링 및 분석하고 적재적소에 최적화 요소를 적용할 수 있어 네이버의 AI 플랫폼은 AI 개발과 운영이 하나로 통합된 'AI 인프라의 두뇌'로 자리 잡고 있습니다. 네이버클라우드는 이렇게 내부에 축적한 기술과 운영 역량을 기반으로 GPUaaS(GPU as a Service) 모델을 통해 국내 주요 기업에 AI 인프라 서비스를 제공하고 있습니다. 이상준 CIO는 "네이버클라우드는 축적한 AI 인프라 운영 역량을 GPUaaS 모델로 발전시켜 국내 기업들이 손쉽게 AI를 활용할 수 있는 생태계를 만들 것"이라면서 "이를 통해 AI 인프라가 특정 기업의 자산을 넘어, 산업 전반의 성장 기반이 될 수 있도록 하겠다"라고 말했습니다.




배너