검색창 열기 인더뉴스 부·울·경

Business General 비즈니스 일반

“상호접속제도 개선에 정부가 직접 나서야”

URL복사

Tuesday, July 16, 2019, 18:07:14

국회 세미나 열고 상호접속 고시 변경 문제점 논의
“CP 망 이용료 부담 과해” vs “투자 비용 분담해야”

인더뉴스 이진솔 기자ㅣ지난 2016년 1월 변경된 상호접속제도는 인터넷 서비스 제공자(ISP)간 중계접속 할 때 발생한 트래픽 만큼 접속료를 지불하도록 한다. 기존 무정산에서 상호정산 방식으로 바뀌면서 트래픽을 많이 발생시키는 콘텐츠 공급자(CP)에게 가해지는 부담이 커졌다.

 

예를 들어 특정 CP가 국내 ISP 중 하나인 KT 인터넷 데이터 센터(IDC)로 콘텐츠를 공급할 경우 SK브로드밴드 등 다른 업체는 KT로 중계접속을 거친다. 바뀐 고시 내용에 따르면 이 과정에서 생긴 트래픽 비용을 KT가 SK브로드밴드에 정산해야 한다. 기준은 ‘트래픽이 얼마나 발생했느냐’다.

 

망 이용료는 CP가 ISP에 내는 도매 비용으로 전용회선료와 IDC 임차료 등을 의미한다. 문제는 변경된 고시가 국내 중소 CP에는 망 이용료 부담을 늘리고 ISP간 경쟁제한적 행태를 유발하는 등 부작용을 일으킨다는 점이다. 전문가들은 “애초 제도가 추구하던 목적에 반하는 규제”라고 말했다.

 

 

16일 서울 여의도 국회의원회관 제1세미나실에서 ‘5G 시대 콘텐츠 기업 생존전략 : 망 이용료 인하 방안을 중심으로’ 세미나가 열렸다. 이 자리에는 ISP와 CP 관계자, 학계, 정부 관계자가 참석해 고시 변경으로 나타난 효과를 진단하고 대안을 제시했다.

 

국내 중소 CP는 ISP가 부과하는 비용이 과도하다고 주장한다. 최성진 코리아스타트업포럼 대표는 “ISP가 돈을 벌 수 있는 이유는 CP가 콘텐츠를 공급하기 때문인데, 콘텐츠 제작에 들어가는 비용을 분담하고 요구하진 않는다”며 “CP만이 일방적으로 네트워크 비용을 내고 있다”고 말했다.

 

존 밀번(John Milburn) 하나셋 코퍼레이션 CTO(최고기술책임자)는 “한국은 네트워크 구축 비용이 미국보다 저렴한데도 망 이용료는 훨씬 비싸다”며 “운용 비용은 변하지 않는 것인데 트래픽 수익은 자꾸만 높이려 한다”고 말했다.

 

페이스북과 구글 등 글로벌 CP와 국내 업체 간 차별도 지적됐다. 국내 업체가 부담하는 비용이 해외 업체보다 높다는 주장이다. 지난 2016년 네이버가 망 이용료로 약 700억 원을 부담한 것으로 알려졌으나 이에 비해 글로벌 업체들은 미미한 대가를 지불하고 있다.

 

변경된 상호접속 고시가 규제 목적을 달성하지 못하고 시장을 왜곡한다는 지적도 나왔다. 김민호 성균관대 법학전문대학원 교수는 “상호접속 고시가 개정된 이유는 인터넷 트래픽 증가에 따른 투자비용 회수와 영업수지개선 등 채산성 확보가 목적”이라며 “공익적 목적이 결여됐다”고 말했다.

 

상호접속을 허용하는 목적은 공정경쟁 보장·중복투자 방지·소비자 후생 증대 등이다. 그러나 고시 변경으로 인해 ISP가 CP보다 높은 협상력을 가져가 공정한 접속료 산정이 어려워질 수 있다. 망 사용료 인상에 따른 콘텐츠 가격 상승은 곧 소비자 후생 저하로 이어지게 된다.

 

지나친 시장 왜곡은 표현의 자유를 훼손할 여지가 있다. 김민호 교수는 “ISP 협상력 우위가 굳어지면 CP가 제작하는 콘텐츠가 통제·관리되는 상황이 발생할 수 있다”고 말했다.

 

하지만 ISP는 네트워크 인프라 구축과 운영에 투여된 투자비를 회수해야 한다는 입장이다. 윤상필 한국통신사업자연합회 실장은 “트래픽이 늘어나면 용량을 증설해야 하고 투자를 더 해야 한다”며 “망 투자 선순환구조 구축에 필요한 비용 부담을 유도하는 제도다”라고 말했다.

 

이어 CP가 가입자를 모으는 기반은 ISP가 깔아놓은 네트워크로 인한 외부효과에 힘입은 것이기에 비용 분담이 적절하다는 주장도 있다. 또한 해외 업체와 역차별 문제에 있어서, 현행 제도와 같은 분담 요건이 주어졌을 때 ISP가 해외 CP와 협의에 나설 환경이 마련될 수 있다는 의견도 나왔다.

 

신민수 한양대 교수는 “트래픽 증가는 CP 수익증대에 기반하므로 과금 근거가 전혀 없다고 말할 수 없다”며 “CP가 ISP에 지불한 요금은 네트워크 업그레이드로 이어진다”고 말했다.

 

공정한 시장환경이 되도록 정부가 직접 개입하는 대안이 요구된다. 김현경 서울과학기술대 교수는 “고시를 원상복귀시키거나 정부가 시장에 세밀하게 개입하는 방안을 논의해야 한다”며 “국내 인프라가 해외 기업 수익 기반에 활용되는 것이기에 침묵할 문제가 아니다”라고 말했다.

 

English(中文·日本語) news is the result of applying Google Translate. <iN THE NEWS> is not responsible for the content of English(中文·日本語) news.

배너

이진솔 기자 jinsol@inthenews.co.kr

배너

네이버클라우드, AIDC ‘각 세종’서 GPU 최적화 기술 공개…GPUaaS 시대 견인한다

네이버클라우드, AIDC ‘각 세종’서 GPU 최적화 기술 공개…GPUaaS 시대 견인한다

2025.10.28 09:00:00

인더뉴스 이종현 기자ㅣ네이버클라우드는 국내 최초의 AI 데이터센터인 '각 세종'에서 열린 테크밋업에서 GPU 운영 효율을 극대화하고 AI 인프라를 스스로 설계·운영할 수 있는 기술 역량을 공개했다고 27일 밝혔습니다. 네이버클라우드는 글로벌 수준의 GPU 운영 내재화 역량을 기반으로 산업 전반의 AI 활용을 높이겠다는 계획입니다. 이상준 네이버클라우드 CIO는 "AI 인프라의 경쟁력은 GPU를 얼마나 많이 확보하는가를 넘어 확보한 자원을 얼마나 안정적이고 효율적으로 운영하는지에 달려 있다"라며 "네이버클라우드는 GPU 확보와 운영 기술 내재화의 균형을 통해 AI 인프라 경쟁력을 완성하고 있다"라고 말했습니다. 네이버는 2019년 엔비디아의 슈퍼컴퓨팅 인프라인 '슈퍼팟(SuperPod')을 세계에서 가장 빠르게 상용화한 기업으로 초고성능 GPU 클러스터를 직접 설계·운영한 경험을 보유하고 있습니다. 이러한 실증 경험을 바탕으로 '각 세종'에서 대규모 GPU 클러스터를 직접 설계·운영하며 냉각·전력·네트워크 등 데이터센터 핵심 인프라를 자체적으로 설계하고 AI 워크로드에 최적화하는 기술을 내재화했습니다. 이상준 CIO는 이어서 "네이버의 데이터센터는 AI 워크로드 전체를 통합적으로 제어할 수 있는 풀스택 AI 인프라"라며 "이처럼 인프라를 하나의 시스템으로 통합적으로 설계·운영할 수 있는 역량은 국내는 물론 글로벌에서도 손꼽힌다"라고 강조했습니다. '각 세종'은 기존 IDC가 수행하던 저장·처리 기능을 넘어 AI 학습과 추론이 동시에 이뤄지는 고밀도 GPU 연산 공간으로 설계됐습니다. 이를 위해 전력과 냉각 효율, 무정지 운영까지 모두 고려해 AI 인프라가 24시간 안정적으로 작동할 수 있는 환경을 구축했습니다. AI 연산이 집중되는 데이터센터에서 가장 중요한 요소는 발열 관리입니다. GPU 전력 밀도가 높아지면서 냉각은 효율과 안정성을 좌우하는 핵심 요소가 됐습니다. 이에 '각 세종'은 '각 춘천' 운영으로 축적한 실데이터와 열환경 분석을 바탕으로 직접외기·간접외기·냉수를 병행하는 하이브리드 냉각 시스템을 적용했습니다. 이는 계절별로 냉각 방식을 자동 전환해 겨울에는 외부의 찬 공기로 직접 냉각하고 간절기와 여름에는 간접외기와 냉수를 병행합니다. 이를 통해 GPU 밀도가 높아져도 안정적인 열 제어와 높은 에너지 효율을 유지할 수 있습니다. 또한, 액침냉각 컨테이너 인프라를 구축해 냉각 용액의 안정성, 에너지 효율, 운영 안정성 등을 검증 중입니다. 이를 기반으로 네이버클라우드는 고전력·고밀도 환경에 대응하는 차세대 냉각 기술 로드맵을 구체화하고 수냉식 서버 냉각 관련 자체 특허도 출원 완료했습니다. '각 세종'은 장애 상황에서도 서비스가 멈추지 않도록 전력과 냉각, 서버 운용 체계를 완전히 분리하면서도 유기적으로 통합한 이중화 구조로 설계됐습니다. GPU 서버의 고전력 특성에 맞게 UPS(무정전 전원 장치)와 배전 설비를 재배치해 장애 전파를 구조적으로 차단했으며 이러한 구조 '각 세종'이 24시간 안정적으로 운영할 수 있는 핵심 기반입니다. 네이버는 수십만대 서버 운영 경험을 바탕으로 표준화된 인프라 구조와 자동화된 운영 체계를 구축했습니다. 모든 서버는 도입 전 단계에서 성능·전력 효율·운용성을 검증해 표준 사양으로 구성되며 GPU 등 고성능 자원은 실시간 상태 감시와 자동 복구 기능을 통해 장애 발생 시에도 안정적인 서비스 연속성을 유지할 수 있습니다. 또한 GPU 클러스터 운영에는 자원 관리·배치·복구를 자동화하는 기술이 적용돼 대규모 환경에서도 일관된 효율과 안정성을 유지하고 있으며 반복적인 장애 대응이나 자원 조정 작업 상당 부분도 시스템이 자동으로 처리하도록 설계됐습니다. 네이버는 이러한 운영 기술을 GPU 뿐 아니라 데이터센터 전반의 인프라 관리 영역으로 확장하며 복잡한 AI 워크로드 환경에서도 예측 가능한 인프라 운영을 실현하고 있고 향후 AI 기술을 활용해 운영 효율을 지속적으로 고도화한다는 계획입니다. 이러한 운영 기반 위에서 네이버의 AI 플랫폼은 모델 개발부터 학습, 추론, 서빙까지 AI의 전 과정을 하나로 연결하는 통합 운영 체계로 작동합니다. 내부적으로는 하이퍼클로바(HyperCLOVA)의 학습과 운영이 모두 이 플랫폼 위에서 이루어지며 GPU 자원 배분, 모델 관리, 스케줄링까지 효율적으로 통제됩니다. 이에 개발자는 인프라 제약 없이 학습·실험을 진행할 수 있고 운영자는 GPU 사용 현황과 전력 효율을 실시간으로 모니터링 및 분석하고 적재적소에 최적화 요소를 적용할 수 있어 네이버의 AI 플랫폼은 AI 개발과 운영이 하나로 통합된 'AI 인프라의 두뇌'로 자리 잡고 있습니다. 네이버클라우드는 이렇게 내부에 축적한 기술과 운영 역량을 기반으로 GPUaaS(GPU as a Service) 모델을 통해 국내 주요 기업에 AI 인프라 서비스를 제공하고 있습니다. 이상준 CIO는 "네이버클라우드는 축적한 AI 인프라 운영 역량을 GPUaaS 모델로 발전시켜 국내 기업들이 손쉽게 AI를 활용할 수 있는 생태계를 만들 것"이라면서 "이를 통해 AI 인프라가 특정 기업의 자산을 넘어, 산업 전반의 성장 기반이 될 수 있도록 하겠다"라고 말했습니다.




배너