Tech 테크

엔비디아, 구글과 AI ‘젬마’ 성능 업그레이드

Friday, February 23, 2024, 09:02:34 크게보기

엔비디아 AI 플랫폼 전반에서 텐서RT-LLM으로 성능 가속화
미세조정, 프로덕션 애플리케이션 배포 가능
맞춤형 챗봇 제공하는 '챗 위드 RTX'에서도 젬마 지원 예정

 

인더뉴스 이종현 기자ㅣ엔비디아가 구글과 협력해 모든 엔비디아 AI 플랫폼에서 AI 모델 '젬마(Gemma)'를 위한 최적화를 실시했다고 23일 밝혔습니다.

 

젬마는 구글의 새로운 경량 오픈 언어 모델입니다. 멀티모달 모델인 제미나이(Gemini) 개발에 사용된 동일한 연구와 기술을 기반으로 구축됐으며 엔비디아는 구글과 협력해 엔비디아 텐서RT-LLM(TensorRT-LLM)으로 젬마의 성능을 가속화했습니다. 텐서RT-LLM은 데이터센터, 클라우드 혹은 엔비디아 RTX GPU가 탑재된 PC에서 대규모 언어 모델(LLM) 추론을 최적화하는 오픈 소스 라이브러리입니다.

 

개발자들은 클라우드 상의 엔비디아 GPU에서도 젬마를 실행할 수 있습니다. 여기에는 H100 텐서 코어(H100 Tensor Core) GPU를 기반으로 하는 구글 클라우드 A3인스턴스(A3 instances)가 포함되며 초당 4.8테라바이트의 141GB HBM3e 메모리를 갖춘 엔비디아 H200 텐서 코어 GPU도 합류할 예정입니다. 구글은 올해 안에 이를 배포할 예정입니다. 

 

또한 엔비디아 기술 데모인 챗 위드 RTX에 곧 젬마가 추가로 지원될 예정입니다. 챗 위드 RTX는 검색 증강 생성(Retrieval-augmented generation, RAG)과 텐서RT-LLM 소프트웨어를 사용해 로컬 RTX 기반 윈도우 PC에서 사용자에게 생성형 AI 기능을 제공하는 기술입니다.

 

챗 위드 RTX는 로컬에서 모델이 실행되므로 결과가 빠르게 제공되며 사용자 데이터가 디바이스에 유지됩니다. 클라우드 기반 LLM 서비스에 대신 챗 위드 RTX를 사용하면 민감한 데이터를 제3자와 공유하거나 인터넷에 연결할 필요 없이 로컬 PC에서 처리할 수 있습니다.

 

엔비디아는 지난 21일 미국 뉴욕증시 마감 후 실적발표를 통해 2023 회계연도 4분기(지난해 10월~올 1월)기준 매출 221억300만달러(약 28조원), 주당순이익(EPS) 5.16달러를 기록했다고 밝혔습니다.

English(中文·日本語) news is the result of applying Google Translate. <iN THE NEWS> is not responsible for the content of English(中文·日本語) news.

이종현 기자 flopig2001@inthenews.co.kr

Copyright @2013~2023 iN THE NEWS Corp. All rights reserved.



인더뉴스(주)/ 인터넷신문 등록번호: 서울 아 02788/ 등록일 2013년 8월 26일/ 제호: 인더뉴스(iN THE NEWS)/ 발행인 문정태·편집인 박호식, 주소: 서울시 종로구 새문안로92, 광화문오피시아빌딩 1803호 발행일자: 2013년 9월 2일/ 전화번호: 02) 6406-2552/ 청소년보호 책임자: 박호식 Copyright © 2013~2024 인더뉴스(iN THE NEWS) All rights reserved. / 인더뉴스(주)의 모든 콘텐츠는 저작권법의 보호를 받으므로 무단 전재·복사·배포 등을 금합니다. (단, 기사내용을 일부 발췌한 뒤 출처표기를 해서 ‘링크’를 걸어 두는 것은 허용합니다.)