
인더뉴스 이종현 기자ㅣ카카오[035720]는 올해 출시 예정인 AI 서비스 ‘카나나(Kanana)’ 언어모델의 연구 성과를 담은 테크니컬 리포트를 ‘아카이브(ArXiv)’에 공개했다고 27일 밝혔습니다.
이와 함께 경량 언어모델인 ‘카나나 나노 2.1B’ 모델을 오픈소스로 깃허브(GitHub)에 배포했습니다.
테크니컬 리포트는 매개변수와 학습 방법, 학습 데이터 등 세부 사항을 담아낸 AI 논문입니다.
카카오는 이번 리포트에 카나나 언어모델 전체의 사전, 사후 트레이닝 전 과정을 자세히 담았습니다. 카나나 모델의 구조, 학습 전략, 글로벌 벤치마크에서의 성과도 확인할 수 있습니다.
카카오는 초거대 언어모델 ‘카나나 플래그’가 지난해 말 학습을 완료, 카나나 언어모델의 전체 라인 업(플래그, 에센스, 나노)을 모두 구축하게 됐습니다.
카나나 플래그는 글로벌 최고 수준의 한국어·영어 성능을 달성한 모델로 한국어 성능을 평가하는 ‘LogicKor’, ‘KMMLU’ 벤치마크에서 타 모델을 압도하는 처리 능력을 입증했다고 회사 측은 설명했습니다.
또한, 학습 자원 최적화를 통해 유사 사이즈의 모델 대비 50% 이상 비용을 절감하며 SOTA(State-of-the-Art) 수준의 효율성과 성능을 동시에 구현했습니다.

카카오는 대규모 언어모델의 학습 효율을 높이기 위해 ▲Staged pre-training ▲Pruning(모델 구성 요소를 가지치기해 중요 요소만 남기는 기법) ▲Distillation(큰 모델의 지식을 더 작은 모델로 전달하는 증류 기법) ▲DUS(Depth Upscaling, 깊이 업스케일링) 등 학습 기법을 적용했습니다.
이를 통해 다양한 사이즈의 고성능 모델을 효율적으로 개발, 글로벌 유사 크기 모델 대비 절반 이하의 학습 비용을 실현했습니다.
카카오는 향후 카나나 모델에 강화 학습과 연속 학습 기반의 최신 기술을 접목해 추론, 수학,코딩 능력을 강화하고 정렬 기술을 고도화해 사용자 요청의 수행 정확도를 높일 계획입니다.
이를 통해 음성, 이미지, 영상 등 다양한 형태로 소통 가능하도록 모델 고도화를 지속할 예정입니다.
한편, 이날 오픈소스로 공개한 ‘카나나 나노 2.1B’은 온디바이스 환경에서도 활용 가능한 고성능의 경량 모델로, 비교적 작은 규모임에도 유사한 크기의 글로벌 모델에 견줄 만한 성능을 보인다고 회사 측은 설명했습니다.
'카나나 Nano 2.1B'의 베이스 모델과 인스트럭트 모델, 임베딩 모델이 오픈소스 커뮤니티인 깃허브를 통해 제공됩니다.
'카나나 Nano 2.1B'는 연구자와 개발자가 활용하기 적절한 크기의 모델이자 온디바이스 환경에서도 활용 가능한 고성능의 경량 모델입니다.
지난달 카카오 공식 테크블로그를 통해 공개한 바와 같이 한국어와 영어 처리 능력에서 우수한 결과를 보여줍니다.
카카오는 이번 오픈소스 공개를 통해 AI 기술의 접근성을 높이고, 연구자와 개발자들이 다양하게 응용할 수 있도록 업데이트를 지속할 계획입니다.
김병학 카카오 카나나 성과리더는 “모델 최적화와 경량화 기술을 바탕으로 라마, 젬마 등 글로벌 AI 모델과 견줄 수 있는 고성능의 자체 언어모델 라인업을 효율적으로 확보하게 됐고, 이번 오픈소스 공개를 통해 국내 AI 생태계 활성화에 기여할 수 있을 것으로 기대한다”며 “효율과 성능 중심의 실용적이고 안전한 AI 모델을 개발해 AI 경쟁력을 강화할 것이다”고 말했습니다.