검색창 열기 인더뉴스 부·울·경

Personnel 인사·부고

[인사] 현대해상

URL복사

Tuesday, January 01, 2019, 16:01:09

[인더뉴스 정재혁 기자] ▲현대해상

 

◇ 승진

 

<부장> ▶홍보부장 김동욱 ▶시스템지원부장 이주원 ▶현대재산보험유한공사총경리 김태훈 ▶재물특종업무부장 이재용 ▶글로벌보험부장 홍승민 ▶공기업보험부장 김종성 ▶법인영업1부장 백부흠 ▶법인영업3부장 김윤래 ▶영등포사업부장 이용진 ▶강릉사업부장 송일언 ▶안양사업부장 김병훈 ▶부천사업부장 김택규 ▶전주사업부장 길준희 ▶전북사업부장 조용 ▶동울산사업부장 이제영 ▶전략채널지원부장 강상우 ▶인터넷사업부장 백경훈 ▶장기손사기획부장 성기동 ▶강남대인보상부장 김남호 ▶울산대인보상부장 김병용 ▶전주대인보상부장 홍상호 ▶개인융자부장 손성철

 

◇ 전보

 

<부장> ▶CS지원부장 이민우 ▶기획실장 유원식 ▶디지털전략추진부장 정규완 ▶기업보험2부장 김재홍 ▶마케팅기획부장 김종석 ▶마케팅지원부장 권혁준 ▶강남AM사업부장 김재용 ▶중부AM사업부장 김종만 ▶부산AM사업부장 이승민 ▶중부사업부장 윤영수 ▶일산사업부장 최근협 ▶구리사업부장 이해근 ▶강남본부지원부장 김호섭 ▶강서사업부장 전혁 ▶수원사업부장 김부중 ▶중부본부지원부장 신재용 ▶서산사업부장 송기원 ▶호남본부지원부장 박희찬 ▶광주사업부장 박종문 ▶목포사업부장 최호석 ▶울산사업부장 최상천 ▶진주사업부장 구성모 ▶대구경북본부지원부장 오원열 ▶대구사업부장 한교일 ▶동대구사업부장 조석현 ▶방카영업1부장 김민식 ▶수도권장기손사부장 김진형 ▶강서대인보상부장 박연승 ▶수원대인보상부장 이용택 ▶인천대인보상부장 임진주 ▶강원대인보상부장 이인형 ▶부산대인보상부장 이병훈 ▶충청대인보상부장 윤기훈 ▶투자심사부장 엄희석 ▶투자금융부장 이재경

English(中文·日本語) news is the result of applying Google Translate. <iN THE NEWS> is not responsible for the content of English(中文·日本語) news.

배너

정재혁 기자 jjh27@inthenews.co.kr

배너

SKT, A.X 기반 멀티모달·범용 문서 해석 기술 공개

SKT, A.X 기반 멀티모달·범용 문서 해석 기술 공개

2025.07.29 15:04:04

인더뉴스 이종현 기자ㅣSK텔레콤[017670]은 LLM(거대언어모델)인 A.X(에이닷 엑스)를 기반으로 한 시각-언어모델(VLM)과 LLM 학습을 위한 범용 문서 해석 기술을 선보였다고 29일 밝혔습니다. SKT가 이날 오픈소스 커뮤니티 허깅페이스에 공개한 모델은 'A.X Encoder(인코더)'와 'A.X 4.0 VL Light(비전 랭귀지 라이트)' 2종입니다. 해당 모델들은 학술 연구나 상업 이용 등에 자유롭게 활용 가능합니다. SKT는 7월 한 달 동안 대규모 학습(CPT)에 기반한 A.X 4.0 모델 2종(표준, 경량)에 이어 프롬 스크래치 방식의 A.X 3.1 모델 2종(표준, 경량)을 순차적으로 선보였습니다. 이번에 LLM을 산업 영역에 보다 폭넓게 활용하기 위한 기술 2종을 추가하면서 총 6개의 모델을 발표했습니다. SKT는 프롬 스크래치 방식의 LLM 개발을 꾸준히 이어가는 한편, 향후 발표할 A.X 4.0 추론형 모델 등 지속적으로 개발중인 LLM의 활용도와 성능을 높여갈 계획입니다. 자연어처리 기술에서 인코더란 입력된 문장을 문맥으로 변환하고 이를 바탕으로 다양한 자연어 처리 작업을 수행하도록 돕는 핵심 구성요소입니다. 문장의 모든 단어들의 상호 관계를 파악, 전체 의미와 맥락을 이해하는 역할을 합니다. SKT는 A.X 모델에 필요한 데이터의 전 과정 처리 프로세스에 적용하기 위해 'A.X 인코더'를 개발했습니다. 'A.X인코더'는 긴 문서도 빠르고 효율적으로 처리 가능해 대규모 LLM 학습에 적합합니다. 'A.X 인코더'는 1억 4900만개(149M)의 매개변수를 바탕으로 작동하며 자연어 이해 성능지표 평균 85.47점을 달성해 글로벌 최고수준(SOTA)급 성능을 확인했습니다. 기존 글로벌 오픈소스 모델을 기반으로 KLUE 팀에서 공개한 'RoBerTa-base'의 성능지표(80.19점)를 상회하는 수준입니다. 'A.X 인코더'는 1만6384개의 토큰까지 처리가 가능해 기존 모델들보다 최대 3배의 추론속도와 2배의 학습속도를 구현할 수 있습니다. 'A.X 4.0 VL Light'는 대규모 멀티모달 한국어 데이터셋이 학습된 시각-언어모델(VLM)입니다. 한국어와 관련된 시각정보 및 언어 이해뿐만 아니라 표·그래프 이해, 제조 도면 이해와 같은 기업용 애플리케이션에서 높은 성능을 보입니다. 70억개(7B) 매개변수의 A.X 4.0 Light 모델을 기반으로 개발되어 사용자 시스템에 쉽게 적용 가능하면서도 중형 모델 수준의 성능이 특징입니다. 'A.X 4.0 VL Light'는 한국어 시각 벤치마크에서 평균 79.4점을 기록하며 Qwen2.5-VL32B(73.4점)보다 작은 모델 크기에도 불구하고 우수한 성능을 보였습니다. 또한, 한국어 텍스트 벤치마크에서는 평균 60.2점을 기록, 경량모델임에도 국내 모델 중에서 최상위권에 포진했습니다. 한국어 문화 및 맥락적 이해를 평가하기 위해 설계된 멀티모달 벤치마크인 K-Viscuit에서 80.2점을 기록했고 복잡한 문서 구조와 차트·표를 이해하는데 중점을 둔 KoBizDoc 벤치마크에서는 89.8점을 달성했습니다. 각각 Qwen2.5-VL32B 모델보다 뛰어나거나(72.3점) 비슷한(88.8점) 수준입니다. 이러한 성능에도 높은 효율을 자랑하는 'A.X 4.0 VL Light'는 동일한 한국어 데이터입력 시 Qwen2.5-VL32B 대비 약 41% 적은 텍스트 토큰을 사용하여 사용하는 기업들의 비용을 낮추는데 기여할 수 있습니다. 김태윤 SK텔레콤 파운데이션 모델 담당은 “독자적인 기술력 확보가 소버린 AI의 핵심인 만큼, 자체 역량을 높이고 컨소시엄 기업들과의 협업에도 박차를 가해 글로벌 최고 수준의 AI 경쟁력을 확보할 것”이라고 말했습니다.


배너


배너