검색창 열기 인더뉴스 부·울·경

Bank 은행

신한금융, 채용비리 판도라 상자 열리나

URL복사

Monday, May 14, 2018, 10:05:39

금감원, 특혜채용관련 정황 총 22건 적발..연령·성 차별도 있어
일각서 “남산3억 문제와 학력차별 건도 적극적인 재조사 필요”

 

[인더뉴스 문혜원 기자] 신한금융이 남산3억 관련 의혹 등 검찰과거위원회에서 재조사가 결정된 이후 채용비리 문제 정황도 드러나 난감한 상황에 빠졌다. 김기식 전 금융감독원장의 사퇴로 흐지부지될 뻔 했던 조사가 한 달 동안 끈기 있게 이뤄진 결과다.

 

금융감독원은 지난 11일 브리핑에서 ‘신한금융 채용관련 검사 잠정결과’를 공개했다. 그 결과, 신고센터를 통해 접수된 36건 중 22건의 채용비리 정황이 발견됐다. 이중에서 신한은행이 13건, 신한카드가 4건, 신한생명이 6건이었다.

 

금감원은 이번 조사를 위해 의혹제기가 불거졌던 지난 1992년 자료부터 최근까지의 자료를 전산서버와 채용 담당직원들의 PC를 모두 복구했다. 이 과정에서 2013년부터 2015년까지 입사자들의 추천자, 전형단계별 평가자료 등을 일부 확보했다.

 

채용추천에 따른 특혜채용 정황을 살펴보면, 신한은행 현직 임직원 자녀가 5건, 외부 추천이 7건으로 나타났다. 신한생명은 2013년부터 2015년까지 채용과정에서 임직원 자녀인 지원자에 대해 서류심사 점수를 임의로 상향조정했다는 정황 6건도 발견됐다.

 

특히, 서류심사 때 학력차별건만 제외하고, 연령·성별을 근거로 지원자를 차등한 사실도 있었다. 신한은행은 2016년 상반기 채용에서 만 28세가 넘는 남성 지원자(1988년 이전 출생자)와 만 26세(한국 나이 27세)이상의 여성 지원자(1990년 이전 출생자)를 서류심사에서 탈락시켰다.

 

신한카드는 채용 공고문에 ‘연령제한 없음’을 명시했는데도, 33세 이상 및 31세 이상 지원자를 서류심사에서 자동 제외했다. 서류지원자의 남녀 비율은 59:41이었으나, 서류전형 단계부터 7:3으로 정하고 이후 최종 선발 때 같은 비율이 유지되도록 관리했다.

 

하지만 해당 행원 관계자에 따르면 학력 차별 건이 없다는 것에 대해 의문을 제기했다. 신한은행은 신입채용시 애초부터 학교별 쿼터를 정해놓고 해당 학교끼리 경쟁을 시켰다는 것이다.

 

A 행원 관계자는 “실제로 전현직 임직원의 자녀 수가 많은 것으로 알고 있다”면서 “유독 신한은행이 학력차별이 심해서 조사의 필요성이 더 큰 것 같다”고 지적했다.

 

이와 관련, 권창우 일반은행검사국장은 “신고 접수 건 중 자료의 한계 때문에 구체적인 리스크 과정은 파악하기 어려웠다”면서 “단순 자녀 의혹으로만 파악하기는 어려운 상황인데, 특정인 봐주기 없이 검찰 수사 이후 사실이 발견되면 엄정한 징계와 처벌을 할 계획”이라고 말했다.

 

업계에서는 신한금융 경영진들의 향후 거취가 위태로워 질 것으로 관측했다. 

 

한 금융권 관계자는 “이번 금감원의 노력으로 채용비리 정상이 확인된 만큼 남산3억 문제도 재조사에 나서줘야 할 것”이라면서 “학력차별 건에서도 좀 더 적극적인 조사가 필요하다”고 말했다.

 

한편, 금감원은 지난해 12월부터 두 차례 걸쳐 시중은행 채용비리 조사를 진행한 바 있다. 이 중 KEB하나은행, KB국민은행은 4월 검찰 수사에서 남녀 성비를 맞추기 위해 남성에 가산점을 준 성차별 정황이 확인되기도 했다.

English(中文·日本語) news is the result of applying Google Translate. <iN THE NEWS> is not responsible for the content of English(中文·日本語) news.

배너

문혜원 기자 maya4you@inthenews.co.kr

배너

SKT, A.X 기반 멀티모달·범용 문서 해석 기술 공개

SKT, A.X 기반 멀티모달·범용 문서 해석 기술 공개

2025.07.29 15:04:04

인더뉴스 이종현 기자ㅣSK텔레콤[017670]은 LLM(거대언어모델)인 A.X(에이닷 엑스)를 기반으로 한 시각-언어모델(VLM)과 LLM 학습을 위한 범용 문서 해석 기술을 선보였다고 29일 밝혔습니다. SKT가 이날 오픈소스 커뮤니티 허깅페이스에 공개한 모델은 'A.X Encoder(인코더)'와 'A.X 4.0 VL Light(비전 랭귀지 라이트)' 2종입니다. 해당 모델들은 학술 연구나 상업 이용 등에 자유롭게 활용 가능합니다. SKT는 7월 한 달 동안 대규모 학습(CPT)에 기반한 A.X 4.0 모델 2종(표준, 경량)에 이어 프롬 스크래치 방식의 A.X 3.1 모델 2종(표준, 경량)을 순차적으로 선보였습니다. 이번에 LLM을 산업 영역에 보다 폭넓게 활용하기 위한 기술 2종을 추가하면서 총 6개의 모델을 발표했습니다. SKT는 프롬 스크래치 방식의 LLM 개발을 꾸준히 이어가는 한편, 향후 발표할 A.X 4.0 추론형 모델 등 지속적으로 개발중인 LLM의 활용도와 성능을 높여갈 계획입니다. 자연어처리 기술에서 인코더란 입력된 문장을 문맥으로 변환하고 이를 바탕으로 다양한 자연어 처리 작업을 수행하도록 돕는 핵심 구성요소입니다. 문장의 모든 단어들의 상호 관계를 파악, 전체 의미와 맥락을 이해하는 역할을 합니다. SKT는 A.X 모델에 필요한 데이터의 전 과정 처리 프로세스에 적용하기 위해 'A.X 인코더'를 개발했습니다. 'A.X인코더'는 긴 문서도 빠르고 효율적으로 처리 가능해 대규모 LLM 학습에 적합합니다. 'A.X 인코더'는 1억 4900만개(149M)의 매개변수를 바탕으로 작동하며 자연어 이해 성능지표 평균 85.47점을 달성해 글로벌 최고수준(SOTA)급 성능을 확인했습니다. 기존 글로벌 오픈소스 모델을 기반으로 KLUE 팀에서 공개한 'RoBerTa-base'의 성능지표(80.19점)를 상회하는 수준입니다. 'A.X 인코더'는 1만6384개의 토큰까지 처리가 가능해 기존 모델들보다 최대 3배의 추론속도와 2배의 학습속도를 구현할 수 있습니다. 'A.X 4.0 VL Light'는 대규모 멀티모달 한국어 데이터셋이 학습된 시각-언어모델(VLM)입니다. 한국어와 관련된 시각정보 및 언어 이해뿐만 아니라 표·그래프 이해, 제조 도면 이해와 같은 기업용 애플리케이션에서 높은 성능을 보입니다. 70억개(7B) 매개변수의 A.X 4.0 Light 모델을 기반으로 개발되어 사용자 시스템에 쉽게 적용 가능하면서도 중형 모델 수준의 성능이 특징입니다. 'A.X 4.0 VL Light'는 한국어 시각 벤치마크에서 평균 79.4점을 기록하며 Qwen2.5-VL32B(73.4점)보다 작은 모델 크기에도 불구하고 우수한 성능을 보였습니다. 또한, 한국어 텍스트 벤치마크에서는 평균 60.2점을 기록, 경량모델임에도 국내 모델 중에서 최상위권에 포진했습니다. 한국어 문화 및 맥락적 이해를 평가하기 위해 설계된 멀티모달 벤치마크인 K-Viscuit에서 80.2점을 기록했고 복잡한 문서 구조와 차트·표를 이해하는데 중점을 둔 KoBizDoc 벤치마크에서는 89.8점을 달성했습니다. 각각 Qwen2.5-VL32B 모델보다 뛰어나거나(72.3점) 비슷한(88.8점) 수준입니다. 이러한 성능에도 높은 효율을 자랑하는 'A.X 4.0 VL Light'는 동일한 한국어 데이터입력 시 Qwen2.5-VL32B 대비 약 41% 적은 텍스트 토큰을 사용하여 사용하는 기업들의 비용을 낮추는데 기여할 수 있습니다. 김태윤 SK텔레콤 파운데이션 모델 담당은 “독자적인 기술력 확보가 소버린 AI의 핵심인 만큼, 자체 역량을 높이고 컨소시엄 기업들과의 협업에도 박차를 가해 글로벌 최고 수준의 AI 경쟁력을 확보할 것”이라고 말했습니다.


배너


배너