검색창 열기 인더뉴스 부·울·경

Insight 인사이트

[현장+] 편향에 감염된 AI...머신 러닝 공정성으로 막는다

URL복사

Tuesday, June 25, 2019, 17:06:06

AI 정확도 높이는 머신 러닝 기술..축적 데이터 편향되면 결과 왜곡 발생
기술 개발 과정에 ‘공정성’ 가치 중시하는 구글..번역기 성평등하게 개선

[인더뉴스 이진솔 기자] 인공지능(AI)이 우리 삶 깊숙이 들어오면서 이에 따른 해악도 커지고 있다. 인간 대신 자동화 업무를 맡은 AI들이 사회에 존재하는 각종 편향을 그대로 습득하고 있어서다. 구글은 편견을 만들거나 강화하지 않는다는 원칙에 맞춰 이 문제에 접근하고 있다.

 

구글코리아는 25일 서울 강남 파이낸스센터에서 ‘구글 AI 포럼’을 열고 ‘AI 혁신과 머신러닝의 공정성’을 논의했다. 베키 화이트(Becky White) 구글 인공지능 리서치 프로그램 매니저가 발표를 맡았다.

 

AI는 머신 러닝(ML·Machine Learning)이라는 학습 방식을 거친다. 주어진 수많은 데이터에서 반복되는 패턴을 찾아 분류하고 인식한다. 데이터가 많을수록 정확도가 높은 결과물을 내놓는다.

 

 

머신 러닝은 데이터를 축적하고 알고리즘을 개발하는 과정에서 데이터에 녹아있는 편향이 개입될 여지가 많다. 베키 화이트 매니저는 “머신 러닝이 편향될 경우 단일 원인을 추적할 수 없고 단일 솔루션도 발견할 수 없다”며 “문제 원인이 복합적이므로 해결책도 포괄적”이라고 말했다.

 

데이터 편향성이 드러난 대표적인 사례는 지난해 아마존에서 직원 채용에 도입한 AI가 남성에 더 높은 점수를 준 사건이다. 시스템 정확도를 높이고자 제공된 지난 10년 간 채용된 지원자 데이터가 문제였다.

 

그들 대부분은 남성이었다. AI는 취미와 어조를 분석해 적합한 인재를 추려냈지만, 결과적으로 선발된 사람들 중에는 남성이 많았다.

 

또한 철저히 기술을 개발하더라도 한 시스템이 모든 경우에서 공정하게 만들기는 어렵다. 국가·성별·세대 등 정체성이 달라질 경우 불공정한 부분이 드러나기 때문이다. 의도치 않은 맹점이 나중에 나타나기도 한다. 공정성 기준이 없어 문제 발생시 판단이 모호한 것도 걸림돌이다.

 

 

구글은 지난해 6월 ‘구글 AI 원칙’을 발표했다. 이는 AI 연구와 개발 단계에서 권고되는 일곱 가지 원칙으로 구글이 출시하는 AI 서비스는 모두 여기에 맞춰 평가된다. 구글은 인간이 중심이 되는 AI를 중시하며 인명 피해와 인권 침해가 발생하지 않는 범주로 사용 범위를 한정했다.

 

두 번째 원칙인 ‘불공정한 편견을 만들거나 강화하지 않는다’에 머신 러닝 공정성이 담겼다. 순다 피차이(Sundar Puchai) 구글 최고경영자(CEO)는 “인종, 민족, 성별, 국적, 소득수준, 성적 지향, 장애, 정치적·종교적 신념과 관련된 부당한 영향이 미치지 않도록 노력할 것”이라고 말했다.

 

이러한 신념은 구글 번역 웹사이트에 나타난다. 성중립적인 단어를 번역하면 여성형과 남성형 두 가지를 모두 보여주는 방식으로 개선됐다. 이전에는 AI가 알아서 성별을 나타내는 대명사를 판단했다. 따라서 의사는 남성으로, 간호사는 여성으로 지칭하는 경우가 있었다.

 

이 밖에도 개방형 이미지 데이터 세트를 공유하는 등 공정성을 높이는 다양한 오픈소스 툴을 개발하고 있다. 배키 화이트 매니저는 “구글 제품은 많은 인구가 사용하며 모두가 접근할 수 있는 플랫폼을 지향하기 때문에 머신 러닝에 있어 공정성은 중요한 문제”라고 말했다.

 

English(中文·日本語) news is the result of applying Google Translate. <iN THE NEWS> is not responsible for the content of English(中文·日本語) news.

배너

이진솔 기자 jinsol@inthenews.co.kr

배너


배너


배너