뉴스+

혐오발언·감시에 악용되는 AI...윤리 문제 막을 수 있을까

AI 5원칙 맞춰 개발하는 MS..챗봇 테이 이후 경각심 갖게돼
신뢰도 높이는 7원칙 발표한 EU..기본권 기술 핵심으로 정의

[인더뉴스 이진솔 기자] 스마트 스피커 사용이 확산되면서 음성비서 역할을 하는 인공지능(AI)은 이제 일상이다. 시장조사기관 트랜드포스는 올해 스마트 스피커 시장 규모가 9525만 대에 달할 것으로 예상했다. AI기반 얼굴인식·광고 등 인격화되지 않은 AI도 일상화됐다.

 

접촉면이 늘어나는 만큼 새로운 문제가 대두된다. 그 중 AI 윤리와 신뢰도 문제는 우리나라에서도 채팅로봇 ‘심심이’가 혐오발언을 내놓으면서 화두가 된 바 있다. 비슷한 경험을 했던 마이크로소프트를 필두로 한 글로벌 테크 기업과 선진국에서는 관련 논의가 활발하다.

 

◇ 채터봇 ‘테이’ 사건 이후 경각심 갖게된 MS..인간 편익 높이는 방향으로 개발

 

마이크로소프트는 지난 14일 디지털 기술 오남용을 막고 소비자 신뢰를 높이는 노력을 설명했다. 서울 광화문 한국마이크로소프트에서 열린 ‘신뢰할 수 있는 플랫폼 및 환경 구축을 위한 마이크로소프트의 노력과 사례 소개’에서는 데이터·보안·AI와 관련된 신뢰 구축 사례가 공개됐다.

 

마이크로소프트는 지구상 모든 개인과 조직이 더 많이 성취하는 것을 회사가 추구하는 미션으로 삼고 있다고 밝혔다. 사티아 나델라 마이크로소프트 최고경영자(CEO)도 최고 경영진부터 고객들까지 마이크로소프트 제품을 사용하려면 신뢰를 배제할 수 없다고 강조하고 있다.

 

회사가 강조하는 신뢰는 보안(Security)·개인정보(Privacy)·투명성(Transparency)·준법(Compliance)·윤리(Ethics) 등 다섯가지 항목이다. 이중 윤리 측면에서 AI와 관련된 논의가 진행되고 있다.

 

마이크로소프트는 AI에 적용되는 원칙으로 책임·투명성·공정성·신뢰성·개인정보·포용성 등 다섯 가지를 제시한 바 있다. 회사는 지난 2016년 트위터 AI 채터봇 테이(Tay)가 론칭 하루만에 중단된 사건이 AI 원칙을 수립한 계기라고 설명했다.

 

당시 테이는 트위터 상에 있는 편향된 데이터와 혐오 발언을 습득해 출시된 당일 인종차별 발언을 했다. 마이크로소프트는 출시 16시간 만에 운영을 중단하고 공식 사과했다. 이후 AI 개발과정에 AI 윤리위원회 등 자체 규율을 강화하는 방식으로 윤리 문제를 고려하고 있다.

 

정교화 한국마이크로소프트 정책협력 법무실 총괄은 “AI가 일으키는 부정적 영향이 존재하지만, 동시에 인간 편익을 증진시킬 수 있다고 본다”며 “지구 환경 변화나 장애인 접근성에 도움이 되는 프로젝트가 진행되고 있다”고 말했다. 

 

하지만 마이크로소프트가 개발한 AI 기술이 부정한 방향으로 쓰이는 경우도 있다. 미국 이민국에서 마이크로소프트 안면 인식 기술을 활용해 불법 이민을 막으려고 시도한 사건이 대표적이다. 회사는 이민국에 기술 제공을 거부하고 정부에 규제를 촉구했다.

 

최근에는 중국 마이크로소프트 연구소가 중국 후방성 창사에 있는 국방과학기술대학과 AI 기반 얼굴인식 기술 연구에 함께한 사실이 드러나 논란이 됐다. 이 대학은 중국 공산당 중앙 군사 위원회가 통제한다. 중국 정부가 추진하는 시민 감시·검열에 기술이 악용될 여지가 있다.

 

◇ AI 신뢰 높이기 위해 대중이 참여하는 윤리위원회 필요

 

 

지난달 8일 유럽연합(EU) 집행위원회는 신뢰할 수 있는(trustworthy) 인공지능 프로그램을 만들기 위한 7가지 원칙을 발표했다. 상업적 AI에 대한 다국적 지침은 이번이 처음이다.

 

지침을 마련하는데 기업·NGO·학계에서 전문가 52명이 힘을 모았다. 당장 법적 구속력을 갖추는 것은 아니며 내년까지 시범적용을 거치며 보완을 거칠 예정이다.

 

원칙은 ▲인간 주체성 보장 ▲기술적 안정성 ▲개인정보 보호와 데이터 거버넌스 ▲투명성 ▲비차별과 공정성 ▲사회와 환경의 행복 ▲책무 등이다.

 

특히 인간이 가진 기본권을 AI 기술의 핵심으로 정의한다는 점에서 긍정적이라는 평가다. 비차별과 공정성 항목에서는 사회적 소수자의 권리를 보장하려는 노력이 엿보인다.

 

영국 파이낸셜타임즈는 “AI를 최대한 개방하고, 규정을 준수하며, 인간을 기술 개발의 중심에 두는 것이 기술을 윤리적으로 만드는 최선의 방법”이라며 “EU의 지침은 끝이 아니라 새로운 개방적 논의의 시작”이라고 말했다.

 

위원회가 항상 좋은 결론을 내놓지는 않는다. 구글은 지난 3월 AI 윤리 위원회를 설립했지만 구성원 자격 논란에 휘말리면서 일주일만에 해체했다. ‘첨단기술 외부자문회의(Advanced Technology External Advisory Council)’이라는 자문단은 위원 8명으로 꾸려질 예정이었다.

 

하지만 보수주의 싱크탱크 헤리티지 재단(The Heritage Foundation) 케이 콜스 제임스(Kay Coles James) 회장이 선임되면서 문제가 불거졌다. 구글 직원들은 제임스 회장이 취한 보수적인 입장이 동성애자 권리를 긍정하는 다양성 문제에 어긋난다며 해임을 촉구했다.

 

구글은 “지금 환경에서는 위원회가 정상적으로 기능할 수 없음이 명백해 위원회를 폐지하겠다”며 “AI가 제기하는 이슈에 대해서는 계속 책임질 것이고 외부 의견을 얻을 수 있는 다른 방법을 찾을 것”이라고 말했다.

 

AI 윤리위원회 구성에 있어 강조되는 것은 투명성과 이해당사자들의 넓은 참여다. AI는 개발되면 수많은 소비자들에 영향을 주기 때문에 위원회에 기업 담당자 뿐만 아니라 일반 소비자들까지 참여할 수 있어야 한다는 것이다.

 

마찬가지로 기술 개발 과정이 소비자들에게 투명하게 드러나야 한다. 미국 월스트리트 저널은 인공지능 윤리위원회 구성에 있어 ▲이해당사자들이 납득할 수 있는 위원 자격 ▲위원회가 AI 개발에 참여할 수 있는 실질적 권한 부여를 강조했다.

 

이어 ▲투명한 AI 윤리 강령 개발 ▲알고리즘이 해를 끼칠 때 신속히 대응할 수 있는 교정조치 마련 ▲코딩 과정을 추적할 수 있는 감사 실시 ▲다양한 인력 채용 또한 필요하다고 조언했다.

 

☞참고할 만한 기사

“한국 소비자, 디지털 활동 활발...개인정보 처리 신뢰는 낮아”

배너





배너

배너


배너
배너


배너

배너

배너
배너