알고리즘 인종·성별·학력 차별 빈번
미국, 영국 국가적 차원에서 AI윤리 규범 수립
구글·MS, 편향성 해결방안 공유
지난 50년간 미래 핵심 기술로 언급된 인공지능(AI)은 음성인식, 검색, 모빌리티, 통신 등 삶의 동반자로 거듭나고 있다. 그러나 최근 국내에서는 정치권의 포털 통제 의혹이 불거지며, 콘텐츠 노출과 배열을 결정하는 알고리즘에 대한 ‘사회적 감시’ 요구가 거세지고 있다. 알고리즘은 가치 중립적인가? 그렇지 않다면 편향성 검증과 투명성 확보는 어떤 방식으로 이뤄져야 할까? (편집자주)
AI 기술 개발 본격화로 알고리즘의 중요성은 더욱 커지고 있다. 한국보다 AI 알고리즘을 일찍 도입한 해외에서는 다양한 논란을 겪었고, 이를 해결하기 위한 윤리 규범을 내놓고 있다. 빅테크 기업들은 더 나아가 AI 윤리 컨설팅 서비스까지 제공하는 등 적극적으로 대응하고 있다.
◆ 빅테크부터 공공기관까지 AI 오류 발생
해외서도 AI 편향성 논란은 어렵지 않게 찾을 수 있다. AI의 대표적인 역기능인 편향은 AI개발자의 선입견과 편견이 설계하는 AI에 그대로 반영되는 현상이다. 또 AI는 우리 사회 현상을 있는 그대로 학습하기 때문에 기성 사회의 불평등, 차별적 양상을 증가시킬 수 있다.
최근 영국에서는 AI알고리즘의 불공정성으로 인한 성적 차별 논란이 발생했다. 영국 정부는 올해 신종 코로나바이러스 감염증(코로나19)사태로 대입 시험이 취소되자 AI가 대신 가상의 점수를 매기게 했다. 전년도 학교 성적과 교사가 예상한 성적, 소속 학교의 학업 능력 등을 종합해 알고리즘이 성적을 부여했으나, 가정 환경이 낙후한 학생 또는 공립학교의 학생들에게 불리한 점수가 나왔다는 지적이 제기됐다. 학생들은 반발하며 시위를 벌였고, 영국 정부는 성적 부여를 철회했다.
지난 6월에는 IBM과 마이크로소프트(MS), 아마존이 안면인식 기술 제공을 중단하겠다고 선언했다. 경찰의 부당한 폭력으로 흑인 조지 플로이드가 사망하며 미국 전역으로 파장이 커지자, 대규모 감시나 프로파일링 목적으로 사용될 수 있는 해당 기술이 통제가 필요하다는 판단에서다. 안면인식 기술은 얼굴 생김새로 사람의 신원을 파악할 수 있어 유용하지만 인종, 성별 등에 따라 잘못된 결과가 나올 수 있다는 지적이 꾸준히 제기됐다.
아마존의 채용 알고리즘도 편향성의 대표 사례로 꼽을 수 있다. 아마존은 2014년부터 AI 직원 채용 시스템을 사용했으나, 실험 결과 여성 지원자들을 차별해 폐기했다는 사실이 밝혀지며 한동안 시끄러웠다. 당시 아마존의 AI 시스템은 10여년간 제출된 이력서 패턴을 보고 분석하는 훈련을 받았는데, 대부분의 이력서가 남성 지원자들이 제출한 것이었다.
이 외 2017년 미국 독립언론 ‘프로퍼블리카’가 미국 법원이 사용해왔던 판결 알고리즘 ‘콤파스’가 흑인들에게 편파 판결을 하고 있다는 사실을 밝혀냈다. 흑인 피고가 백인 피고보다 검거되는 비율이 높아, 재판 단계 이전부터 불공정함이 반영됐다는 분석이다. 같은해 구글은 유럽연합(EU) 규제당국으로부터 자사 쇼핑 비교 서비스를 검색에서 우선 노출했다며 24억2000만유로(한화 약 3조4000억원)의 과징금을 부과 받았다. 이는 EU가 반독점 소송에서 단일 회사에 부여한 벌금 중 최대 규모다. 구글은 EC의 결정에 항소했다.
◆ 앞다퉈 ‘윤리 가이드’ 마련...신시장도 창출
예상치 못한 AI알고리즘 오류가 발견되자 글로벌 IT기업은 AI윤리규범을 수립해 극복하는 노력을 펼치고 있다. MS는 2017년 ‘AI 디자인 원칙’과 ‘AI 윤리 디자인 가이드’를 선보였다. AI는 효율성을 극대화하되 투명성을 갖추고 신뢰성을 확보해야 한다는 내용이 골자다. MS의 자회사인 링크드인은 AI의 편향성을 해결하는 도구(LiFT)를 글로벌 오픈소스 공유 사이트 ‘깃허브’에 공개해 주목을 받았다.
구글은 지난해 6월 미국 국방부와 무인항공기 프로젝트 계약을 맺으면서 ‘7대 AI윤리지침’을 발표했다. AI기술을 무기 개발이나 감시 도구로 사용해 인권을 침해하거나 인종과 성적, 정치적 차별하지 않겠다는 내용이 골자다. 구글은 그간의 노하우를 축적, 연내 AI윤리 컨설팅 서비스도 제공하는 것으로 알려졌다. 회사는 이를 활용해 금융업체 HSBC의 대출 AI알고리즘의 특정 집단 편향성을 검증하기도 했다. 이 외 구글, 페이스북, 아마존, IBM, 애플 등 5개사는 공동 출자 방식으로 ‘파트너십 온 AI’를 만들어 AI윤리문제 해결에 앞장서고 있다.
국가적 차원에서도 활발한 움직임이 이뤄지고 있다. 미국 백악관은 2016년 ‘인공지능의 미래를 위한 준비’라는 제목의 보고서에서 ‘정의, 공정성 및 책임’ 단락에서 관련 문제를 심도 있게 다뤘다. 뉴욕시는 지난해 ‘알고리즘 설명책임 법안’ 시행으로 학계, 법조계, 전문가로 구성된 TF를 발족했다.
영국은 세계 최초로 데이터윤리혁신센터를 설치했으며, 세계 최고 수준의 연구를 수행하는 앨런 튜링 연구소에서는 지난해 ‘인공지능 윤리와 안전의 이해(Understanding Artificial Intelligence Ethics and Safety)’ 지침서를 발간했다. 지침서는 AI시스템이 사회에서 윤리적으로 책임있게 개발되기 위한 원칙과 프레임워크를 세부적으로 제시했다. 원론적인 수준을 넘어 상세하게 윤리적 수용 가능한 범위와 방법을 제공하고 있다는 평가를 받고 있다.
프랑스는 대통령이 주도해 AI기술 투명성 확보를 위한 모델 개발 및 윤리위원회 설립을 했다. 이 외 독일, 호주, 싱가포르 등도 AI윤리 기준 정립 및 실천에 주력하고 있다.