인공지능(AI)이 인간에게 성차별을 배운다는 것이 밝혀졌다

2020-03-08 12:20

add remove print link

AI 채용에서 '여성' 단어 등장 시 감점 부여
인공지능이 객관적, 중립적이지 않다는 사례 증가

인공지능(AI)이 인간에게서 성차별을 학습할 수 있다는 것이 밝혀졌다.

기사와 관련 없는 사진 / 셔터스톡
기사와 관련 없는 사진 / 셔터스톡

지난해 11월 '애플카드'의 카드 한도와 관련하여 성차별 논란이 있었다. 애플이 골드만삭스와 협력해 내놓은 '애플카드'는 인공지능(AI)가 카드 사용 한도를 부여하는 방식을 사용하는데, 같은 조건인데도 불구하고 남성이 여성보다 카드 한도가 10배 이상 높았던 것이다.

트위터 이용자인 데이비드 핸슨은 성별에 따른 신용한도 차이를 두고 "성차별적인 프로그램"이라며 "이 정도면 여성들이 남편의 동의 없이 신용카드를 신청할 수 있게 놔두는 것이 놀랍다"고 비판해 많은 네티즌들이 공감했다.

지난해 여름에는 KT 기가지니가 "제가 여자라서 자동차에 관심 없어요"라는 대답을 해 성차별을 부추긴다며 논란이 있었다.

“여자라서 자동차에 관심없다”…성차별 부추기는 AI 비서 본인을 '어여쁜 여비서'라고 얘기하는 KT 기가지니
Bloter.net

이런 인공지능 시스템은 인간 사회의 데이터를 통해 학습하는데, 이로 인한 남녀 성차별이 심화될 수 있다는 걱정의 목소리가 커지고 있다. 이러한 인공지능이 여러 가지 알고리즘이나 심지어는 채용 시스템에도 도입되는 등 그 사용범위가 넓어지고 있기 때문이다.

영국의 로이터 통신은 글로벌 기업 아마존이 AI 채용을 도입했다가 결국 이를 철회했다고 전한 바 있다. 인공지능이 '여성'이라는 단어가 등장할 시 지원자에게 감점을 부여했기 때문이다.

Amazon scraps secret AI recruiting tool that showed bias against women Amazon.com Inc's machine-learning specialists uncovered a big problem: thei...
U.K.

AI는 기업의 채용 기록을 바탕으로 해당 회사가 선호하는 패턴을 습득한다. 이렇게 만들어진 시스템은 습득한 내용을 바탕으로 지원자를 평가하는데, 아마존의 남성 지원자 선호 경향을 해당 인공지능이 학습해버린 것이다.

AI는 인간들이 구축해 놓은 데이터를 통해 모델을 구성하기 때문에 데이터 상에 존재하는 암묵적인 차별이 AI 모델을 구성하는 재료가 되어버린다.

inAIR 채용 프로그램 / 마이다스아이티 홈페이지
inAIR 채용 프로그램 / 마이다스아이티 홈페이지

결국에는 인간 사회의 데이터로 만들어진 것이기에 인공지능이 중립적이거나 객관적이지 않다는 사례가 점점 증가하고 있다. '블로터'에 따르면 구글 AI 리서치 프로그램 매니저는 "인간이 머신러닝 시스템을 설계하는 과정에 있어서 사회적 맥락을 유념해야 한다"라고 강조한 바 있다.

구글, “사회적 편견 제거한 공정한 AI 만들겠다” 구글이 말하는 머신러닝의 공정성
Bloter.net

기사와 관련 없는 사진 / 셔터스톡
기사와 관련 없는 사진 / 셔터스톡

home 박현서 기자 story@wikitree.co.kr

NewsChat