인공지능(AI)이 인간에게 성차별을 배운다는 것이 밝혀졌다
2020-03-08 12:20
add remove print link
AI 채용에서 '여성' 단어 등장 시 감점 부여
인공지능이 객관적, 중립적이지 않다는 사례 증가
인공지능(AI)이 인간에게서 성차별을 학습할 수 있다는 것이 밝혀졌다.

지난해 11월 '애플카드'의 카드 한도와 관련하여 성차별 논란이 있었다. 애플이 골드만삭스와 협력해 내놓은 '애플카드'는 인공지능(AI)가 카드 사용 한도를 부여하는 방식을 사용하는데, 같은 조건인데도 불구하고 남성이 여성보다 카드 한도가 10배 이상 높았던 것이다.
트위터 이용자인 데이비드 핸슨은 성별에 따른 신용한도 차이를 두고 "성차별적인 프로그램"이라며 "이 정도면 여성들이 남편의 동의 없이 신용카드를 신청할 수 있게 놔두는 것이 놀랍다"고 비판해 많은 네티즌들이 공감했다.
The @AppleCard is such a fucking sexist program. My wife and I filed joint tax returns, live in a community-property state, and have been married for a long time. Yet Apple’s black box algorithm thinks I deserve 20x the credit limit she does. No appeals work.
— DHH (@dhh) November 7, 2019
지난해 여름에는 KT 기가지니가 "제가 여자라서 자동차에 관심 없어요"라는 대답을 해 성차별을 부추긴다며 논란이 있었다.

이런 인공지능 시스템은 인간 사회의 데이터를 통해 학습하는데, 이로 인한 남녀 성차별이 심화될 수 있다는 걱정의 목소리가 커지고 있다. 이러한 인공지능이 여러 가지 알고리즘이나 심지어는 채용 시스템에도 도입되는 등 그 사용범위가 넓어지고 있기 때문이다.
영국의 로이터 통신은 글로벌 기업 아마존이 AI 채용을 도입했다가 결국 이를 철회했다고 전한 바 있다. 인공지능이 '여성'이라는 단어가 등장할 시 지원자에게 감점을 부여했기 때문이다.
AI는 기업의 채용 기록을 바탕으로 해당 회사가 선호하는 패턴을 습득한다. 이렇게 만들어진 시스템은 습득한 내용을 바탕으로 지원자를 평가하는데, 아마존의 남성 지원자 선호 경향을 해당 인공지능이 학습해버린 것이다.
AI는 인간들이 구축해 놓은 데이터를 통해 모델을 구성하기 때문에 데이터 상에 존재하는 암묵적인 차별이 AI 모델을 구성하는 재료가 되어버린다.

결국에는 인간 사회의 데이터로 만들어진 것이기에 인공지능이 중립적이거나 객관적이지 않다는 사례가 점점 증가하고 있다. '블로터'에 따르면 구글 AI 리서치 프로그램 매니저는 "인간이 머신러닝 시스템을 설계하는 과정에 있어서 사회적 맥락을 유념해야 한다"라고 강조한 바 있다.
