“중국에서 한국 아이돌 멤버 '포르노'가 만들어지고 있다”

2019-10-10 19:10

add remove print link

중국 딥페이크 영상, 얼굴 도용 피해자 25%는 한국 여자 연예인
중국 네티즌들이 한국 연예인 얼굴 합성해 포르노 제작하고 있다

기존 포르노 영상에 인공지능(ai) 기술로 다른 얼굴을 합성하는 일명 '딥페이크(Deepfake)'가 급증하고 있다. 얼굴 도용 피해자 중 25%는 한국 여자 연예인이었다.

지난 7일(현지 시각) 영국 BBC는 네덜란드 사이버 보안 연구 회사 '딥트레이스(Deeptrace)' 연구 보고서에 대해 보도했다.

딥트레이스가 출시한 '딥페이크'는 기존 영상에 특정 얼굴을 합성하는 기술을 말한다. 인물 표정이나 제스처, 목소리까지 복제할 수 있다.

지난해 딥페이크 영상은 7,964개였다. 그러나 올해에는 1만 4698개로 두 배 이상 늘었다. 이 중 96%는 포르노 영상으로 악용됐다.

얼굴 도용 피해자는 미국·영국 여배우가 46%로 가장 많았다. 한국 여자 연예인(K-Pop 스타)은 25%였다. 대부분 포르노 영상은 한국이 아닌 중국에서 만들어졌다.

헨리 아이더(Henry Ajder) 딥트레이스 연구 분석 책임자는 "딥페이크 기술에 대한 논의가 빗나갔다"며 "이 기술이 처음 등장했을 때 정치적 문제나 사기 범죄가 증가할 것이라고 우려했다. 그러나 정작 문제는 포르노였다"고 지적했다.

기사와 관련 없는 사진 / 셔터스톡
기사와 관련 없는 사진 / 셔터스톡
기사와 관련 없는 사진 / 구글
기사와 관련 없는 사진 / 구글
home 구하나 기자 hn9@wikitree.co.kr