AI 성착취물에 아무도 책임지지 않는 동안

[이슈 인사이드 | 젠더] 남지원 경향신문 젠더데스크

남성 상사가 딱 달라붙는 민소매 티셔츠 차림을 한 여성 부하 직원이 자신을 다정하게 껴안고 있는 모습의 사진을 모바일 메신저 프로필에 올렸다. 조직도에서 내려받은 부하 직원의 얼굴 사진을 이용해 인공지능(AI)으로 생성한 합성물이었다. 직원은 상사를 성폭력처벌법과 명예훼손 등의 혐의로 고소했지만, 경찰은 성폭력 혐의에 대해 불송치 결정을 내렸다. 노출이 과하지 않고 성적 행위로 해석되지는 않는다는 이유였다. 지난해 11월 서울의 한 구청에서 실제로 벌어진 일이다. 이 사건은 AI 시대 성폭력이 어떤 형태로 벌어지는지 잘 보여준다. 이제 가해자는 피해자의 신체를 몰래 촬영할 필요가 없다. 힘들게 합성 기술을 익힐 이유도 없다. 프롬프트 한 줄이면 타인의 얼굴을 이용해 성적인 이미지를 만들어낼 수 있다. 생성형 AI 도구를 서비스하는 거대 기술기업들은 이런 행위를 막을 장치를 두지 않았다. 피해자는 실제 불법 촬영과 유사한 충격과 사회적 피해를 입을 수밖에 없지만, 이런 행위를 규율할 법은 없거나 부족하다.

생성형 AI 검색기에 간단한 명령문만 입력하면 성적 허위영상물을 손쉽게 만들 수 있는 시대가 됐다. 사진은 그록(grok)의 이미지 생성기.

기술은 타인을 성적 대상화하는 문턱을 극적으로 낮췄다. 이전에도 포토샵 같은 도구를 이용해 신체 노출 이미지에 타인의 얼굴을 합성하는 범죄는 있었다. AI로 성적 허위영상물을 만드는 딥페이크 범죄가 사회적 이슈가 되기도 했지만, 최소한 사진을 저장하고 별도의 프로그램을 구해 합성한 뒤 다시 업로드해야 하는 일정한 기술적 장벽이 있었다. 이 과정이 번거로운 탓에 텔레그램을 통해 돈을 받고 딥페이크 영상을 만들어주는 범죄가 성행하기도 했다.


하지만 지금은 상황이 완전히 달라졌다. 소셜미디어 플랫폼 엑스(X)에 기본 탑재된 AI 챗봇 ‘그록’에서도 클릭 한 번으로 합성 이미지를 만들 수 있다. 손쉽게 성적 허위영상물을 제작해주는 공개 애플리케이션도 넘쳐난다. 문제는 법과 제도가 이런 변화를 따라가지 못하고 있다는 점이다. 국내 현행법에 따르면 아동이나 청소년으로 간주되는 인물이 성착취물에 등장하면 처벌할 수 있지만, 성인 여성에 대한 합성물은 가상 인물로 만들어졌거나 실존 피해자가 특정되지 않으면 성폭력처벌법으로 처벌하기 어렵다. 서울 구청 사례처럼 ‘노출이 과하지 않다’는 이유로 수사기관이 법 적용을 하지 않기도 한다.

남지원 경향신문 젠더데스크.

근본적으로 이게 국가가 개인 사용자를 잡기만 한다고 해결될 일일까. 플랫폼 기업들은 표현의 자유를 내세우며 책임에서 한발 물러나 있다. 대부분의 합성 앱은 ‘책임 있는 이용이 요구된다’는 문구를 내세우지만 면피에 가깝다. 타인의 사진을 허가 없이 이용한 합성을 막는 장치는 거의 없다. 애플과 구글의 앱스토어에는 알몸 이미지 합성 기능을 내세운 앱들이 등록돼 별다른 제재 없이 운영되고 있다. 미국 비영리단체 기술투명성프로젝트(TTP)는 지난 1월 이러한 앱들의 누적 매출이 1억1700만달러에 달한다고 발표했다. 애플과 구글은 앱 개발자 수익의 최대 30%를 가져간다. 결과적으로 양사는 이러한 앱을 방치하면서 수익을 얻고 있는 셈이다. X 역시 논란이 걷잡을 수 없이 확산된 뒤에야 그록의 일부 기능을 제한적으로 차단했다. 기술기업들이 성착취물을 제작하는 ‘이용자’들에게서 수익을 얻는 동안 자신의 사진이 어떻게 합성되는지도 모르는 채로 피해자가 양산되고 있다. 그리고 언제나 그랬든 그 피해는 ‘직장 하급자’와 같은 약자들에게 집중될 수밖에 없다.

맨 위로