가상·실존 인물 안 가려…수요·저변 확대 부작용
“제작 자체는 방지 어렵고 배포 안되게 막아야”
생성형 인공지능(AI) 발달로 이미지 제작의 진입장벽이 낮아지면서, 선정적인 이미지가 무차별적으로 온라인에 유포될 수 있다는 우려가 커지고 있다.
생성형 AI는 이용자의 요구에 따라 이미지, 미술, 소설, 비디오 등 다양한 콘텐츠를 만들어내는 인공지능이다. 대부분의 이미지 제작용 AI가 기존에 있던 이미지를 데이터로 학습해 새로운 이미지를 제작하는 원리인 만큼, 실존 인물의 사진이 성적인 용도로 악용될 가능성이 있다.
지난 1일 인스타그램에서 ‘aigirl’(에이아이걸)이라는 단어를 검색하자 67만여개의 게시물이 쏟아졌다. 대부분의 게시물이 가슴 등 여성의 특정 신체 부위를 부각하거나 노출 수위가 높은 이미지를 포함하고 있었다.
최근에는 일반인이 생성형 AI를 통해 ‘돈벌이’를 하는 경우도 생겨나고 있다.
직장인 이모(27)씨는 지인이 이미지 제작 AI를 이용해 남들을 위한 ‘가상 여자친구’를 만든다는 소식을 들었다. 노출이 포함된 여성 이미지를 제작한 뒤 인스타그램 등에 게시함으로써 이용자들에게 후원금을 받는다는 것이다.
실제로 각종 SNS에는 AI로 선정적인 이미지를 생성해 올리는 채널이 우후죽순 생겨나고 있으며, 심지어 구독료를 받는 곳도 있다.
특히 심각한 문제는 대부분의 SNS가 연령 제한 없이 누구나 쉽게 접근할 수 있다는 점이다.
초등학교 교사 임모(28)씨는 연합뉴스에 “성에 관심이 커지는 고학년 학생들은 AI 프로그램에 선정적인 키워드를 입력할 가능성이 있다”며 “그런 키워드로 그림을 그려낸다면 아이들의 성 인식을 왜곡시키고 정서적으로도 좋지 않을 것 같다”고 말했다.
음란물이나 선정적 이미지가 범람하는 문제는 AI 기술의 발달로 인한 대표적인 부작용으로 꼽힌다.
가상의 캐릭터를 대상으로 한 선정적인 이미지의 유포를 넘어, 기존 동영상에 다른 사람의 얼굴을 합성하는 기술인 딥페이크를 활용해 실존 인물을 성적 대상화한 불법 허위 음란물이 만들어지는 사례도 급증하고 있다.
그러나 관계 당국의 시정 조치는 아직 많이 부족한 것이 현실이다.
방송통신심의위원회는 2020년 6월부터 지난 8월까지 불법 성적 허위 영상물에 대해 총 9천6건의 시정 요구를 했지만 실제로 삭제된 영상은 4.55%(410건)에 불과했다.
지금이라도 제도 개선이 필요하다는 주장도 나오는 이유다.
전문가들은 생성형 AI의 자체적인 윤리 판단이 어렵기 때문에 이미지를 배포·유포하는 단계에서 차단하는 것이 필요하다고 지적한다.
김주호 한국과학기술원(KAIST) 전산학부 교수는 “AI 프로그램이 실존 인물의 그림을 재료로 삼아 실사화하고, 성적 대상화하더라도 이것이 음란하거나 실존 인물의 인권을 침해했다고 단정하기는 쉽지 않다”며 “이미지의 생성 자체를 막는 기술적 요소를 강구하기보다는 유포·활용 단계에서 제재하는 것이 바람직하다”고 강조했다.
권윤희 기자