중앙대 연구팀, 20·30대 12명 심층 인터뷰
“대중 판단 흐려…정치적 등 악용 우려”
이미지 확대
고(故) 터틀맨. Mnet AI 음성 복원 프로젝트 ‘다시 한번’ 캡처
최근 딥페이크를 이용한 성범죄가 확산해 사회적 문제로 대두된 가운데, 합성된 인공 영상인 줄 알고 접하더라도 어느새 진위 경계가 사라지고 몰입하게 된다는 연구 결과가 나왔다.
중앙대 미디어커뮤니케이션학과 강진숙 교수와 김지현(박사 수료)씨는 31일 한국방송학보에 기고한 논문 ‘2030세대 이용자들의 딥페이크 기술 경험에 대한 사례연구’를 통해 이같이 밝혔다.
연구진은 딥페이크로 제작된 영상을 접하거나 제작 프로세스를 경험한 20~30대 기자, 직장인, 보안전문가, 교직원, 군인, 대학(원)생 등 총 12명에 대해 심층 인터뷰와 초점 집단인터뷰를 진행했다.
사례 분석 결과 연구참여자들은 주로 엔터테인먼트 및 소셜미디어(SNS) 콘텐츠 소비를 통해 딥페이크 기술에 입문한 경우가 많았다.
참여자들은 포르노 배우의 몸에 배우 갤 가돗의 얼굴을 합성한 가짜 포르노 영상, 버락 오바마 전 미국 대통령의 딥페이크 영상, 조 바이든 미국 대통령이 트랜스젠더를 모욕하는 딥페이크 영상, AI로 만든 젊은 남성 모델을 활용한 칠성사이다 광고 등을 통해 딥페이크 기술을 접했다.
연구 참여자들은 딥페이크 이미지와 영상이 실제와 구별하기 어려운 콘텐츠로 제작되면서 진위성이 혼란을 가져왔다고 했다. 이들은 “딥페이크 영상임을 인지하면서도 진짜와 가짜의 경계를 구분하지 않게 되는 태도가 문제”라고 지적했다.
이미지 확대
배우 조던 필의 목소리를 입힌 버락 오바마 전 미국 대통령 딥페이크 영상. 유튜브 캡처
특히 최근 딥페이크 기술은 과장되거나 정치적·선정적 효과를 만들기 위한 하나의 전략으로 이용되기도 하며, 알고리즘을 통해 공유되는 영상은 다양한 계층에 공유돼 대중의 판단을 흐린다는 것이다.
한 참여자는 “군대 단체 채팅방에 동기가 내 사진을 도용해 여자 아이돌 몸과 합성한 사진을 보냈는데, 누가 내 얼굴을 훔친다고 생각하니 기분이 좋지 않았다”고 털어놨다.
다른 참여자는 “인스타그램에서 어떤 남자가 벗은 몸에 내 얼굴을 합성해 사진을 보냈다. 내 팔로워들에게 보낸다면서 돈을 요구했다”고 밝혔다.
이들은 딥페이크 기술 경험을 통해 오락적 체험을 하는 것은 긍정적인 경험일 수 있으나, 출처 및 영상의 목적이나 용도를 명확히 하는 게 중요하다고 강조했다.
또 다른 참여자는 “워터마크나 레이블링을 통해 해당 영상이 딥페이크인지 구분할 수 있지만, 사실상 이 역시 기술로 없앨 수 있다”면서 “또 워터마크를 지우려면 유료 구독을 하는 조건도 있다. 새로운 대책이 필요하다”고 강조했다.
연구진은 딥페이크 기술 경험은 대부분 오락과 유희적 체험에서 시작되지만, 이를 이용하면서 정치적 각성이나 의식화로 나아갈 수 있다고 우려했다.
연구진은 “허위 정보와 범죄, 상업적 유린 등으로 딥페이크로 인한 혼란을 경험한 대중들이 진보적 의식과 태도를 갖고 적극적으로 기술을 수용하면서 대항할 힘을 기르는 게 중요하다”고 전했다.
“딥페이크 합성물 소지·구입·시청 행위도 처벌” 입법 추진한편 국무조정실은 지난 30일 정부서울청사에서 관계 부처와 함께 딥페이크 성범죄 대응을 위한 첫 번째 범정부 대책 회의를 열고 “딥페이크 기술을 이용해 만든 허위 영상물을 제작, 배포 및 판매하는 것 뿐 아니라 소지하거나 구입 및 시청하는 행위도 처벌 받게 하겠다”고 밝혔다.
현행법에 따르면 카메라 등을 이용한 불법촬영물은 반포·판매·임대한 자 뿐 아니라 구입하거나 소지한 자도 처벌하도록 하고 있지만, 허위영상물의 경우에는 처벌하는 규정이 없다. 이같은 입법 공백 탓에 딥페이크 허위 영상물을 휴대전화 등에 소지한 가해자가 적발돼도 직접 제작했거나 유포했다는 사실이 입증되지 않아 처벌을 받지 않는 사례가 나오고 있다.
경찰은 지난 28일부터 딥페이크 성범죄에 대한 특별 집중 단속에 착수한 데 이어 검찰과 함께 수사 인력과 조직을 강화해 딥페이크 성범죄에 대응할 방침이다. 또 위장 수사를 확대하는 방안도 검토하고 있으며, 이를 위해 성폭력처벌특례법 등 추가로 필요한 법률안도 이날 회의에서 논의됐다.
국무조정실은 또 딥페이크 성범죄가 일선 학교에서 확산되는 만큼, 교육부가 학교 내 예방 교육 강화 등 교육 현장에서의 구체적 대응책을 마련하기로 했다고 설명했다.
과학기술정보통신부와 방송통신위원회는 불법 영상물이 쉽게 제작·유통·확산하는 것을 막고 신속히 삭제될 수 있도록 딥페이크 탐지 기술의 조속한 추가 상용화에 나서기로 했다.
또 허위 영상물 삭제와 상담, 법률 등 피해자 지원을 강화하고, 부처별로 운영하고 있는 신고 접수 방법을 통합해 피해자들이 쉽게 신고할 수 있게 할 방침이다.
이보희 기자