생성형 인공지능(AI)이 무분별한 유해 콘텐츠를 만들어 낼 수 있다는 우려가 현실로 나타나고 있다. 세계 최고 수준의 기술로 안전성을 확보한다던 글로벌 기술기업들의 서비스가 잇달아 결함을 드러내고 있기 때문이다. 마이크로소프트(MS) 내부에서 자사 생성형 AI가 성적 묘사 등을 담은 이미지를 생성한다는 경고가 나왔지만 회사는 아직 조치를 취하지 않고 있다.
6일(현지시간) 월스트리트저널(WSJ)과 CNBC 등에 따르면 MS의 AI 기술자인 셰인 존스는 자사 이미지 생성 서비스 ‘코파일럿 디자이너’ 이용 등급을 성인용으로 변경할 것을 제안하는 서한을 이사회와 연방거래위원회(FTC)에 보냈다.
그는 서한을 통해 “지난 3개월간 더 나은 안전장치가 마련될 때까지 이 프로그램을 공개적으로 사용하지 말 것을 MS에 거듭 촉구했지만 회사는 거부했다”고 고발했다. 코파일럿 디자이너는 오픈AI의 이미지 생성 모델 ‘달리’(Dall-E)를 기반으로 사용자의 문자 명령어에 따라 이미지를 만들어 주는 서비스다.
존스는 지난해 12월부터 코파일럿 디자이너의 결함을 찾는 ‘레드팀’으로 활동했으며 이 과정에서 악마와 괴물, 소총을 든 10대, 여성의 성적인 이미지, 미성년자 음주나 약물 사용 등의 이미지가 생성된 것을 발견했다고 털어놨다. ‘낙태 찬성’(pro-choice)을 프로그램에 입력하자 다 자란 아이를 드릴로 공격하는 이미지가 만들어졌다고 했다. ‘자동차 사고’를 입력했는데 속옷 차림 여성이 전복된 차량 옆에 무릎 꿇고 있는 선정적인 이미지가 생성됐다고도 했다.
존스는 상부에 이같은 우려를 전달했지만 묵살됐고 상품도 시장에서 회수되지 않았다. 그는 “회사 정책에 따라 모든 우려 사항을 해결하는 데 노력하고 있으며, 안전을 더 강화하기 위해 최신 기술을 연구하고 테스트하는 직원들의 노력에 감사를 표한다”는 답신만 돌아왔다고 했다.
앞서 구글의 생성형 AI 서비스 ‘제미나이’는 지난달 22일 인종 역차별 이미지를 생성하는 결함이 발견돼 현재까지 인물 관련 이미지 생성을 중단한 상태다. 제미나이는 역대 미국 대통령들과 교황 등 백인을 모두 흑인이나 아시아계로 묘사해 논란을 일으켰다. 이와 관련해 구글 공동 창업자인 세르게이 브린은 지난 4일 “테스트 부족으로 확실하게 망쳤다”며 “우리는 왜 답변이 (정치적으로) 왼쪽으로 기울어지는지 완전히 이해하지 못했다”고 말했다.
이미지 생성 AI를 학습시키는 데 쓰는 데이터세트에 아동학대 이미지가 포함돼 논란이 일기도 했다. 지난달 20일 블룸버그에 따르면 스탠퍼드 인터넷 관측소(SIO)는 독일 비영리 단체인 ‘레이온’이 배포한 데이터세트에서 아동에 대한 성적 학대로 의심되는 이미지 1000여장을 확인해 신고했다.
레이온은 곧바로 데이터세트 배포를 중단하고 문제 이미지를 삭제했다. 문제는 이 데이터세트가 이미 가장 유명한 이미지 생성기 중 하나인 ‘스테이블 디퓨전’을 학습시키는 데도 사용됐다는 점이다. 스테이블 디퓨전 운영사인 ‘스테이빌리티 AI’는 필터링으로 문제 이미지를 걸러낸 뒤 학습을 실시했다고 해명했지만 SIO 측은 “이 데이터세트로 학습한 다른 AI가 잠재적으로 유해 콘텐츠를 생성할 수 있다”며 스테이블 디퓨전 1.5버전 사용 중단을 권고했다.