스포츠조선

AI가 만든 가짜 영상 '정준영-아이돌 몰카' 확산

박아람 기자

기사입력 2019-03-16 14:23


한국 여성 연예인 모습을 전문적으로 딥페이크 영상 웹사이트. /인터넷 캡처

지난 11일 한 인터넷 성인사이트에 "정준영 지라시 내용을 영상으로 만들어 달라"는 글이 올라왔다. 이튿날 다른 네티즌이 "정준영 카톡에 등장하는 여성 연예인"이라며 성관계 장면이 담긴 영상을 올렸다. "감사합니다", "잘 보고 갑니다" 등의 댓글이 줄을 이었다. 그러나 이 영상은 컴퓨터 프로그램으로 만든 '딥 페이크 영상, 즉 고도의 가짜 영상이었다.

가수 정준영(30)과 여성 연예인의 성관계 장면이라며 '정준영 동영상'이 급속히 유포되고 있다. 영상에는 유명 걸그룹 연예인의 성관계 장면이 나온다. 15일 디지털편집국이 이 영상을 분석해보니, 영상은 '딥 페이크' 기술이 적용된 '조작 영상'이었다.

정준영 불법 동영상 의혹이 불거진 이후, 한 유명 인터넷 커뮤니티에 "정준영-걸그룹 OO 관계 영상 봤다" "정준영-XXX 동영상 공유해드립니다" 등 '정준영 동영상'이라고 이름붙은 가짜 동영상은 70여개에 달했다. 이들 동영상도 대부분 가짜 영상이었다.

이런 영상은 해외에 서버를 둔 불법 성인사이트에서 최초 유포되기 시작해 국내 커뮤니티나 SNS, 단톡방 등에서 공유되고 있다. 이 사이트는 이전에도 한국 여성 아이돌 가수의 얼굴을 '딥 페이크' 방식으로 합성해 유포한 것으로 확인됐다.

'딥페이크(deep fake)'는 AI 기술을 이용해 동영상 속 주인공 얼굴에 다른 얼굴을 입히는 방식으로 과거 수작업으로 만든 '조작 영상'과 달리 육안으로는 진위가 식별되지 않는다.

현재 유통되고 있는 영상 대부분이 '딥 페이크' 기술을 이용해 만들어진 영상으로 추정된다. 문제는 가짜 동영상을 본 이들이 "'정준영 지라시'에 나온 여성 연예인이 진짜로 나온 동영상을 봤다"고 확신하는 상황이 발생하고 있는 것이다. 관련 연예인 소속사가 "허위 사실에 대해 법적 대응"을 밝혔음에도, 루머가 수그러들지 않는 이유다. 피해를 입은 여성 연예인이 여럿이다.

딥 페이크 기술로 조작한 '정준영-아이돌 동영상'이 올라온 A 불법 성인사이트에는 이날 하루 여가수와 여성 탤런트 등 75명의 연예인 얼굴이 합성된 영상이 올라와 있었다. 이 사이트는 회원들에게 합성 영상을 만드는 노하우를 전수한 뒤, 딥페이크 영상을 만들어 올리면 자체 포인트를 지급해 이 포인트로 다른 영상을 볼 수 있도록 유도하고 있다. '가짜 몰카'의 생산및 유통을 전방위로 독려하는 구조다.

이 사이트는 지난해 3월 걸그룹 AOA의 멤버 설현의 얼굴을 딥페이크로 조작해 음란 영상을 만들어 공유했었다. 경찰 관계자는 15일 디지털편집국과의 통화에서 "당장 수사해야 할 사이트로 보인다"면서 "딥페이크 영상 제작 및 유포는 심각한 피해를 낳는 중대한 범죄로 이용자들도 처벌을 받는다"고 말했다.

부장검사 출신 변호사는 "딥페이크 영상 제작, 유포는 사이버 명예훼손이나 음화 제조에 해당한다"며 "가짜 영상을 SNS로 공유하는 것도 처벌받을 수 있다"고 했다. 대기업 성폭력상담실 자문을 하고 있는 박찬성 변호사도 "일단 인터넷에 퍼진 영상은 되돌릴 수 없기 때문에 사법기관의 엄벌 의지가 필요하다"며 "형사 책임은 물론 민사적으로도 손해배상액 등을 높게 책정해야 한다"고 말했다. <스포츠조선닷컴>


무료로 보는 명품 사주

눈으로 보는 동영상 뉴스 핫템

:) 당신이 좋아할만한 뉴스