• 페이스북
  • 트위터
  • 유튜브

증명사진 한장 10초 만에 딥페이크 영상 '뚝딱'…"너 아니니? "기자 엄마도 속았다

등록 2024.08.28 11:27:03수정 2024.08.28 11:38:43

  • 이메일 보내기
  • 프린터
  • PDF

딥페이크 성범죄물 확산 속 스마트폰 앱스토어에서 유무료 영상합성 서비스 유통

누구나 쉽게 가짜 영상 만들 수 있어…나체 합성해주는 서비스도 등장

'동전의 양면' 같은 AI 딥페이크 기술…"빈대 잡자고 초가삼간 태울 순 없어"

[서울=뉴시스] 한 무료 인공지능(AI) 얼굴 합성 앱을 통해 기자 얼굴로 제작한 딥페이크(인공지능 기반 인간 이미지 합성 기술) 영상. 최대 30초 광고 의무 시청을 마치고 셀카 한 장에 약 10초면 누구나 회원가입 없이 무료로 딥페이크 영상을 제작할 수 있다. (영상=무료 인공지능(AI) 얼굴 합성 앱 캡처) *재판매 및 DB 금지

[서울=뉴시스] 한 무료 인공지능(AI) 얼굴 합성 앱을 통해 기자 얼굴로 제작한 딥페이크(인공지능 기반 인간 이미지 합성 기술) 영상. 최대 30초 광고 의무 시청을 마치고 셀카 한 장에 약 10초면 누구나 회원가입 없이 무료로 딥페이크 영상을 제작할 수 있다. (영상=무료 인공지능(AI) 얼굴 합성 앱 캡처) *재판매 및 DB 금지


[서울=뉴시스]윤정민 기자 = #앱 마켓에 'AI 얼굴 스왑'이라고 입력하니 수많은 외산 앱이 있었다. 이 중 다운로드 회수가 5000만회 이상인 인기 앱을 다운로드했다. 앱 구입비도 따로 없다. 앱을 접속해 보니 수많은 영상 템플릿이 있었다. 초록색 스포츠 의류를 입은 한 남성이 손짓을 써가며 춤을 추는 영상에 내 사진을 넣어보기로 했다. 영상 제작도 무료였다. 최대 30초의 광고를 시청하면 됐다.

셀프 카메라 한 장만 찍고 나니 10초 만에 내 얼굴이 들어간 영상이 제작됐다. 누가 보면 내가 직접 숏폼 콘텐츠를 찍었을 거라고 오해할 정도로 자연스러운 느낌이 묻어났다. 해당 영상을 카카오톡으로 부모님에게 보냈더니 머리 스타일 아니었으면 헷갈렸을 것이라는 반응이다. 이런 반응에 흥미로운 느낌보다는 걱정이 더 앞섰다. SNS에도 쉽게 공유할 수 있는 만큼 누군가 내 얼굴로 합성물을 만들고 있을 것이라는 생각에 불안감이 휩싸였다.


최근 여성 얼굴에 음란물을 합성한 편집물을 유포하는 이른바 '딥페이크' 성범죄가 확산되면서 당국에 비상이 걸린 가운데 이처럼 비전문가들도 손쉽게 딥페이크 영상을 제작할 수 있는 서비스들이 적지 않은 것으로 나타났다.

사실 이들 서비스는 친구나 지인간 소통을 위한 재밋거리나 새로운 창작을 명분으로 개발됐지만, 초보자들도 마음만 먹으면 얼마든지 디지털성범죄(음란물 조작)나 피싱범죄(사이버 사기)에 악용 수 있다는 게 문제다. 인공지능(AI) 발전에 따른 문명의 이기지만 자칫 새로운 범죄 도구가 된다는 얘기다.

사진 한 장 첨부했을 뿐인데…감쪽같은 합성 영상 10초 만에 뚝딱

[서울=뉴시스] 28일 업계에 따르면 딥페이크 기술을 이용할 수 있는 무료 앱들이 앱 마켓에 배포되고 있다. 'AI 얼굴 합성', 'AI 페이스 스왑' 등을 입력하면 수많은 무료 AI 얼굴합성 앱을 볼 수 있었다. (사진=구글 플레이스토어, 애플 앱스토어 캡처) *재판매 및 DB 금지

[서울=뉴시스] 28일 업계에 따르면 딥페이크 기술을 이용할 수 있는 무료 앱들이 앱 마켓에 배포되고 있다. 'AI 얼굴 합성', 'AI 페이스 스왑' 등을 입력하면 수많은 무료 AI 얼굴합성 앱을 볼 수 있었다. (사진=구글 플레이스토어, 애플 앱스토어 캡처) *재판매 및 DB 금지


28일 정보기술(IT) 업계에 따르면, 구글플레이 등 스마트폰 앱스토어에서 '딥페이크', 'AI 얼굴 합성', 'AI 페이스 스왑' 등 관련 키워드를 검색하면 수십개의 관련 서비스 앱들이 뜰 정도로 유·무료 AI 영상 편집 프로그램들이 유통되고 있다. 누구나 쉽게 스마트폰에서 딥페이크 영상을 쉽게 제작할 수 있게 된 셈이다. 이들 서비스는 '얼굴 바꾸기' '성별 바꾸기', '목소리 전환' 등의 기능까지 제공한다.

AI 기술이 빠르게 진화하면서 이제는 실제 영상과 가짜 영상을 구분하기 어려울 정도로 정교해졌다. 과거 딥페이크 영상에서는 표정이나 동작이 부자연스러운 게 많았다면 최근에는 전문가들도 자세히 봐야만 가짜 영상을 구분하는 사례가 많다는 게 전문가들의 진단이다.
[서울=뉴시스] 한 무료 인공지능(AI) 얼굴 합성 앱을 통해 기자 얼굴로 제작한 딥페이크(인공지능 기반 인간 이미지 합성 기술) 영상. 최대 30초 광고 의무 시청을 마치고 셀카 한 장에 약 10초면 누구나 회원가입 없이 무료로 딥페이크 영상을 제작할 수 있다. (영상=무료 인공지능(AI) 얼굴 합성 앱 캡처) *재판매 및 DB 금지

[서울=뉴시스] 한 무료 인공지능(AI) 얼굴 합성 앱을 통해 기자 얼굴로 제작한 딥페이크(인공지능 기반 인간 이미지 합성 기술) 영상. 최대 30초 광고 의무 시청을 마치고 셀카 한 장에 약 10초면 누구나 회원가입 없이 무료로 딥페이크 영상을 제작할 수 있다. (영상=무료 인공지능(AI) 얼굴 합성 앱 캡처) *재판매 및 DB 금지


기자가 직접 한 앱을 통해 딥페이크 영상을 제작해 봤다. 2020년 출시한 이 앱은 한 앱 마켓 기준 다운로드 수가 5000만회를 넘는 인기 딥페이크 영상 제작 앱 중 하나다. 이 앱은 광고 의무 시청 후 딥페이크 영상을 제작할 수 있는데 합성을 원하는 영상 템플릿에 기자 얼굴이 담긴 사진 한 장을 첨부했더니 약 10초 만에 영상이 완성됐다.

이 영상은 이용자 스마트폰에 저장해 인스타그램, 페이스북, 카카오톡 등에도 공유할 수 있다. 유료 가입 전환 시 AI가 만들었다는 표식(워터마크)도 지울 수 있다.

이 외에 전 세계 다운로드 회수가 1억회 이상인 딥페이크 영상 제작 앱도 있었다. 이 앱들을 살펴보면 회원가입, 이용약관 동의 등 서비스 이용에 대한 절차도 없이 영상을 제작할 수 있는 게 특징이었다. 특히 동의 없이 타인 사진을 도용해 영상을 제작하고 적발 시 이용에 제한이 있을 수 있다는 안내도 없다. 

아예 특정 텔레그램 채널에 사진 한 장을 보내고 이용료를 결제하면 약 3초 만에 나체 사진으로 합성해 주는 프로그램 봇도 등장해 논란이 되고 있다. 또 다른 텔레그램 채널에는 친구 사진 한 장과 신상정보를 보내면 '○○고 □□□' 등이라는 내용과 함께 나체 사진 합성물이 유포되고 있다.

AI 딥페이크의 두 얼굴…문명의 이기 VS 범죄 도구

[서울=뉴시스] 약 40만명이 참여한 딥페이크 성착취 텔레그램 채널. (사진=텔레그램 채널 캡처) 2024.08.27. photo@newsis.com *재판매 및 DB 금지

[서울=뉴시스] 약 40만명이 참여한 딥페이크 성착취 텔레그램 채널. (사진=텔레그램 채널 캡처) 2024.08.27. [email protected] *재판매 및 DB 금지


향후가 더 큰 문제다. AI 기술이 텍스트 데이터 기반에서 영상·음성 데이터까지 포괄적으로 처리하는 멀티모달 방식으로 진화하고 있다. 올해 2월 '챗GPT' 개발사인 오픈AI는 간단한 텍스트를 입력하는 것만으로 최대 1분 길이의 고화질 영상을 만들어내는 다른 차원의 생성형 AI '소라'를 발표해 영상계의 주목을 받았다.

자칫 이 기술이 범죄자들에게 악용될 경우 심각한 상황이 될 수 있다. 가령, 그동안 딥페이크 기술은 특정인을 다른 영상물에 합성하는 수준에 불과했다면 이제는 특정 시나리오를 작성해 허위 영상을 창작할 수 있다는 얘기다.

디지털 성범죄도 문제지만 딥페이크 기술이 금전 문제와 직결되는 피싱범죄에도 악용될 소지가 크다. 가령, 마치 잘 알고 지낸 사람이 보낸 인사 메일로 둔갑할 수 있고 짧은 인사말 한마디로 복제한 음성은 가족들을 속여 몸값을 받아내는 데 활용될 것이란 게 보안 전문가들의 경고다.

맨눈으로 진위를 판단하기 어려울 정도로 딥페이크 영상 기술이 발전하면서 이를 악용하는 범죄도 빠르게 늘고 있지만 이를 통제할 방법이 마땅치 않은 게 현실이다. 김명주 서울여대 정보보호학과 교수는 "딥페이크가 콘텐츠 제작 등에서는 편리성을 제공하는 만큼 무조건적으로 나쁜 기술이라고 볼 수 없기 때문에 모든 딥페이크 사진·영상 제작 앱을 규제하는 건 불가능하다"고 말했다. 자칫 딥페이크 부작용에 따른 섣부른 규제가 '빈대 잡겠다고 초가삼간을 태우는 우(愚)'가 될 수 있다는 시각도 있다.
 
전문가들은 딥페이크 기술 혁신에 지장을 주지 않으면서도 부작용을 최소화할 제도적 장치가 필요하다는 데는 공감하고 있다. 청소년들이 딥페이크 기술과 위험성을 충분히 인지하고 이를 제대로 활용할 수 있는 미디어 리터러시(문해력) 교육이 절실하다. 또 딥페이크 개발사와 소셜미디어 및 콘텐츠 공유 플랫폼사들도 개발 단계부터 딥페이크 악용 가능성을 최소화하고 오남용된 딥페이크 영상을 판별, 차단할 수 있는 관리방안을 마련해야 한다는 지적이다.

전문가들은 무엇보다 소셜네트워크 등에 개인정보를 과도하게 저장하지 말아야 한다고 권고했다. 소셜네트워크 사이트에 올린 사진 및 음성 데이터가 많으면 많을수록 가짜 영상도 보다 정교해지기 때문이다.


◎공감언론 뉴시스 [email protected]

많이 본 기사