사회뉴스9

[포커스] 진짜 같은 가짜 '딥페이크' 시대가 온다

등록 2018.07.04 21:39

수정 2018.07.04 21:44

[앵커]
사진이 아니라 동영상의 경우엔 조작이 쉽지 않다는 게 일반적인 인식이지만 앞으로는 꼭 그렇지 않을 것 같습니다. 특정 인물의 얼굴을 인공지능을 이용해 영상으로 합성하는 '딥페이크'라는 기술 때문입니다. 진짜보다 더 진짜 같은 가짜 '딥페이크'와 이 기술이 몰고 올 파장을 오늘의 포커스에서 짚어봅니다.

 

[리포트]
"간단히 말해볼까요? 트럼프 대통령은 완전 쓰레기입니다."

오바마 대통령이 진짜 이런말을 했을까요?

"자, 제가 이런 말을 할 사람이 아닌 것 아실 겁니다. 적어도 공개 석상에서는요."

눈치 채셨습니까? 미국의 한 영화배우 목소리를 이용한 가짜 영상입니다. CNN 뉴스에 출연한 조지 W 부시 전 미국 대통령의 얼굴이 조작자의 표정에 따라 바뀌고, 트럼프 대통령을 흉내낸 배우의 영상을 이용해 진짜 트럼프 대통령처럼 만들어 내는 기술.

가짜 트럼프
"마이크 테스트, 마이크 테스트.. 중국~ 중국~"

이른바 '딥페이크'입니다. 딥페이크는 컴퓨터가 데이터를 축적해 스스로 학습하는 '딥러닝'과 가짜를 뜻하는 '페이크'의 합성어입니다. 다양한 각도의 사진 수백 장을 컴퓨터에 입력해 실제 영상처럼 만들어냅니다.

앤드류 그로토
"오른쪽에 있는 사람은 사실, 기계가 만들어낸 겁니다. 한 마디로 말하자면 가짜입니다. 한 사람의 많은 이미지를 컴퓨터에 입력시켜 만든 영상입니다."

목소리로 알아채면 된다고요? 이건 어떠십니까? 먼저 영화의 한 장면입니다.

영화 타짜
"정마담한테 주려는 이거 이거, 이거 이거 장짜리 아니여?"

그리고 이번엔..

문재인 대통령 목소리
"정마담한테 주려는 이거 이거, 이거 이거 장짜리 아니여?"

지난해 국내 한 개발자가 공개한 음성합성 기술을 활용한 겁니다. 문제는 이런 딥페이크 기술이 악용될 때입니다.

인터넷엔 이미 각종 음란물에 스타들의 얼굴을 합성한 딥페이크 영상이 무수히 올라와 있습니다. 국제사회 리더나 유명 정치인이 하지 않은 말을 한 것처럼 믿게 만드는 동영상이 유포되면 파장이 커질 수 있습니다.

김승주
"딥페이크 기술을 활용해서 실제로 하지 않았던 영상들을 만들어낼 경우에 이런 것들이 거짓 뉴스로 재생산되면서 어떤 여론에 악영향을 미칠 그런 소지가 다분히 있습니다."

하지만 딥페이크 기술은 더욱 발전할 것이고 진짜와 가짜를 구분하는 일은 그만큼 더 어려워질 겁니다. 여기 오바마 전 대통령의 영상 네 개가 있습니다. 어떤 게 진짜일까요?

"첨단 기술 제조업, 청정 에너지, 사회기반시설은 좋은 일자리를 만들 것입니다."

모두 가짜입니다.

뉴스9 포커스입니다.

Copyrights ⓒ TV조선. 무단전재 및 재배포 금지 제보하기

채널구독이벤트