IT·미디어뉴스9

여배우 합성한 '딥페이크' 음란물 증가…정부 단속도 역부족

등록 2019.02.05 21:24

수정 2019.02.05 21:29

[앵커]
AI 인공지능을 활용해 영상을 합성하는걸 딥페이크라고 하는데,, 요즘 이 기술이 불법 음란물을 만드는데 이용되면서 문제가 많습니다. 음란물에 유명 여배우 얼굴을 합성시키고, 지인의 얼굴까지 붙이는 범죄로 이어지고 있는데요 정부의 단속은 이 기술을 따라잡질 못하고 있습니다.

황정민 기자입니다.

 

[리포트]
오바마 전 미국 대통령이 트럼프 대통령에게 원색적 비난을 퍼붓습니다.

“트럼프 대통령은 완전 쓰레기입니다.”

사실은 인공지능으로 오바마 얼굴에 유명인의 표정을 합성한 가짜, 이른바 ‘딥 페이크(Deep Fake)’ 영상입니다.

이 기술을 악용하는 디지털성범죄도 늘고 있습니다. 유명 아이돌이 등장하는 가짜 포르노 영상이 떠돌아다니고, 아는 사람을 음란 사진에 합성하는 ‘지인능욕’이라는 범죄도 있습니다.

김영선 / 방송통신심의위원회 디지털성범죄대응팀장
“AI를 활용해 정교한 음란물 합성까지 이르는 부분이 최근에 증가하고 있는 추세고, 일반인 대상으로 지인능욕 또한 늘고 있는데 최근에는 대상이 청소년까지…”

과학기술정보통신부는 올해 약 20억 원 예산을 들여 불법 음란 동영상을 인공지능으로 걸러내는 기술 개발에 나섰지만, 나날이 정교해지는 기술 발전 속도를 따라잡기엔 역부족입니다.

김승주 / 고려대 정보보호대학원 교수
“국내의 경우에는 정부가 직접 나서서 해결하려고 하거든요. 그럼 모든 기술이 딱 그 기준만큼 만을 성능 목표치로 만들어낸다는 말이죠. 시장에서 더 좋은 기술이 나와도 역으로 버림받는…”

현재 미국은 민간과 학계에 딥페이크 영상 탐지기술 개발을 독려하는 '메디포'(MediFor) 프로그램을 실시하고 있습니다.

TV조선 황정민입니다.

Copyrights ⓒ TV조선. 무단전재 및 재배포 금지 제보하기

채널구독이벤트