활자로 된 가짜뉴스만 해도 골치 아픈 상황에서, 실제와 구별이 쉽지 않은 가짜 영상까지 심각한 문젯거리로 떠오르고 있습니다. <br /> <br />인공지능과 컴퓨터 기술을 활용해 없던 일을 실제처럼 조작한 화면, 이른바 '딥페이크' 영상 기술이 발전하고 있는데, 정치적으로 악용될 소지가 큽니다. <br /> <br />임장혁 기자입니다. <br /> <br />[기자] <br />오바마 전 미국 대통령이, 누군가, 없는 말을 영상으로 조작해내는 상황을 경고합니다. <br /> <br />[오바마 전 미 대통령 (컴퓨터 변환 이미지) : 우리는 우리의 적들이, 마치 특정인이 어떤 말을 한 것처럼 조작할 수 있는 시대로 진입하고 있습니다. 실제로는 그런 말을 전혀 하지도 않았는데도 말이죠.] <br /> <br />그러나 이 말을 하는 영상 속 오바마조차도 진짜 오바마가 아닙니다. <br /> <br />실제 말의 주인공은 지금 화면의 오른편에 있는 영화감독입니다. <br /> <br />오바마는 이 감독이 컴퓨터로 자신의 입술 모양만 합성해 만든 이미지일 뿐입니다. <br /> <br />이른바 '딥 페이크(DeepFake)' 영상으로, 그렇게 첨단 기술도 아닙니다. <br /> <br />특정인의 표정이 다양하게 담긴 15초 분량의 원본 영상과 웹캠, '얼굴 매핑'과 목소리 변환 프로그램만 있으면, 조작이 가능합니다. <br /> <br />유명 영화배우의 이미지를 합성해 포르노물을 만들면서 시작된 딥페이크 영상은 갈수록 기술이 교묘해지고 있습니다. <br /> <br />[앤드류 그로토 / 美 안보 전문가, 스탠퍼드대 교수 : 향후 1, 2년 안에는 실제 영상과 가짜 영상을 구별하는 일이 거의 불가능해질 것입니다.] <br /> <br />누구나 마음만 먹으면, 이렇게 영락없는 오바마가 트럼프를 욕하는 영상을 만들 수 있다는 얘기입니다. <br /> <br />[오바마 전 미 대통령 (딥페이크(가짜) 영상) : 트럼프 대통령은 정말로, 완전한 머저리입니다. 물론 아시다시피 나는 이런 말을 하지 않았습니다.] <br /> <br />문제는 누군가 선거 전날, 악의적인 영상을 올리거나, 집단 간 갈등관계를 부추기는 등 악용 소지가 크다는 점입니다. <br /> <br />[마크 루비오 / 미 공화당 의원 : 아직 누군가 우려스러운 일을 저지른 사례는 없었지만, 그 가능성은 존재하고 있습니다. 선거에 영향을 미치고 사회를 분열시키려는 세력이 (딥페이크를) 악용할 가능성이 있음을 알아야 합니다.] <br /> <br />이런 현상이 일반화되면 나중에는 진짜 영상에 대한 신뢰성까지 떨어지는 문제도 생깁니다. <br /> <br />그래서 미 정부는 영상물이 가짜인지, 진짜인지를 구별하는 연구 프로그램을 진행 중입니다. ... (중략)<br /><br />▶ 기사 원문 : http://www.ytn.co.kr/_ln/0104_201807060058198984<br />▶ 제보 안내 : http://goo.gl/gEvsAL, 모바일앱, 8585@ytn.co.kr, #2424<br /><br />▣ YTN 데일리모션 채널 구독 : http://goo.gl/oXJWJs<br /><br />[ 한국 뉴스 채널 와이티엔 / Korea News Channel YTN ]