인공지능 기술을 활용한 가짜 영상, 이른바 딥페이크 범죄가 기승을 부리고 있습니다. <br /> <br />일반인도 쉽게 만들 수 있을 정도로 기술이 발전해 우려가 커지자 수사기관이 가짜 영상 탐지 프로그램을 개발하는 등 대응에 나섰습니다. <br /> <br />윤태인 기자의 보도입니다. <br /> <br />[기자] <br />유명 영화배우 2명이 나와 자기소개와 함께 자선 사업 후원을 제안합니다. <br /> <br />교수님의 5회의 QF 투자가 순조롭게 진행되기를 희망하며 QF 수강생들이 자선을 위해 힘을 보태어주심에 감사드립니다. <br /> <br />그럴듯해 보이지만 자세히 보면, 음성과 입 모양이 잘 맞지 않고, 시선 처리도 어색합니다. <br /> <br />일반인을 속여 돈을 가로채기 위한 이른바 '딥페이크', 가짜 영상입니다. <br /> <br />기술이 급속도로 발전하면서 마치 실제 말하는 것 같은 합성 영상은 불과 클릭 몇 번이면 그럴듯하게 만들 수 있습니다. <br /> <br />취재기자도 직접 인공지능 프로그램에 데이터를 학습시켜 가짜 영상을 만들어 봤습니다. <br /> <br />제가 취재했던 2분 정도 길이 리포트 기사 3개를 연달아 읽어 녹음하고 시스템에 입력했는데요, <br /> <br />제가 직접 하지 않은 말이지만, 제가 한 것과 똑같은 목소리가 나옵니다. <br /> <br />이처럼 손쉽게 만들 수 있다 보니 유명인들을 내세운 가짜 영상도 점차 많아지고 있습니다. <br /> <br />[존 리 / 전 메리츠자산운용 대표 : 당신을 모르는 사람이 보면 속으면 큰일나겠다 그런 얘기를 하죠. 유명하면 무조건 복제를 하는 거죠. 그러니까 이 사람이 금융 전문가가 아니어도 상관도 안 해요. 그러니까 만 개 보내서 10개만 걸려도 돈을 벌잖아요.] <br /> <br />주로 온라인 플랫폼에 올라오는데, 문제는 유명인 허락도 안 받은 허위 영상이어도 걸러낼 방법이 없습니다. <br /> <br />얼굴을 도용당하거나 심지어 사기꾼 아니냐고 매도를 당해도 유명인 자신에게 금전적 피해가 없다면 수사를 의뢰하기도 쉽지 않습니다. <br /> <br />심지어 유명인이 투자를 권유하는 것처럼 속이는 피싱 범죄로 이어지더라도 누가 만들어 올렸는지 특정하는 데만 오랜 시간이 걸리기 일쑤입니다. <br /> <br />[한상준 / 변호사 : 이걸 처벌을 할 수 있다고 해도 누가 올렸다는 피의자 특정이 돼야 되잖아요. 그런데 현실적으로 피의자 특정하기가 어렵고 특정하는 데도 시간이 굉장히 오래 걸려요. 그래서 사실 차선책이라는 게 없어요.] <br /> <br />우려가 커지자 경찰도 대응 마련에 나섰습니다. <br /> <br />가짜 영상을 탐지하는 소프트웨어를 직접 개발... (중략)<br /><br />YTN 윤태인 (ytaein@ytn.co.kr)<br /><br />▶ 기사 원문 : https://www.ytn.co.kr/_ln/0103_202404030530474451<br />▶ 제보 안내 : http://goo.gl/gEvsAL, 모바일앱, social@ytn.co.kr, #2424<br /><br />▣ YTN 데일리모션 채널 구독 : http://goo.gl/oXJWJs<br /><br />[ 한국 뉴스 채널 와이티엔 / Korea News Channel YTN ]