딥페이크 확산, 진짜 같은 가짜 보단 진짜가 가짜로 전락하는게 더 위협

인공지능을 활용해 영상이나 자신을 합성하거나 조작하는 이른바 딥페이크(deepfake)에 대한 우려의 목소리가 높다. 하지만 딥페이크의 부상 속에 진짜같은 가짜도 문제지만 사람들이 진짜가 가짜라고 생각하도록 하는 것도 위험 수위가 됐다는 지적이다.

MIT테크놀로지리뷰가 이와 관련한 내용을 보도했는데, 기사는 2018년 아프리카 가봉에서 벌어졌던 일화를 소개하는 것으로 시작된다.

2018년말이었다. 가봉 국민들은 그들의 대통령인 알리 봉고를 몇개월동안 공개석상에서 보지 못했다. 일부 사람들은 그가 아프다고 의심하기 시작했다. 심지어 죽었다고 보는 이들도 있었다. 이런 가운데 정부는 의혹을  덮으려 하고 있었다. 의혹을 막기위해 정부는 봉고 대통령은 타박상으로 고생했지만 건강한 상태로 있다고 했다. 곧이어 정부는 봉고 대통령이 관례대로 새해 연설을 하는 영상을 공개했다.

긴장이 완화되기는 커녕 이 영상은 정확하게 반대로 영향을 미쳤다. 많은 사람들이 영상에서 봉고 대통령이 눈을 떼고 있다고 생각했고, 그것이 딥페이크라고 의심했다. 이같은 생각은 정부가 무언가 감추고 있다는 그들의 의심에 기름을 부었다. 1주일후에, 군대는 성공하지 못한 쿠데타를 시도했다. 비디오가 쿠데타를 하게 된 동기의 일부라고 했다.

이어진 포렌식 분석은 결코 어떤 것도 영상에서 변경되거나 조작되지 않았다고 확인했다. 그러나 이것은 중요하지 않았다. 단순한 딥페이크 아이디어는 위태로운 상황이 흐트러지는걸 가속화하기에 충분했다.

기사에 따르면 2020년 미국 대통령 선거 준비에서도 점점 설득력을 갖춰가는 딥페이크 기술은 어떻게 가짜 미디어가 정치적인 의견에 영향을 미칠지에 대한 공포로 이어지고 있다.

하지만 현실은 좀 다르다. 얼핏보면 가짜 정보에 따른 후유증이 걱정같은데, 실제로는 거꾸로, 다시 말해 딥페이크로 인해 진짜가 가짜로 전락하는 시나리오가 위험할 수 있다는 것이다.

딥페이크 탐지를 주특기로 하는 사이버 보안 회사인 딥트레이스랩스가 내놓은 보고서를 보면, 딥페이크가 허위정보 캠페인에 실제로 사용됐다고 알려진 사례는 없다. 보다 강력하게 영향을 미치는 것은 딥페이크가 이런식으로 사용될 수 있다는 지식이라는게 보고서 설명이다.

보고서 저자 중 1명인 헨리 아이더는 "딥페이크는 진짜처럼 보이는 가짜 미디어 측면에서 정치에 위협을 제기하고 있다"면서도 "그러나 현재 시점에서 보다 실질적인 위협은 딥페이크 아이디어가 어떻게 진짜를 가짜처럼 보이게 하는데 적용되는 것이다"고 말했다. 딥페이크가 정치에 미치는 충격을 과장하고 선정적으로 보도하는 것이 딥페이크가 충격을 불러일으키는 실제 사례를 가리고 있다는게 그의 지적이다.

인권 운동가이자 허위 정보 전문가들은 딥페이크가 수면위로 부상한 이후 분리돼 있지만 서로 얽혀 있는 이들 위협에 대해 경고해왔다. 그러나 지난 2년간 미국 테크 기업들과 정책 결정자들은 오로지 처음의 문제, 다시 말해 가짜를 진짜처럼 쉽게 보이게 만드는 기술에만 초점을 맞춰왔다.

MIT테크놀로지리뷰는 "전문가들을 보다 고민스럽게 하는 것은 두번째의 것이다. 딥페이크를 만드는 장벽은 빠르게 낮아지고 있을지 몰라도 어떤 것의 진실성에 의문을 제기하는 것은 기술을 필요로 하지 않는다"고 전했다.

미디어에서 신뢰가 약화되는데 따른 영향을 클 수 있다. 특히 부실한 정치적인 환경에선 특히 그렇다. 사람들이 인권 남용을 기록할 수 있도록 돕는 비영리단치인 위트니스의 샘 그레고리 프로그램 디렉터는 브라질에서 벌어진 일을 이와 관련한 사례로 공유했다.

그에 따르면 경찰 폭력의 역사로 고생했던 브라질에서 시민들과 행동가들은 이제 그들이 촬영한 경찰이 시민을 죽이는 영상을 더 이상 조사를 위한 충분한 근거가 되지 않을 것이라는 점을 걱정하고 있다. 실제 증거가 정말 같이 가짜로 일축될 수 있다는 것이다. 이것은 세계 각지에서 위크샵에서 반복적인 주제였다는 것이 그레고리의 설명이다. 그는 "이것은 어떤 것이 가짜 뉴스라는 주장의 진화다. 권력자에게 또 다른 무기를 준다"고 말했다.

많은 연구 그룹들과 페이스북, 구글같은 테크 회사들은 훈련 탐지 알고리즘용 데이터베이스나 디지털 사진에 내장될 수 있는 워터마크 등 가짜를 폭로하는 도구에 초점을 맞추고 있다. 몇몇 스타트업들도 사진과 영상의 진위 여부를 가릴 수 있는 애플리케이션을 개발하고 있다. 샘 그레고리는 "테크 거인들은 이들 기술이 광범위하게 이용되려면 두개 유형의 체크 방식을 플랫폼에 바로 통합해야 한다"고 말했다.

이외에도 테크 회사들은 인간 콘텐츠 모더데이터를 고용하고, 미디어 회사들은 탐지 및 검증과 관련해 저널리스트들과 팩트 체커들을 훈련시킬 필요도 있다. 현장 보도는 영상이 현실을 반영하는 것인지 확인하고 뉘앙스라는 중요한 레이어를 추가할 수 있다.

"기술적인 모델은 가짜 비디오를 문화적인 맥락에 걸쳐 해석할수 없고 이후에 어떻게 맥락과 다시 관련지어질지 예상할 수 없다"고 최근 딥페이크에 대한 보고서를 내놓은 정보 연구 전문가인 비트 파리스는 말했다.

파리스는 이와 관련해 낸시 팔로시와 짐 아코스타와 관련해 변경된 비디오를 예로 들었다. 두 영상 모두 이른바 딥페이크라기 보다는 칩페이크(cheapfakes)였다. 시청자들을 오도하기 위해 간단하게 속도만 변경됐다. 파리스는 "딥페이크를 찾는 기술로 이같은 가짜를 잡을 수 있는 방법은 없었다. 저널리스트들이 파헤쳐야 했는데, 이것은 사람들이 이들 저널리스들을 신뢰해야 했다는 것을 의미했다"고 말했다.

전문가들은 일반인들에 대한 많은 미디어 교육이 필요하다는데 동의한다. 오바다야는 "콘텐츠를 위조하고, 콘텐츠의 진실성에 의문을 던지는 것 모두,의도적으로 혼란을 불러일으키기 위해 사용될 수 있는 전술이라는 점을 알 필요가 있다"고 말했다.

샘 그레고리는 뉴스 소비자들에게 너무 많은 부담을 지우는 것은 신중해야 한다는 입장이다. 무엇이 진짜이고, 무엇이 가짜인지를 뉴스가 일반에 전달되기전에 확인할수 있도록  연구자들, 플랫폼들, 저널리스트들이 가능한 많은 일을 해야 한다는게 그의 생각이다.

테크잇 뉴스레터를 전해드립니다!

오피니언 기반 테크 블로그 'TechIt'
테크 비즈니스를 보는 다양한 통찰들을 이메일로 간편하게 받아 볼 수 있습니다.

About the author

endgame
endgame

테크 블로거 / 공유할만한 글로벌 테크 소식들 틈틈히 전달하겠습니다

No more pages to load


TechIT

테크 비즈니스를 보는 다양한 통찰 '테크잇'

독자 여러분들께서 좋은 의견이나 문의 사항이 있으시면 아래 양식에 따라 문의 주시기 바랍니다.

Contact