AI가 아니라 사람이 문제...‘딥페이크’, 정치 양극화 심화시켜

이상수 기자
  • 입력 2024.02.01 10:12
이 기사를 공유합니다

[이모작뉴스 이상수 기자] 세계적인 팝 스타 ‘테일러 스위프트’는 ‘딥페이크’로 곤욕을 치렀다. 사회관계망서비스 엑스(트위터)를 통해 가짜 음란 이미지가 확산하였기 때문이다. 이보다 심각한 것은 선거를 앞둔 미국과 한국에 ‘딥페이크’가 미칠 영향이다. 정치문화가 양극화되어 극단으로 치달을수록 ‘딥페이크’ 기술은 선거 민주주의를 오염시킬 가능성이 높다.

‘딥페이크(deepfake)’는 인공지능 핵심기술 ‘딥러닝(deep learning)’과 가짜를 의미하는 ‘페이크(fake)’의 합성어다. AI의 딥러닝을 활용해 사람의 얼굴이나 특정 부위를 합성해 제작된 가짜 사진과 이미지, 음성, 영상을 말한다.

지난 22일 조 바이든 미국 대통령의 목소리를 모방한 로보콜(자동 녹음 전화)이 유권자들에게 걸려 왔다. 23일 있을 뉴햄프셔주 민주당 프라이머리(예비선거)에 참여하지 말라는 내용이었다. 바이든이 즐겨 쓰는 표현까지 섞어 가며 “11월 본선을 위해 (민주당원의) 표를 아껴둬야 한다”고 했다. 이어 23일 투표하는 것은 공화당이 트럼프를 다시 선출할 수 있도록 돕는 것이라고 했다.

ⓒ게티이미지<br>
ⓒ게티이미지

미국은 11월 대선을 앞두고 이미 정치 양극화 현상을 보인다. 지난 미국 대선 패배 후 일어났던 의사당 난입 점령 사건처럼 ‘트럼피즘’의 재등장이 이를 대변하고 있다. 이미 지난해 트럼프를 위해 ‘딥페이크’는 이용되었다. 구속되지도 않았던 트럼프가 경찰에 끌려가는 모습이라든가 ‘머그샷’이 조작 유포되었다. ‘딥페이크’가 이미 미국정치를 어지럽히고 있다.

딥페이크는 기존의 가짜 뉴스보다 훨씬 더 위험하다. 우선 제작이 그 어느 때보다 저렴하고 용이하다. 앱스토어에서 ‘딥페이크’를 검색하면 수십 개의 애플리케이션이 뜬다. 10초 내로 다운로드 할 수 있으며 1개월에 7,000원 이하의 비용이면 임의대로 사진을 올려 조작할 수 있다.

텍스트로 된 기존의 가짜 뉴스도 매우 위험하다. 연구에 의하면, 사람은 뉴스가 거짓임을 알면서도 자신의 신념을 뒷받침하는 가짜 뉴스를 쉽게 공유하는 경향이 있다. 가짜의 여부가 중요하지 않다. 더군다나 많이 보면 볼수록 진짜로 기억될 가능성이 높아진다. 브라운 대학(Brown University)의 인지 심리학자인 스티븐 슬로먼(Steven Sloman)은 29일 사이언스(Science)‘지에서 “콘텐츠는 반복을 통해 사람들의 머릿속에 뿌리내리게 된다‘라고 말했다.

사진=뉴시스제공&nbsp;
사진=뉴시스제공 

하지만 딥페이크가 만들어내는 이미지와 동영상은 텍스트와 달리 머릿속에 더 오래 남는 경향이 있다. 따라서 그럴듯해 보이는 딥페이크는 훨씬 더 널리 공유된다. 슬로만은 또 다른 위험으로 그 반대의 효과를 들고 있다. 가짜와 진짜를 구분하지 못하면 전문가나 탐지 소프트웨어의 견해와 상관없이 자신의 의견과 다른 이미지를 딥페이크로 주장한다는 것이다. 가장 심각한 것은 보는 모든 것을 믿지 않을 가능성이다. 슬로먼은”딥페이크는 지금까지 존재했던 다른 어떤 종류의 미디어보다 더 큰 위협이 될 수 있다’고 지적한다.

실험 결과가 이를 뒷받침하고 있다. 210명의 지원자를 대상으로 한 슬로만의 연구에서 지원자 대부분은 딥페이크와 실제를 구별할 수 있다고 주장했지만, 실제로 ‘동전을 던져 판별하는 것보다 훨씬 부정확했다.’

지난해 영어와 중국어 사용자 500여 명을 대상으로 한 연구가 있었다. 그중 음성 딥페이크를 정확하게 식별하는 비율이 73%에 불과했고, 실제를 가짜 오디오로 생각하는 비율도 거의 같았다. 이는 지난 22일에 미국 뉴햄프셔에서 벌어졌던 음성 딥페이크 사건의 증거이기도 하다.

웨스턴 시드니 대학 컴퓨터 신경과학자들은 우리는 딥페이크에 쉽게 속을 수밖에 없다고 한다. 이유는 그것을 구별할 훈련을 우리는 받지 않고 살아왔기 때문이다. 즉 “우리는 살면서 누가 진짜인지 가짜인지 생각할 필요가 없었다.”

하지만 뇌는 우리보다 딥페이크 감지가 더 능숙하다. 대학은 22명의 지원자를 대상으로 딥페이크에 대한 반응을 실험했다. 뇌는 딥페이크를 볼 때, 실제 사람을 볼 때와는 다른 뇌의 시각피질에서 전기 신호를 보냈다. 그런데 신호를 보냈음에도 진짜를 맞추는 데 왜 여전히 서툴까. 그것은 신호가 의식적 지각에 도달하기 전에 다른 뇌에 의해 방해받거나, 이 신호를 실제로 사용할 필요가 없어 뇌에 등록되어 있지 않았기 때문이다.

가짜와 진짜를 식별할 방법은 없을까. 뇌가 무의식적으로 처리해서 의식의 영역에 가짜 정보가 반영되지 않더라도 여러 단서가 주어지면 종종 ‘이상함’을 감지할 수 있다. 2,200명의 지원자는 절반이 가짜인 바이든과 트럼프의 연설 대본을 받았다. 식별이 어려웠다. 하지만 연설이 딥페이크와 오디오, 그리고 자막으로 처리되면 될수록 식별률이 높아졌다고 사이언스지는 밝혔다.

그 이유는 많은 종류의 미디어가 상호작용할수록 ‘실패 지점이 발생할 확률이 높아지기’ 때문이다. 따라서 트럼프의 단순한 머그샷보다 그가 체포되는 복잡한 이미지에 더 잘 속는다.

지난해 프란치스코 교황의 딥페이크 또한 화제였다. 푹신한 코트를 입은 교황의 이미지에서 그가 쓴 안경의 어색한 그림자가 가짜라는 단서를 주었다. 이미지가 추가될수록 미묘한 불일치가 발생한다.

사진=뉴시스제공&nbsp;<br>
사진=뉴시스제공 

하지만 알고리즘은 계속 발전하고 있다. 식별이 불가능한 쪽으로 급속히 진행하고 있다. 사람은 특이한 얼굴보다 평균적인 얼굴을 더 매력적이라 생각하고 신뢰한다. 알고리즘은 실제 생활에서 볼 수 있는 더 ‘평균적인’ 얼굴을 생성하기 시작했다.

이러한 위험 인식에서 미국 정부는 생성형 AI가 선거에 미치는 위협을 조사하기 시작했다. 미국 연방 선거관리위원회는 위법적 선거 운동 규정에 AI를 포함할 것을 고려하고 있다. 한국 중앙선거관리위원회 또한 29일부터 선거 운동에 딥페이크가 콘텐츠에 활용되는 것을 규제한다. 특정 후보의 당선 또는 낙선을 위해 조작된 영상, 사진, 음향을 제작 배포하면 7년 이하의 징역 또는 1,000만 원 이상 5,000만 원 이하의 벌금형을 받는다.

하지만 이런 규제는 한계가 있다. 손쉽고 빠른 제작과 SNS를 통한 급속한 확산은 순식간에 여론을 흔들어 놓을 수 있다. 얼마나 빨리 발견하고 차단하느냐가 문제인데 기술 발전 속도로 볼 때 결코 쉬운 일이 아니다.

한국에서 딥페이크는 미국보다 더 큰 충격을 줄 수 있다. 고려대 최장집 명예교수는 ‘민주화 이후의 민주주의’에서 한국 정치의 문제를 정확히 지적하고 있다. ‘현재 한국 정치의 최대 균열은 사회적 기반이 없는 정치적 대표체제이다.’ 사회적 기반보다 정파에 충실한 이익집단일 뿐이다. 사회적 기반 없는 정치 시스템은 뿌리가 없어 충격에 약하다. 적대적이고 기만적인 딥페이크는 한국 사회를 균열이 아닌 파멸로 이끌 수 있다.

딥페이크는 역기능만 있는 것이 아니었다. 원자력을 폭탄이 아닌 발전용으로 사용할 수 있듯이 의도의 문제이다. 딥페이크는 엔터테인먼트 산업에서 실제 촬영 없이 진짜 같은 영상을 만들 수 있다. 또한 증강현실 영상을 제작하여 과거의 인물을 추모할 수 있다. 실제 인물보다 공간적 제약 없이 자유롭게 이동하고 활용에 부담이 없어 학습용 영상 제작에 큰 도움이 된다.

결국, 도구는 그것을 쓰는 자의 선택에 따라 천지 차이를 만들어 낸다. 선거철이 다가오면서 딥페이크가 ‘유용’보다는 ‘악용’으로 전락할 수 있다는 느낌이 한국의 정치 현실을 더 암울하게 한다.

저작권자 © 이모작뉴스 무단전재 및 재배포 금지
관련기사
개의 댓글
댓글 정렬
BEST댓글
BEST 댓글 답글과 추천수를 합산하여 자동으로 노출됩니다.
댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글수정
댓글 수정은 작성 후 1분내에만 가능합니다.
/ 400
내 댓글 모음
모바일버전