AI 시대, ‘증거의 종말’이 다가오고 있다
컨텐츠 정보
- 조회 375
본문
최근 미국 백악관 창문에서 쓰레기봉투가 떨어지는 듯한 한 영상이 빠르게 확산됐다.
2025년 9월 2일 화요일, 도널드 트럼프 전 미국 대통령은 기자회견에서 “아마도 AI로 생성된 영상일 것”이라고 말했다. 같은 날, 백악관 관계자는 미국 시사 매체 타임지에 해당 영상이 진짜이며, “계약직 근로자가 정기 유지보수 중이었다”라고 설명했다.
과연 그 영상 속 쓰레기봉투는 실제였을까, 생성형 AI가 만든 조작물일까? 진짜였다면 뉴스 가치가 있는 장면일까, 단순한 건물 관리일까? 아무도 진위를 알 수 없다.
가짜 감동, 진짜 논란
연예계도 예외가 아니다. 배우 겸 래퍼 윌 스미스는 새 앨범 투어를 홍보하는 영상에서 감격에 찬 팬들과 손글씨 피켓이 담긴 장면을 게시했다. 비평가들은 해당 영상이 감정을 과장하기 위해 AI로 생성되거나 강화되었을 가능성이 있다고 지적했다. 전문가 분석 결과, 해당 영상은 실제 장면과 AI 생성 이미지가 혼합된 구성일 가능성이 높은 것으로 분석됐다.
윌 스미스는 비판에 대해, 관객이 전부 생성형 AI 고양이로 구성된 영상을 다시 올리며 응수했다.
하지만 논란은 단순한 영상 연출을 넘어서 정치, 군사, 외교 등 심각한 영역으로까지 확장되고 있다.
거짓도 진실도 증명되지 않는다
미군은 베네수엘라발 고속정이 불법 마약을 운송 중이었다며 남카리브해에서 공습을 감행해 11명을 사살했다고 발표하고 영상 증거를 공개했다. 그러나 베네수엘라 통신부 장관 프레디 냐녜스는 해당 영상이 생성형 AI로 조작된 것처럼 보인다고 주장했다.
대만 정치인과 군 지도부는 생성형 AI 이미지가 활용된 허위 정보 캠페인의 주요 타깃이 되어왔다. 일부 공직자는 불리한 영상이나 음성 자료가 공개되자, 조작 증거가 없음에도 ‘딥페이크’라고 주장하며 사실을 부정하는 경우도 있었다.
인도, 멕시코, 나이지리아, 브라질의 정치인들도 자신에게 불리한 증거가 등장하면 AI 조작이라고 주장한다. 이들은 특이한 예외가 아니라, 정치적 언어 전략의 최신 흐름을 반영하는 사례에 가깝다.
거짓말쟁이의 배당금
2019년, 딥페이크 기술의 위협이 부상하자, 법률 전문가 바비 체스니와 다니엘 시트론은 ‘거짓말쟁이의 배당금(liar’s dividend)’이라는 개념을 제시했다. 생성형 AI 콘텐츠로 인해 진위를 판단하기 어려워진 시대에, 정직하지 않은 인물이 실제 증거를 가짜라고 주장해 정치적 이익을 얻는 현상을 뜻한다.
특히 선거 기간 동안, 허위 딥페이크 주장은 실제 딥페이크만큼 위험할 수 있다. 불분명한 진위 판별, 신뢰 낮은 탐지 도구, 광범위한 불신은 정치인이 ‘가짜 뉴스’ 혹은 ‘딥페이크’라고 외치며 책임을 회피할 수 있는 환경을 조장한다.
미국 정치학 학술지 폴리티컬 사이언스 리뷰(American Political Science Review)에 실린 케일린 잭슨 시프, 다니엘 S. 시프, 나탈리아 S. 부에노의 논문은 2020~2022년 사이 1만 5,000명 이상의 미국 성인을 대상으로 한 5건의 실험 연구를 통해 다음과 같은 결론을 제시했다.
양당 정치인을 대상으로 한 스캔들에서, ‘허위 정보’라고 주장하는 것이 침묵하거나 사과하는 것보다 지지율을 더 높이는 효과를 가져왔다는 것이다.
‘나노 바나나’의 위력
기술 기업 구글(Google)의 제미나이 2.5 플래시 이미지(제미나이 2.5 Flash Image)는 코드명 ‘나노 바나나(Nano Banana)’로 알려진 이미지 생성 및 편집 모델이다.
이 모델은 극사실적 이미지 생성은 물론, 기존 사진을 텍스트 명령어 하나로 조작 가능하다. 예를 들어 강아지를 쓰다듬는 사진을 자동차 타이어를 찢는 장면으로 교체하는 것도 가능하다.
동일한 인물의 얼굴, 옷차림, 소품 유지, 현실적인 조명 및 위치 정보 적용 등을 통해 연속된 실제 장면처럼 보이게 만드는 일관성이 특징이다. 제미나이의 세계 지식이 이를 뒷받침한다.
제미나이 2.5 플래시 이미지는 제미나이 API, 구글 AI 스튜디오, 버텍스 AI를 통해 시험 버전으로 공개됐다. 가격은 출력 토큰 100만 개당 30달러, 이미지 1장당 0.039달러(1,290 출력 토큰 기준)이다.
통합 파트너로는 AI API 플랫폼 오픈라우터(OpenRouter), 기술 기업 팰.ai(fal.ai), 디자인 소프트웨어 기업 어도비의 어도비 파이어플라이(Firefly) 및 어도비 익스프레스(Express), 지식 플랫폼 쿠오라(Quora)의 포(Poe), 콘텐츠 플랫폼 프리픽(Freepik), 협업 디자인 도구 피그마(Figma), AI 생성 도구 폴로에이아이(Pollo AI), 광고 대행사 WPP의 WPP 오픈(Open), 이미지 생성 플랫폼 레오나르도.ai(Leonardo.ai) 등이 포함되어 있다.
즉, 고해상도 가짜 이미지를 누구나 쉽게 만들 수 있는 시대가 이미 도래한 것이다.
AI 진위 탐지 기술도 완벽하지 않다
긍정적인 소식은, 구글이 해당 모델로 생성하거나 편집한 모든 이미지에 SynthID라는 비가시 워터마크를 삽입한다는 점이다. 이 워터마크는 리사이징, 회전, 압축, 스크린샷 등의 편집을 거쳐도 유지되며, 탐지 전용 뉴럴 네트워크를 통해 ‘존재함’, ‘의심됨’, ‘탐지되지 않음’ 등의 상태로 결과를 제공한다.
오픈AI는 DALL-E 3와 챗GPT 이미지 생성 기능에 C2PA 기반 콘텐츠 신뢰 정보 메타데이터를 추가해 생성 도구와 타임스탬프를 기록한다. 단, 스크린샷이나 일부 플랫폼에서는 해당 정보가 제거될 수 있다는 점에서 한계가 있다.
마이크로소프트의 애저 오픈AI 서비스(Azure OpenAI Service)도 C2PA 콘텐츠 신뢰 정보를 통해 생성 주체, 시간, 도구를 기록하며, 다운로드 시 해당 메타데이터가 유지된다.
소셜 플랫폼 기업 메타는 현실적인 이미지에 보이지 않는 워터마크와 IPTC 메타데이터를 삽입하며, 자체 개발한 스테이블 시그니처(Stable Signature) 모델도 공개했다.
어도비는 콘텐츠 진위 이니셔티브(Content Authenticity Initiative)와 C2PA 표준을 통해 플랫폼 간 콘텐츠 출처 확인을 목표로 한다. 틱톡(TikTok)은 C2PA 메타데이터가 포함된 AI 콘텐츠에 자동 라벨을 부착하는 기능을 도입했다.
그러나 어떤 진위 탐지 기술도 완벽하지 않다. 누군가 이미지가 가짜라고 주장하면, 그것이 진짜라는 사실을 명확히 입증할 방법은 없다.
사진이 증거였던 시대 끝나
1859년, 사진은 처음으로 법정 증거로 채택됐다.
1862년, 미국 남북전쟁 사진이 여론 형성 도구로 사용됐다.
1880년, 하프톤 인쇄를 통해 실물 사진이 신문에 실리며, 이미지는 공통의 사실로 자리 잡았다.
사진과 영상은 166년 동안 진실의 시각적 증거로 기능해왔다.
이제 그 시대는 끝났다. 아직 완전히 익숙해지기도 전에.
dl-itworldkorea@foundryco.com
관련자료
-
링크
-
이전
-
다음





