[멕시코=심영재 특파원] 소셜미디어 플랫폼 X(옛 트위터)가 인공지능(AI)으로 제작된 전쟁 관련 허위 영상의 확산을 막기 위해 새로운 수익화 제재 정책을 도입했다.
X가 AI로 생성된 전쟁 영상을 공개 표시 없이 게시하는 크리에이터의 수익화를 중단하는 강력한 정책을 시행한다.
X는 AI로 생성된 전쟁 영상이나 충돌 장면을 게시하면서 이를 명확히 표시하지 않는 크리에이터에 대해 수익 공유 프로그램을 90일간 정지한다고 밝혔다. 같은 위반이 반복될 경우 수익 프로그램에서 영구적으로 제외된다.
니키타 비어 제품 총괄은 지난 3일(현지시각) 이 같은 정책을 X에 게시하며 전쟁 상황에서 사실 기반 정보 접근이 중요하다고 강조했다. 그는 “현대 AI 기술은 실제처럼 보이는 콘텐츠를 쉽게 만들 수 있어 이용자를 오도할 위험이 크다”고 말했다.
이번 조치는 최근 중동 지역 갈등이 격화하면서 온라인에서 허위 영상이 빠르게 확산하고 있는 상황에서 발표됐다.
X는 정책 집행 과정에서 ‘커뮤니티 노트(Community Notes)’ 시스템을 활용할 계획이다. 커뮤니티 노트는 이용자가 직접 사실 검증 정보를 추가하는 크라우드 기반 팩트체킹 기능이다.
플랫폼은 이 시스템과 함께 생성형 AI 도구의 메타데이터 및 신호 분석을 통해 AI 콘텐츠 여부를 판단한다.
최근 온라인에서는 미 해군 항공모함 ‘USS 에이브러햄 링컨’이 공격받는 장면을 묘사한 고품질 AI 영상이 확산됐다. 영상에서는 극초음속 미사일이 미국의 이지스 방어 시스템을 무력화하는 장면이 등장한다.
또 다른 영상은 미 중앙정보국(CIA) 중동 지역 본부가 공격받는 장면으로 퍼졌지만, 사실 확인 결과 이는 아랍에미리트 샤르자에서 2015년 발생한 주택 화재 영상에 AI 효과를 추가해 만든 것으로 알려졌다.
유튜브와 틱톡 등 다른 플랫폼도 AI 생성 콘텐츠에 대한 표시 의무를 도입했다. 다만 X의 정책은 규정 준수를 수익화와 직접 연결했다는 점에서 더 강력한 방식으로 평가된다.
X는 특히 커뮤니티 노트를 중심으로 한 탈중앙형 사실 검증 시스템을 정책 집행에 적극 활용하고 있다.
이번 정책은 AI 전쟁 콘텐츠 탐지와 제재를 사용자 참여 기반 시스템과 결합한 첫 사례 중 하나로 평가된다.






