글로벌 통계NCII 피해 규모INTERPOL AI 사기

SWGfL 최초 글로벌 분석: 전 세계 NCII 피해자 연간 4,970만 명 — INTERPOL 딥페이크 사기 4,420억 달러·영국 1,500% 급증

2026-04-12·8분 읽기
전 세계 비동의 친밀 이미지 피해 규모를 나타내는 글로벌 통계 인포그래픽

영국 비영리단체 SWGfL(South West Grid for Learning)이 2025년 3월 발표한 세계 최초의 데이터 기반 글로벌 NCII 분석에 따르면, 전 세계에서 매년 약 4,970만 명이 비동의 친밀 이미지(NCII) 피해를 입고, 약 4억 2,800만 건의 이미지가 생성·유포되는 것으로 추정됩니다. 같은 기간 INTERPOL과 UNODC는 비엔나 글로벌 사기 정상회담(2026년 3월)에서 AI 딥페이크가 2025년 전 세계 4,420억 달러(약 610조 원) 규모의 금융사기를 가능하게 했다고 경고했습니다. 영국에서는 딥페이크가 2023년 50만 건에서 2025년 800만 건으로 1,500% 폭증했으며, 영국 정부는 이에 대응해 세계 최초의 공공 딥페이크 탐지 프레임워크를 마이크로소프트와 공동 출범시켰습니다.

SWGfL 최초 글로벌 NCII 분석 — '빙산의 본체를 처음으로 측정했다'

SWGfL은 StopNCII.org의 운영 기관으로, 피해자가 자신의 친밀한 이미지를 업로드하면 해시값을 생성해 참여 플랫폼이 동일 이미지의 재유포를 차단하도록 돕는 서비스를 제공합니다. 2025년 3월 발표된 이 보고서('비동의 친밀 이미지 남용의 규모: 데이터 기반 글로벌 분석')는 역사상 최초로 NCII의 글로벌 피해 규모를 체계적으로 수치화한 연구입니다. 기존에는 '엄청나게 많다'는 수준의 추산만 있었을 뿐, 구체적인 전 세계 피해자 수와 이미지 생성량에 대한 과학적 근거는 없었습니다.

연구는 영국의 실제 데이터에서 출발합니다. 영국 복수의 피해 지원 조직 데이터를 분석한 결과, 성인 여성의 약 1.42%가 매년 NCII 피해를 입는 것으로 나타났습니다. 이를 바탕으로 추산하면 영국에서만 연간 36만 9,272명이 피해자가 되고, 연간 318만 건의 이미지가 생성·유포됩니다. 이 비율을 파이브 아이즈(Five Eyes) 5개국(미국·영국·캐나다·호주·뉴질랜드)에 적용하면 연간 267만 명의 성인 여성 피해자, 약 2,300만 건의 이미지로 추산됩니다. 그리고 동일한 방법론을 전 세계 성인 여성 인구에 적용하면 연간 4,970만 명의 피해자, 4억 2,800만 건의 이미지라는 충격적인 수치가 도출됩니다.

보고서는 또한 NCII의 규모가 아동 성착취물(CSAM)보다 76% 더 크다는 점을 처음으로 밝혔습니다. CSAM 글로벌 신고 건수 추정치는 3,590만 건인 반면, NCII는 6,340만 건으로 추산됩니다. 이 수치는 NCII가 단순히 '개인적인 문제'가 아니라, CSAM과 동등하거나 그 이상의 사회적 대응이 필요한 구조적 성폭력임을 보여줍니다. 영국 복수 신원 피해 지원 서비스(UK Revenge Porn Helpline)의 신고 건수는 2015년 521건에서 2024년 2만 2,264건으로 43배 증가했으며, 현재 추세로는 2028년 4만 6,429건을 초과할 것으로 예측됩니다.

INTERPOL·UNODC 글로벌 사기 정상회담 — AI 딥페이크가 '사기의 산업화'를 이끌다

2026년 3월 16~17일, 오스트리아 비엔나에서 INTERPOL과 UNODC가 공동 주최한 '글로벌 사기 정상회담'에는 44개국 정부 대표와 법집행기관, 테크 기업 등 1,300명 이상이 참석했습니다. 이 자리에서 INTERPOL은 글로벌 안티스캠 얼라이언스(GASA) 데이터를 인용해 2025년 한 해 AI 기반 금융사기로 전 세계에서 4,420억 달러가 손실됐다고 발표했습니다. INTERPOL 사무총장 발데시 우르키사(Valdecy Urquiza)는 '인공지능이 탑재된 저비용 디지털 도구와 글로벌 범죄 조직의 협력이 확대되면서 우리는 사기의 산업화를 목격하고 있다'고 경고했습니다.

특히 주목되는 것은 INTERPOL이 딥페이크를 '핵심 범죄 수단'으로 명시적으로 지목했다는 점입니다. 성적 딥페이크 이미지·영상을 이용해 피해자를 협박하는 'AI 섹스토션(sextortion)'이 급격히 증가하고 있으며, 딥페이크 음성(10초의 참조 음성으로 생성 가능)을 이용한 CEO 사기, 가족 납치 위장 전화 등이 대표적인 수법으로 꼽혔습니다. AI 기반 사기 수법은 비 AI 사기 대비 4.5배 더 높은 수익성을 보이며, 이는 범죄 조직들이 AI를 도입하는 결정적인 동인이 되고 있습니다. 44개국은 정상회담 이후 공동 행동 강령에 서명하며 딥페이크 범죄 공조 수사, 피해자 지원 네트워크 확대, 플랫폼 책임 강화에 합의했습니다.

영국 딥페이크 1,500% 급증 — 세계 최초 딥페이크 탐지 프레임워크 출범

영국 정부가 2026년 2월 5~6일 이틀간 공개한 공식 통계에 따르면, 영국 내 딥페이크 공유 건수는 2023년 약 50만 건에서 2025년 약 800만 건으로 1,500% 폭증했습니다. 같은 날 영국 정부는 마이크로소프트, INTERPOL, 파이브 아이즈 정보기관 등이 참여하는 세계 최초의 '공공 딥페이크 탐지 챌린지(Government-led Deepfake Detection Challenge)'를 출범했습니다. 350개 이상의 기관이 참여하는 이 프레임워크는 AI가 생성한 가짜 이미지·영상을 실시간으로 탐지하는 기술을 경쟁적으로 개발하는 방식으로 운영됩니다.

같은 기간인 2026년 2월 6일, 영국은 비동의 친밀 딥페이크의 제작 행위를 형사범죄로 규정하는 법률(데이터(사용·접근)법 2025, 성범죄법 2003 개정)을 시행했습니다. 이로써 영국은 딥페이크 제작 자체를 최초로 형사처벌하는 국가 중 하나가 되었습니다. Ofcom은 2026년 3월 온라인 안전법(Online Safety Act) 위반을 이유로 4chan에 52만 파운드(약 9억 원)의 과징금을 부과했습니다. X(트위터)/그록은 AI 도구가 안전 필터를 우회해 딥페이크를 생성하는 사례가 보고된 이후, Ofcom의 조사를 받으며 지오블로킹 조치를 강제당했습니다.

호주·캐나다·EU — 각국의 법적 대응과 집행 사례

호주는 딥페이크 규제 집행에서 가장 적극적인 판례를 쌓아가고 있는 국가 중 하나입니다. 호주 연방법원은 앤서니 로톤도(Anthony Rotondo)에게 6명의 유명 호주 여성의 AI 딥페이크 포르노 이미지 12장을 게시한 혐의로 34만 3,500호주달러(약 3억 원)의 벌금을 명령했습니다. 그는 이후 법원 명령 3건을 위반해 추가로 2만 5,000달러의 법정모독 벌금을 받았습니다. eSafety 위원회는 또한 매월 호주에서 10만 명 이상이 방문하는 영국 기반 '누디파이(nudify)' 서비스에 공식 경고를 발령했으며, 해당 서비스가 학교 아동들의 노출 이미지를 생성하는 데 악용됐다고 밝혔습니다.

캐나다는 2024년 온라인 해악법(Online Harms Act) 통과로 딥페이크를 명시적으로 규율하고 있습니다. EU는 디지털 옴니버스를 통해 AI법을 개정하며 비동의 성적 이미지 및 CSAM 생성 AI를 '허용 불가 리스크'로 명시적으로 금지했습니다. 또한 EU는 플랫폼이 딥페이크 콘텐츠에 라벨을 부착하지 않으면 전 세계 연간 매출의 6%까지 과징금을 부과할 수 있도록 했습니다. 한국에서는 2024년 성범죄처벌특례법 개정으로 딥페이크 성착취물 소지·구입·저장·시청도 처벌 대상에 포함되었으며, 2026년 3월 성평등가족부가 도입한 AI 자동탐지·삭제 시스템이 시범 운영 25일 만에 아동 성착취물 탐지 2.7배, 유인정보 탐지 80배의 성과를 거뒀습니다.

StopNCII — 200만 건 이미지 해시, 그러나 AI 생성 이미지는 여전히 사각지대

SWGfL이 운영하는 StopNCII.org는 현재 200만 건의 이미지 해시를 보호하고 있으며, 구글·메타·X·틱톡·스냅챗·온리팬스 등 주요 플랫폼이 파트너로 참여하고 있습니다. 구글은 2026년 2월 StopNCII 해시 기술을 도입하고 일괄 삭제 도구를 출시하면서 딥페이크 삭제 속도가 최대 70% 단축되었다고 밝혔습니다. 2026년 5월 19일 시행 예정인 미국 Take It Down Act는 플랫폼에 비동의 딥페이크 48시간 내 삭제 의무를 부과하며, 이에 따른 StopNCII 참여 플랫폼 확대가 기대됩니다.

그러나 StopNCII의 핵심적인 한계는 AI가 생성한 이미지에 있습니다. 해시 기반 기술은 기존에 촬영된 '진짜 이미지'의 재유포를 막는 데 효과적이지만, AI가 새롭게 생성한 합성 이미지는 원본이 존재하지 않기 때문에 해시 데이터베이스에 등록이 불가능합니다. 이미지를 단 하나도 촬영한 적 없는 사람의 얼굴을 AI가 합성한 경우, StopNCII 시스템은 무력화됩니다. SWGfL과 IWF는 이 문제를 해결하기 위해 C2PA(콘텐츠 자격증명 및 인증)와 같은 콘텐츠 출처 표준, 그리고 AI 탐지 기반의 차세대 해시 기술 개발이 시급하다고 강조합니다. EU AI법 50조가 2026년 8월부터 AI 생성 콘텐츠 라벨링을 의무화하는 것도 이러한 맥락에서 주목됩니다.

글로벌 통계가 던지는 질문 — '신고 체계보다 빠른 범죄 확산'

SWGfL 보고서의 가장 충격적인 함의 중 하나는 신고율과 실제 피해 규모의 극단적인 괴리입니다. 영국의 경우 2024년 경찰 NCII 신고 6,459건 중 실제 기소·주의 처분으로 이어진 건수는 264건(4%)에 불과했습니다. 연간 36만 9,000명이 피해를 입는다고 추산되는데, 신고조차 하는 사람이 그중 1.75%에 불과하다는 계산이 됩니다. 한국도 유사한 상황입니다. 경찰청 집중단속 1년간 3,557명 검거라는 수치는 전체 피해자 규모를 고려하면 빙산의 일각입니다. NCMEC가 2025년 1~9월에 100만 건의 AI 관련 아동 착취 신고를 접수했지만 기소율은 1%를 훨씬 밑돌 것으로 전문가들은 추산합니다.

SWGfL은 이 데이터를 바탕으로 각국 정부에 세 가지를 촉구합니다. 첫째, NCII를 CSAM에 준하는 우선순위로 취급하는 국가 전략 수립. 둘째, 피해자 신고를 촉진하고 실제 기소로 이어질 수 있는 전담 수사 체계 구축. 셋째, AI 생성 합성 이미지에 대응할 수 있는 차세대 탐지 기술 개발 지원. 이 보고서는 숫자만으로도 이미 강력한 메시지를 담고 있습니다. 전 세계 매년 4,970만 명이 피해를 입고 4억 2,800만 건의 이미지가 생성된다는 것은, 이 문제가 더 이상 '개인의 불행'이 아니라 글로벌 공중보건 위기 수준의 대응이 필요한 사회적 재난임을 의미합니다.