UN Women법적 보호딥페이크 성범죄

UN여성기구 경고 — 딥페이크 성범죄 피해자의 96%가 법적 보호를 받지 못한다

2026-03-22·8분 읽기
딥페이크 성범죄와 사법 정의의 실패

2026년 3월, UN여성기구(UN Women)가 발표한 보고서 "When Justice Fails"는 전 세계 딥페이크 성범죄 피해자들이 직면한 현실을 적나라하게 드러냅니다. 딥페이크 포르노의 98%가 여성을 대상으로 하며, 피해자의 99%가 여성입니다. 그러나 전 세계 절반 이상의 국가에 관련 법조차 존재하지 않습니다.

딥페이크 성범죄 — 숫자로 보는 위기

UN Women은 딥페이크 성착취가 "틈새 인터넷 문제"가 아니라 전 세계적 위기라고 선언했습니다. AI 기술의 발전으로 누구나 몇 초 만에 타인의 성적 이미지를 생성할 수 있게 되었지만, 이에 대한 법적 보호는 기술 발전을 전혀 따라가지 못하고 있습니다.

  • 전체 딥페이크 영상의 98%가 포르노그래피
  • 딥페이크 포르노 피해자의 99%가 여성
  • 2019년 대비 딥페이크 영상 550% 증가
  • 디지털 폭력을 경험한 공직 여성의 41%가 오프라인 공격도 경험
  • 전 세계 절반 이상의 국가에 온라인 학대 관련 법률 부재

왜 사법 정의는 실패하고 있는가

1. 법률의 부재 — UN Women에 따르면, 전 세계 절반 미만의 국가만이 온라인 학대를 다루는 법률을 보유하고 있으며, AI 생성 딥페이크 콘텐츠를 구체적으로 다루는 법률을 가진 국가는 이보다 훨씬 적습니다. 기존의 리벤지포르노 법률은 "실제 촬영된" 영상물을 전제로 하기 때문에, AI로 생성된 합성 이미지에는 적용하기 어려운 경우가 많습니다.

2. 피해자의 재피해(Re-traumatization) — 피해 사실을 신고하더라도, 피해자는 경찰, 변호사, 플랫폼 관리자에게 학대적 콘텐츠를 반복해서 보고 설명해야 합니다. "정말 딥페이크가 맞나요?", "본인이 원래 친밀한 사진을 공유한 적은 없나요?" 같은 질문에 시달리며, 피해자가 오히려 의심의 대상이 되는 상황이 반복됩니다.

3. 플랫폼의 무책임 — 대부분의 소셜미디어 플랫폼은 딥페이크 신고에 대해 신속하게 대응하지 않으며, 삭제 후에도 콘텐츠가 다른 플랫폼으로 재유포되는 것을 막지 못합니다. Grok AI 사태에서 보았듯이, AI 도구를 만든 기업조차 "자사는 플랫폼이 아니다"라며 법적 책임을 회피하고 있습니다.

  • 신고해도 기소로 이어지는 비율이 극히 낮음
  • 해외 서버 운영 사이트에 대한 수사 및 삭제 한계
  • 법적 절차 중 피해 콘텐츠 반복 노출로 인한 2차 피해
  • AI 생성물이라는 이유로 '실제 피해'로 인정받지 못하는 경우 다수

변화의 움직임 — 글로벌 입법 동향

미국 — DEFIANCE Act: 2026년 1월, 미국 상원은 DEFIANCE Act(Disrupt Explicit Forged Images and Non-Consensual Edits Act)를 만장일치로 통과시켰습니다. 이 법안은 딥페이크 성착취물의 피해자가 제작자와 유포자를 연방 법원에서 최대 25만 달러(약 3억 3천만 원)의 민사 손해배상을 청구할 수 있도록 합니다. 공소시효는 10년이며, 현재 하원 통과를 앞두고 있습니다.

미국 — Take It Down Act 시행 임박: 2026년 5월 19일부터 발효되는 Take It Down Act는 플랫폼에 비동의 성적 이미지와 딥페이크를 신고 접수 후 48시간 이내에 삭제할 의무를 부과합니다. 위반 시 최대 3년 징역에 처해질 수 있습니다.

EU — AI법 개정안: 유럽의회는 2026년 3월, AI법 개정안에 비동의 성적 딥페이크 생성 자체를 금지하는 조항을 포함시켰습니다. 이는 딥페이크 "도구"의 존재 자체를 불법화할 수 있는 근거를 마련한 것으로, 기존의 "유포" 중심 규제에서 "생성" 단계까지 규제를 확대한 의미 있는 진전입니다.

한국 — AI 기반 대응 강화: 한국에서는 서울시가 개발한 디지털 성범죄 추적 AI가 전국에 무상 보급되고 있습니다. 기존 육안 탐지 대비 30배 빠른 속도, 3배 높은 정확도로 딥페이크 영상물까지 탐지할 수 있으며, 여성가족부도 AI 기반 삭제지원시스템 고도화를 추진 중입니다. 또한 성폭력처벌법 제14조의2에 따라 허위 영상물 편집·합성·유포 시 최대 5년 이하 징역 또는 5,000만 원 이하 벌금에 처해집니다.

xAI 집단소송 — 법적 책임의 시험대

2026년 3월, 테네시주의 10대 소녀 3명이 일론 머스크의 xAI를 상대로 집단소송을 제기했습니다. Grok AI가 자신들의 사진으로 아동 성착취물(CSAM)을 생성했다는 혐의입니다. 뉴욕타임스 분석에 따르면, Grok은 9일 동안 440만 장의 이미지를 생성했으며, 그 중 180만 장이 여성의 성적 묘사였습니다.

이 소송은 AI 도구 제작사의 법적 책임을 묻는 최초의 대규모 사건으로, 판결 결과에 따라 전 세계 AI 기업의 책임 범위가 재정립될 수 있습니다.

피해를 입었다면

  • 즉시 증거 확보 — URL, 스크린샷, 계정 정보를 기록
  • 경찰 신고 — 사이버범죄 신고 (경찰청 182)
  • 디지털 성범죄 피해자 지원센터 — 여성가족부 (02-735-8994)
  • 플랫폼 삭제 요청 — Take It Down Act 발효 후 48시간 내 삭제 의무
  • AI 기반 유포 추적 — 인터넷 전체에서 해당 이미지 검색 및 삭제 지원

결론

UN여성기구의 보고서가 말하는 것은 명확합니다 — 기술은 빠르게 진화하지만, 정의는 따라가지 못하고 있다는 것입니다. 딥페이크 성범죄는 "가짜 이미지"의 문제가 아니라, 실제 사람의 존엄과 안전을 파괴하는 범죄입니다. DEFIANCE Act, Take It Down Act, EU AI법 개정 등 법적 틀이 만들어지고 있지만, 피해자가 실질적으로 보호받으려면 법 집행, 플랫폼 책임, 국제 공조가 동시에 작동해야 합니다.

당신이나 주변 사람이 딥페이크 피해를 입었다면, 혼자 감당하지 마세요. 전문 팀이 유포 현황을 파악하고 삭제를 도와드립니다.