글로벌 통계아동 보호UNICEF 보고서

UNICEF 경고 — 11개국 아동 120만 명, 딥페이크 성착취 이미지 피해 확인

2026-03-29·9분 읽기
UNICEF 아동 딥페이크 피해 경고

2026년 2월 4일, 세계 안전 인터넷의 날(Safer Internet Day)을 맞아 UNICEF는 충격적인 연구 결과를 발표했습니다. UNICEF, ECPAT International, INTERPOL이 공동으로 수행한 'Disrupting Harm Phase 2' 연구에 따르면, 전 세계 11개국에서 최소 120만 명의 아동이 자신의 사진이 성적으로 노골적인 딥페이크 이미지로 변환된 경험이 있다고 응답했습니다. 일부 국가에서는 이 비율이 25명 중 1명 — 즉 일반적인 교실 한 반에 최소 1명꼴입니다.

'Disrupting Harm Phase 2' — 사상 최대 규모의 아동 딥페이크 피해 조사

이번 연구는 UNICEF 이노첸티 연구소(Office of Strategy and Evidence – Innocenti), 아동 성착취 근절 국제네트워크 ECPAT International, 그리고 국제형사경찰기구 INTERPOL이 공동으로 수행했습니다. Safe Online 재단의 지원을 받아 진행된 이 프로젝트는, 디지털 기술이 아동 성착취 및 학대를 어떻게 촉진하는지를 체계적으로 조사한 역대 최대 규모의 글로벌 연구입니다.

조사 방법론은 엄격했습니다. UNICEF와 글로벌 리서치 기관 IPSOS가 11개국에서 국가 대표성을 갖춘 가구 설문조사를 실시했으며, 각 국가별로 인터넷을 사용하는 12~17세 아동 약 1,000명과 그 부모·보호자 약 1,000명을 대상으로 조사했습니다. 표본 설계는 각국의 전체 또는 거의 전체(91~100%) 인구를 커버하도록 설계되었습니다.

  • 조사 대상: 11개국, 12~17세 인터넷 사용 아동
  • 딥페이크 성착취 피해 아동: 최소 120만 명
  • 일부 국가 피해 비율: 25명 중 1명 (교실 1반당 1명)
  • AI 성적 이미지 생성 우려: 아동의 최대 3분의 2가 걱정
  • 연구 수행: UNICEF · ECPAT · INTERPOL · IPSOS

"딥페이크 학대는 학대다" — UNICEF의 명확한 선언

UNICEF는 이번 보고서의 제목을 "Deepfake abuse is abuse(딥페이크 학대는 학대다)"로 명명하며, AI로 생성된 아동 성착취물이 "가상"이라는 이유로 실제 학대보다 덜 심각하게 취급되는 현실에 정면으로 반박했습니다.

UNICEF는 다음과 같이 강조합니다: AI가 생성한 이미지라 하더라도, 실제 아동의 사진을 기반으로 만들어진 성적 콘텐츠는 그 아동에게 실제적이고 지속적인 심리적 피해를 야기합니다. 피해 아동은 자신의 이미지가 어디에서 유통되고 있는지 알 수 없고, 완전한 삭제가 사실상 불가능하며, 언제든 다시 표면화될 수 있다는 공포 속에서 살아갑니다.

특히 "누디파이(nudify)" 기술 — AI 도구를 사용해 사진 속 인물의 옷을 벗기거나 변형하여 가짜 나체 또는 성적 이미지를 만드는 기술 —이 아동 대상으로 급속히 확산되고 있다는 점이 이번 연구의 핵심 경고입니다.

아이들의 공포 — "AI가 내 사진으로 그런 걸 만들까 봐 무섭다"

이번 조사에서 가장 주목할 점 중 하나는 아동들 스스로가 느끼는 공포의 크기입니다. 조사 대상 11개국 중 일부 국가에서는 아동의 최대 3분의 2(약 67%)가 "AI가 자신의 가짜 성적 이미지나 영상을 만들 수 있다"는 점에 대해 걱정하고 있다고 응답했습니다.

이것은 단순한 막연한 불안이 아닙니다. 이미 120만 명의 아동이 실제로 피해를 경험했다는 통계가 보여주듯, 아이들의 공포는 현실에 근거한 합리적 두려움입니다. SNS에 올린 졸업사진, 친구와 찍은 셀카, 체육대회 사진 — 아동이 인터넷에 공유한 어떤 사진이든 누디파이 AI의 입력값이 될 수 있습니다.

UNICEF의 3대 권고 — 정부, AI 기업, 플랫폼에 요구

UNICEF는 이번 보고서를 통해 세 가지 핵심 행위 주체에게 명확한 권고를 제시했습니다: 모든 정부에는 아동 성착취물(CSAM) 정의를 AI 생성 콘텐츠까지 확대하고, 그 생성·취득·소지·유포를 범죄화할 것. AI 개발자에게는 '안전 설계(Safety by Design)' 접근법과 강력한 가드레일을 구현하여 AI 모델의 오용을 방지할 것. 디지털 플랫폼에는 AI 생성 아동 성착취물의 유통을 사후 삭제가 아닌 사전 차단하고, 탐지 기술에 투자할 것.

특히 UNICEF가 플랫폼에 요구한 "사후 삭제가 아닌 사전 차단"이라는 표현은 주목할 만합니다. 현재 대부분의 플랫폼은 신고 접수 후 콘텐츠를 삭제하는 반응적(reactive) 방식을 취하고 있으나, UNICEF는 이것이 아동 보호에 근본적으로 불충분하다고 판단하고, AI 기반 탐지 기술을 활용한 선제적(proactive) 차단을 촉구하고 있습니다.

한국의 현실 — 학교 딥페이크 피해 948명, 가해자 62%가 10대

UNICEF의 글로벌 조사에 한국은 포함되지 않았지만, 한국의 상황은 글로벌 추세와 정확히 일치합니다. 2024년 1월부터 11월까지 교육부가 집계한 학교 딥페이크 성범죄 피해 신고 건수는 561건, 누적 피해자는 948명에 이릅니다.

더욱 충격적인 것은 가해자의 연령 분포입니다. 경찰청 통계에 따르면, 딥페이크 성범죄 피의자의 61.8%가 10대이며, 10대와 20대를 합하면 90% 이상에 달합니다. 2024년 한 해 동안 딥페이크 피해 지원을 요청한 781명 중 288명(36.9%)이 미성년자였으며, 이 숫자는 2022년 대비 4.5배 증가한 수치입니다.

  • 학교 딥페이크 피해 신고: 561건, 피해자 948명 (2024년)
  • 딥페이크 성범죄 피의자 중 10대: 61.8%
  • 미성년 피해자 지원 요청: 288명 (2022년 대비 4.5배 증가)
  • 합성·편집 피해: 1,384건 (전년 대비 227% 증가)
  • 합성·편집 피해자 중 10대·20대: 92.6%, 여성: 96.6%

한국의 딥페이크 범죄는 "놀이"로 시작되는 경우가 많습니다. 같은 학교 친구나 선후배의 SNS 사진을 누디파이 앱에 넣어보는 것이 "장난"으로 시작되지만, 그 결과물은 피해자의 삶을 완전히 파괴합니다. UNICEF가 지적하듯, 딥페이크 학대는 학대입니다 — 생성 과정의 "쉬움"이 결과의 심각성을 희석시켜서는 안 됩니다.

글로벌 대응 — 네덜란드 법원부터 EU AI법까지

UNICEF 보고서 발표 이후 한 달여 만에, 전 세계적으로 아동 보호를 위한 법적·기술적 대응이 가속화되고 있습니다.

  • 네덜란드 법원 (2026년 3월 26일) — 암스테르담 지방법원이 xAI의 Grok에 비동의 성적 이미지 생성을 금지하는 유럽 최초의 법원 명령을 내렸습니다. 위반 시 하루 10만 유로(약 1억 5천만 원), 최대 1천만 유로의 벌금이 부과됩니다.
  • EU 의회 — AI 누디파이 앱 전면 금지안을 101대 9로 압도적 승인. EU AI법에 누디파이 금지가 명시적으로 포함될 예정입니다.
  • 미국 Take It Down Act — 2026년 5월 19일부터 플랫폼은 딥페이크 성적 콘텐츠를 48시간 이내에 삭제해야 하며, 위반 시 최대 3년 징역형이 부과됩니다.
  • 한국 경찰청 — 2026년 10월까지 사이버 성폭력 집중 단속을 연장하고, 서울시가 개발한 AI 기반 디지털 성범죄 추적 기술을 전국에 무상 보급 중입니다.

부모와 교육자가 지금 해야 할 일

UNICEF 보고서는 아동 보호의 일차적 책임이 정부와 기업에 있다고 명시하면서도, 부모와 교육자의 역할 역시 강조합니다.

  • 대화를 시작하세요 — 아이에게 "딥페이크가 뭔지 아니?"가 아니라, "혹시 이런 일을 겪거나 들은 적 있니?"라고 물어보세요. 아이들의 67%가 이미 걱정하고 있습니다.
  • SNS 사진 공개 범위를 점검하세요 — 공개 계정에 올린 사진은 누구든 다운로드할 수 있으며, 누디파이 AI의 입력값이 될 수 있습니다.
  • 신고 절차를 미리 알려주세요 — 피해를 당하거나 목격했을 때 어디에 신고해야 하는지(한국: 디지털성범죄피해자지원센터 02-735-8994, 경찰 112) 사전에 알려두세요.
  • "네 잘못이 아니다"를 반복하세요 — 딥페이크 피해 아동은 수치심과 자기비난에 시달립니다. 피해의 원인은 기술을 악용한 가해자에게 있음을 분명히 해주세요.

결론 — 120만이라는 숫자의 무게

120만 명. 이것은 11개국만의 수치입니다. 전 세계로 확대하면 그 규모는 상상을 초월할 것입니다. UNICEF가 "딥페이크 학대는 학대다"라고 선언한 것은, 이 문제가 더 이상 "기술적 호기심"이나 "청소년 장난"으로 치부될 수 없음을 의미합니다.

교실 한 반에 1명의 아이가 자신의 사진이 성적 딥페이크로 변환된 경험이 있다는 사실은, 이것이 먼 나라의 문제가 아니라 바로 우리 아이의 문제라는 뜻입니다. 한국에서도 학교 딥페이크 피해자가 948명에 달하고, 가해자의 62%가 10대인 현실에서, UNICEF의 권고 — 법적 정의 확대, AI 안전 설계, 사전 차단 — 는 한국 사회에도 즉각적으로 적용되어야 합니다.

2026년은 "Disrupting Harm Phase 2"의 국가별 상세 보고서가 순차적으로 공개되는 해입니다. 각국의 구체적 피해 실태가 드러날수록, 아동 보호를 위한 글로벌 연대와 즉각적 행동의 필요성은 더욱 분명해질 것입니다.