Undress AI의 실체 — AI 탈의 사이트는 어떻게 작동하고, 왜 위험한가

"사진 한 장만 올리세요. 나머지는 AI가 합니다." — 이것이 undress.ai 같은 AI 탈의 사이트들의 슬로건입니다. 수 초 만에 누구의 사진이든 나체 이미지로 변환하는 이 도구들은 디지털 성범죄의 가장 위험한 무기가 되었습니다.
AI 탈의 사이트란 무엇인가?
AI 탈의(AI Undressing) 사이트는 딥러닝 신경망을 사용해 사진 속 인물의 옷을 디지털로 제거하고, 실제처럼 보이는 나체 이미지를 생성하는 웹서비스입니다. 사용자가 해야 할 일은 단 하나 — 누군가의 사진을 업로드하는 것뿐입니다.
이 기술은 원래 GAN(Generative Adversarial Networks) 기반의 연구 프로젝트에서 출발했지만, 이제는 누구나 접근 가능한 상업적 도구로 변질되었습니다. 대부분의 사이트가 무료 체험을 제공하며, 유료 플랜으로 대량 생성을 가능하게 합니다.
주요 AI 탈의 사이트 분석
Undress.ai — 가장 널리 알려진 AI 탈의 사이트 중 하나입니다. 사용자가 사진을 업로드하면 AI가 "의류 제거" 처리를 수행합니다. 무료 크레딧으로 시작할 수 있으며, 월 $9.99~$49.99의 유료 구독을 통해 고화질·대량 생성이 가능합니다. 사이트는 "18세 이상만 사용 가능"이라고 명시하지만, 연령 인증은 사실상 없습니다.
Clothoff.net — 웹사이트와 모바일 앱 양쪽에서 운영되는 서비스입니다. 텔레그램 봇까지 운영하여 별도의 웹사이트 방문 없이도 이미지 생성이 가능합니다. 크레딧 기반 과금 구조로, 이미지 한 장당 비용을 지불합니다.
텔레그램 봇 생태계 — 가장 은밀하고 위험한 채널입니다. 텔레그램 기반 누디파이 봇의 월간 활성 사용자는 300만 명을 초과합니다. 익명성이 보장되고 추적이 어려워 범죄에 가장 많이 악용되는 경로입니다.
왜 이 사이트들이 특히 위험한가
- 진입 장벽 제로 — 기술 지식 없이 누구나 사용 가능
- 비용 거의 없음 — 무료 또는 소액으로 대량 생성
- 연령 인증 없음 — 미성년자도 접근·악용 가능
- CSAM 방지 장치 없음 — 29개 앱 중 1개만 필터 보유 (학술 연구 결과)
- 생성 이미지 추적 불가 — 워터마크, 메타데이터 없음
- 해외 서버 운영 — 법적 단속 회피
피해 규모 — 숫자가 말하는 현실
- 전 세계 딥페이크 중 성적 콘텐츠 비율: 95%
- 딥페이크 성적 이미지 피해자 중 여성 비율: 99%
- 앱스토어 누디파이 앱 총 다운로드: 7억+
- 텔레그램 누디파이 봇 월간 사용자: 300만+
- 이미지 생성 소요 시간: 수 초
Grok AI — 거대 기업도 예외가 아니다
2026년 초, 일론 머스크의 Grok AI가 사실상 가장 큰 누디파이 도구가 되었습니다. 단 9일간 440만 장의 이미지가 생성되었고, 시간당 6,700장의 성적 이미지가 만들어졌습니다. 2만 명 이상의 아동 이미지도 포함되어 있었습니다.
현재 3건의 집단소송이 진행 중이며, 2026년 3월에는 10대 청소년 3명이 xAI를 상대로 아동 포르노 제작·배포 혐의로 소송을 제기했습니다. 네덜란드에서는 법원이 일 10만 유로의 벌금을 요구하는 소송이 진행 중입니다.
삭제가 왜 어려운가
AI 탈의 사이트의 가장 큰 문제 중 하나는 한번 생성된 이미지의 삭제가 극히 어렵다는 것입니다.
- 생성된 이미지에 출처 표시(워터마크)가 없어 어디서 만들어졌는지 추적 불가
- 텔레그램, 디스코드, 성인 사이트 등 여러 플랫폼으로 순식간에 확산
- 해외 서버에서 운영되어 한국 법률만으로 강제 삭제 불가
- 피해자가 이미지의 존재 자체를 모르는 경우가 대부분
이 때문에 피해를 인지한 즉시 AI 기반 유포 추적 서비스를 활용해 인터넷 전체를 스캔하고, 발견된 이미지를 체계적으로 삭제 요청하는 것이 중요합니다.
법적 처벌 — 만드는 것도 범죄
한국 법률 — 유포하지 않아도 처벌됩니다.
- 성폭력처벌법 제14조의2 — 허위 영상물 편집·합성: 5년 이하 징역 또는 5,000만 원 이하 벌금
- 유포 시 — 가중 처벌
- 영리 목적 — 7년 이하 징역
- 아동·청소년 대상 — 아동청소년성보호법 적용, 더 중한 처벌
피해를 입었다면 — 즉시 행동하세요
- 증거 확보 — 해당 이미지의 URL, 스크린샷, 사이트 정보를 저장하세요
- AI 유포 추적 — 전문 서비스를 통해 인터넷 전체에서 해당 이미지가 퍼진 곳을 검색하세요
- 경찰 신고 — 경찰청 사이버범죄 신고 (182) 또는 가까운 경찰서 방문
- 전문기관 도움 — 디지털 성범죄 피해자 지원센터 (02-735-8994) 연락
- 삭제 요청 — 각 플랫폼, 검색엔진에 삭제 요청을 병행하세요
결론
undress.ai 같은 AI 탈의 사이트는 기술이 만들어낸 가장 위험한 성범죄 도구입니다. 사진 한 장만 있으면 누구든 피해자가 될 수 있고, 한번 생성된 이미지는 인터넷 전체로 퍼져나갑니다.
하지만 피해자는 무력하지 않습니다. AI 기술은 범죄에도 쓰이지만, 유포를 추적하고 삭제하는 데에도 활용될 수 있습니다. 피해를 발견했다면 혼자 감당하지 말고, 전문가의 도움을 받으세요.
참고 자료 / References
- TechPolicy.Press — New Study Examines Features and Policies for 29 AI Undressing Apps
- Washington Post — X users tell Grok to undress women and girls
- Bloomberg — AI Deepfake Nude Warnings Are Missing a Deterrent
- Elliptic — AI deepfake undresser tools are becoming illegal
- The 19th — Women and girls are taking Grok to court over sexualized AI deepfakes