OpenAI '지능의 시대 산업 정책' — 자율규제 선언인가, 규제 회피의 위장인가?

2026년 4월 6일, OpenAI는 '지능의 시대를 위한 산업 정책: 사람을 먼저 놓는 아이디어들(Industrial Policy for the Intelligence Age: Ideas to Keep People First)'이라는 제목의 13페이지 정책 문서를 공개했습니다. 문서는 AI 초지능이 도래할 때를 대비해 공공 부유 기금(public wealth fund), 로봇세(robot tax), 주4일 근무제를 제안하며 '사람 중심 AI 거버넌스'를 선언했습니다. 그러나 같은 날 《더 뉴요커》는 샘 알트만 CEO의 신뢰성에 의문을 제기하는 심층 보도를 냈고, 《워싱턴 포스트》와 《포춘》은 이 문서를 '규제 허무주의(regulatory nihilism)의 위장'이라고 비판했습니다. OpenAI가 공개적으로는 AI 윤리를 선언하면서 동시에 산업 우호적 규제 완화를 위해 로비하는 실체를 드러낸 이 사건은, 플랫폼 자율규제의 진정성 문제를 다시 한번 정면에 세웁니다.
문서의 내용 — '새 딜(New Deal)' 수준의 AI 복지 제안
OpenAI가 공개한 정책 문서는 AI가 경제적 불평등을 심화시킬 수 있다는 전제에서 출발합니다. 샘 알트만은 "AI 초지능은 너무 거대해서 새 딜(New Deal)이 필요할 정도"라며 세 가지 핵심 정책을 제안했습니다. 첫째, 국부(國富)의 일부를 모든 시민에게 분배하는 '공공 부유 기금' 설립입니다. AI가 창출하는 경제적 가치를 사회 전체가 공유해야 한다는 논리로, 기존 보편적 기본소득(UBI) 논의를 플랫폼 기업 차원에서 수용한 형태입니다. 둘째, '로봇세'입니다. AI와 자동화로 일자리가 대체될 때 해당 기업에 세금을 부과하여 사회 안전망 재원을 마련해야 한다는 제안입니다. 셋째, '주4일 근무제' 논의를 국가 차원에서 검토해야 한다는 주장입니다. 세 제안 모두 AI로 인한 노동 시장 붕괴에 대한 사전적 대응이라는 틀을 공유합니다.
언뜻 보면 이 제안들은 놀라울 정도로 진보적입니다. AI 기업의 CEO가 자사 기술이 초래할 불평등을 공개적으로 인정하고 세금과 재분배까지 언급한 것은 이례적인 일입니다. 그러나 비판가들은 이 문서가 발표된 맥락과 타이밍에 주목합니다. 문서의 어디에도 현재 진행 중인 딥페이크 피해, 플랫폼의 콘텐츠 안전 책임, 피해자 보호 메커니즘 등 AI가 지금 당장 일으키고 있는 구체적 해악에 대한 언급이 없습니다. 미래의 초지능 시나리오를 전면에 내세우는 동안, 현재의 AI 악용 문제는 의제에서 밀려납니다.
비판의 핵심 — '규제 허무주의'라는 진단
《포춘》과 《워싱턴 포스트》의 비판은 단순한 회의주의를 넘어서 구조적 모순을 지적합니다. OpenAI는 이 정책 문서를 발표한 같은 시기에 'Leading the Future PAC'이라는 정치 행동 위원회(PAC)에 자금을 제공하고 있습니다. 이 PAC은 AI 산업에 유리한 규제 완화를 추진하며, OpenAI의 공식 정책 입장과 정반대 방향으로 움직입니다. 공개적으로는 '사람을 먼저 생각하는 AI 거버넌스'를 선언하면서, 뒤에서는 그 거버넌스를 가능하게 하는 규제 자체를 약화시키는 로비를 병행하는 것입니다. 이런 이중 구조를 비판가들은 '규제 허무주의'라 부릅니다. 진정한 변화를 위한 법적·제도적 틀을 만드는 데 저항하면서, 동시에 스스로 윤리적 행위자인 것처럼 포지셔닝하여 외부 규제의 필요성을 희석시키는 전략입니다.
타이밍의 문제도 있습니다. OpenAI 정책 문서가 발표된 4월 6일, 《더 뉴요커》는 샘 알트만의 신뢰성에 의문을 제기하는 심층 보도를 동시에 내보냈습니다. 보도는 알트만이 2023년 이사회 해임 과정에서 보인 행동 패턴, OpenAI의 비영리에서 영리 구조로의 전환 과정에서 발생한 이해충돌, 그리고 공개 발언과 내부 의사결정 사이의 괴리를 조명했습니다. AI 윤리 선언이 가장 필요한 순간에 그 선언의 화자에 대한 신뢰가 무너지는 아이러니입니다. 비판가들은 이 정책 문서가 실질적인 AI 안전 메커니즘을 도입하는 대신, 미래의 철학적 문제로 관심을 돌리려는 '시선 분산'이라고 해석합니다.
EU AI 콘텐츠 투명성 실천강령 — 진정한 자율규제의 기준
OpenAI 문서의 공허함이 더욱 두드러지는 이유는, 같은 시기 유럽연합이 진정한 의미의 자율규제 프레임워크를 구체화하고 있기 때문입니다. 유럽위원회는 2025년 12월 17일 'AI 생성 콘텐츠 투명성 실천강령(Code of Practice on Transparency of AI-Generated Content)' 초안을 공개했습니다. 이 강령은 5~6월 확정을 목표로 최종 협의 중이며, 2026년 8월 EU AI법 제50조 시행과 연동됩니다. 강령의 핵심 의무는 세 가지입니다. 첫째, AI 생성 콘텐츠에 대한 라벨링·워터마킹 표준화입니다. 딥페이크를 포함한 모든 AI 생성 합성 미디어에 표준화된 라벨을 부착하도록 규정합니다. 둘째, 소비자가 AI 생성 콘텐츠임을 한눈에 알 수 있도록 하는 'EU 공통 아이콘(EU common icon)' 도입입니다. 셋째, 콘텐츠 출처 메타데이터 표준 의무화입니다.
EU 실천강령이 OpenAI 문서와 근본적으로 다른 점은 '강제성의 경로'입니다. 강령 자체는 자발적 참여 형식이지만, 2026년 8월부터 시행되는 EU AI법 제50조는 이 표준들을 법적 구속력 있는 의무로 전환합니다. 강령에 참여하지 않는 기업도 법 시행 후에는 동일한 의무를 지게 됩니다. 즉, 자율규제가 실효성을 갖기 위해서는 그 뒤에 법적 강제 메커니즘이 반드시 따라야 한다는 EU의 실용주의적 설계입니다. 반면 OpenAI의 정책 문서에는 어떤 집행 메커니즘도, 검증 방법도, 이행 여부를 확인할 제3자 감사 체계도 없습니다.
TikTok의 사례 — 자율규제가 실제로 작동할 때
플랫폼 자율규제가 허상만은 아니라는 증거도 있습니다. TikTok은 2025년 1월부터 C2PA 콘텐츠 크리덴셜을 통합하고 AI 생성 콘텐츠 자동 감지 시스템을 도입했습니다. 2026년 현재 TikTok이 이 시스템으로 라벨링한 AI 생성 영상은 13억 건을 넘어섰습니다. 2026년 신규 정책은 실제 인물이나 실제처럼 보이는 장면을 묘사하는 모든 AI 생성 시각·음성 콘텐츠에 눈에 보이는 라벨 부착을 의무화하며, 위반 시 배포 제한에서 영구 계정 정지까지의 제재를 적용합니다. TikTok 사례가 시사하는 것은, 자율규제가 효과적이려면 '선언'이 아니라 '기술적 인프라'와 '집행 메커니즘'의 결합이 필요하다는 점입니다. 알고리즘 감지, 메타데이터 표준, 실질적 페널티 — 이 세 요소가 갖춰졌을 때 자율규제는 실체를 가집니다.
그러나 TikTok의 선례도 외부 압력 없이는 자발적으로 이뤄지지 않았다는 점을 기억해야 합니다. 미국에서 TikTok 금지·허용을 반복하는 규제 압력, EU AI법 시행 예고, 미국 Take It Down Act(5월 19일 시행 예정)의 플랫폼 책임 강화 등 외부 규제의 위협이 TikTok의 기술적 자율규제를 이끌어냈습니다. '두려움 없는 자율규제'는 역사적으로 존재하지 않았습니다. 외부 규제의 위협이 플랫폼을 변화시켰고, 규제를 약화시키려는 로비가 그 변화를 막아왔습니다. OpenAI의 정책 문서가 진정성 있는 자율규제로 평가받으려면, 외부 감시를 수용하고 법적 구속력 있는 기준 설정에 협력하는 태도가 필요합니다.
Ofcom 마감 D-20 — 자율규제에서 감독 책임으로
플랫폼 자율규제의 시대가 실제로 종언을 향해 가고 있다는 신호는 영국 통신규제기관 Ofcom의 4월 30일 마감에서도 확인됩니다. Ofcom은 Facebook/Instagram, Roblox, Snapchat, TikTok, YouTube 등 주요 플랫폼에 4월 30일까지 연령 확인 및 아동 안전 통제 강화 조치를 이행하고, 5월에는 공개 보고서를 제출하도록 요구했습니다. 자발적 개선이 아니라 감독 기관이 마감을 설정하고 공개 보고를 요구하는 방식입니다. 플랫폼이 자율적으로 움직이지 않을 때 무엇이 필요한지를 보여주는 선례입니다. EU의 실천강령, 영국의 Ofcom 감독, 미국의 Take It Down Act — 세계 주요 규제 체계는 모두 '자율에서 의무로'의 방향을 가리키고 있습니다. 이 흐름 속에서 OpenAI의 '새 딜' 제안은 현재의 구체적 의무보다 먼 미래의 철학적 이상을 더 많이 이야기하고 있습니다.
OpenAI의 4월 6일 정책 문서는 AI 산업이 앞으로 직면할 책임의 무게를 역설적으로 보여줍니다. 진정한 AI 윤리 거버넌스란, 미래의 아름다운 청사진보다 현재의 구체적 피해를 막는 실행 가능한 메커니즘으로 측정됩니다. 딥페이크 피해자 보호, AI 생성 콘텐츠 출처 표시, 플랫폼의 법적 책임 — 이 구체적 영역에서 OpenAI가 어떤 입장을 취하느냐가 '규제 허무주의'라는 비판에 대한 답이 될 것입니다. 비판가들의 진단이 틀리지 않다면, 이 문서는 역사 속에서 '자율규제의 시대가 끝날 때 AI 기업이 선택한 마지막 포지셔닝'으로 기억될 수 있습니다.
출처
① OpenAI 'Industrial Policy for the Intelligence Age' 원문 및 비판 보도: Fortune (2026.04.06), Washington Post AI Tech Brief (2026.04.07), TechCrunch (2026.04.06) — Sam Altman의 '새 딜' 제안 및 '규제 허무주의' 비판 근거 ② The New Yorker — Sam Altman 신뢰성 심층 탐사 보도 (2026.04.06) — CEO 발언과 내부 의사결정 괴리 분석 ③ TechPolicy.Press — 'What the EU's AI Code of Practice Means for Labeling Deepfakes' (2025.12); Jones Day — 'European Commission publishes draft Code of Practice on AI labelling and transparency' (2026.01) — EU AI 콘텐츠 투명성 실천강령 분석 ④ AuditSocials — 'TikTok AI Content Disclosure Rules 2026'; Storrito — 'TikTok's 2026 AI labeling rules and what they signal for platform governance' — TikTok 13억 건 AI 콘텐츠 라벨링 데이터 ⑤ Fladgate AI Round-up April 2026 — Ofcom 아동 안전 마감(4월 30일), EU AI법 개정안, OpenAI Sora 종료 등 4월 플랫폼 규제 동향