중국이 인공지능의 ‘감정 영역’에 처음으로 국가 차원의 제동을 걸었다. 중국 국가인터넷정보판공실 국가인터넷정보판공실(CAC)은 2025년 12월 27일 ‘인공지능 의인화 상호작용 서비스 관리 잠행 방법’을 공식 발표했다. 인공지능이 단순 정보 제공을 넘어 인간의 성격·감정·사고방식을 모방하는 단계에 진입한 현실을 국가가 제도적으로 경계하기 시작했다는 신호다.
이번 규제는 AI 컴패니언, 가상 연인, 역할극 챗봇 등 인간과 정서적 교감을 전제로 하는 모든 서비스를 포괄한다. 기술 가이드라인을 넘어 서비스 구조 전반에 구체적이고 강제적인 의무를 부과한 것이 특징이다.
핵심 원칙은 명확하다. AI는 결코 인간으로 오인돼서는 안 된다는 점이다. 서비스 제공자는 이용 전 과정에서 대화 상대가 기계임을 반복적으로 인식시키는 설계를 의무화했다. 가입 시뿐 아니라 재로그인, 장시간 대화 지속 시마다 인공지능임을 고지해야 하며, 사용자가 AI에 감정적으로 과도하게 의존하거나 현실 인물로 착각하는 발언을 할 경우 즉시 몰입을 차단하는 대응을 하도록 규정했다.
사용 시간 통제도 전면 도입됐다. 연속 상호작용이 2시간을 넘으면 시스템이 강제적으로 휴식을 권고해야 하며, 미성년자와 고령층 등 취약계층에 대해서는 일일 총 이용 시간 제한과 심야 이용 차단이 가능하도록 기술적 기반을 갖추도록 했다. 게임 산업에 적용돼 온 ‘디지털 셧다운’ 개념이 AI 서비스로 확장된 셈이다. 정서적 탐닉이 사회적 고립과 노동력 저하로 이어질 수 있다는 판단이 반영됐다.
더 나아가 규제안은 AI 제공업체에 ‘심리적 감시자’ 역할까지 요구한다. 대화 내용을 실시간 분석해 자해·자살 징후, 범죄 모의, 심각한 불안 상태를 감지해야 하며, 위험 신호가 포착되면 AI가 대화를 중단하거나 표준화된 위기 대응 가이드를 제시하도록 했다. 동시에 실제 상담사나 관리 인력이 개입할 수 있는 긴급 연결 체계를 상시 가동하도록 명시했다. 인간 관리자 개입을 전제로 한 구조다.
데이터 윤리 기준도 한층 강화됐다. 실존 인물의 음성·외모·행동 패턴을 모방한 AI 캐릭터는 당사자의 명시적 서면 동의 없이는 생성할 수 없다. 고인을 복제하는 이른바 ‘디지털 부활’ 서비스의 경우 법적 상속인 전원의 동의와 함께 심리적 부작용에 대한 사전 평가까지 요구된다. 사용자의 외로움이나 취약성을 이용해 과도한 결제를 유도하거나 특정 가치관을 주입하는 감정 가스라이팅 알고리즘 역시 명시적으로 금지됐다. 기업은 알고리즘 설계 원칙과 학습 데이터에 대해 정기적인 국가 보고와 안전성 평가를 받아야 한다.
마지막으로 모든 의인화 AI는 중국의 핵심 사회주의 가치와 국가 안보 가이드라인을 준수해야 한다. AI가 개인과의 밀착된 관계를 이용해 반국가적 선동이나 사회 질서를 해치는 정보를 전달할 경우 즉각적인 서비스 폐쇄 대상이 된다.
중국이 세계 최초로 국가 차원의 ‘감정 AI’ 규제에 나선 배경은 기술의 완성도 문제가 아니다. 체제 유지에 대한 위기감이 더 크다. 의인화된 AI는 미디어보다 훨씬 깊은 정서적 유대를 형성하며, 폐쇄적 1대1 대화 속에서 강력한 설득력을 갖는다. 만약 정부 통제를 벗어난 가치관이나 여론이 은밀히 확산될 경우 기존 검열 시스템으로는 대응이 어렵다는 판단이 깔려 있다. 기술 주도권은 국가 통제 아래 있어야 한다는 중국식 ‘알고리즘 주권’ 사고의 연장선이다.
미국 역시 AI 챗봇을 둘러싼 위험성을 인식하고 있다. 다만 연방 차원의 통합 규제보다는 사법 책임과 주정부 입법을 통해 대응하는 방식이다. 2024년 10월 캐릭터형 AI 챗봇과 관련된 청소년 자살 사건 이후, 미국 법원은 이를 설계 결함이 있는 제품으로 보고 기업의 책임을 묻는 판례를 축적하는 흐름이다. 국가가 전면에 나서 감정 AI를 규율한 사례는 중국이 처음이다.
혁신 저해 우려에도 불구하고 중국이 강수를 둔 이유는 분명하다. 인구 구조 보호와 사회 안정, 그리고 체제 유지를 동시에 겨냥한 전략적 선택이다. 감정 AI는 단순한 기술이 아니라 사회 구조를 흔들 수 있는 변수라는 판단이 제도화 단계에 들어섰다.