반복영역 건너뛰기
지역메뉴 바로가기
주메뉴 바로가기
본문 바로가기

전문가오피니언

전문가오피니언

주요 이슈에 대한 국내외 전문가들의 견해 및 제언이 담긴 칼럼을 제공합니다.

중국의 AI 생성 콘텐츠 규제 동향과 시사점

이상우 소속/직책 : 인하대학교 AI·데이터법학과 초빙교수 겸 KAIST 문술미래전략대학원 겸직교수 2025-04-07

자료인용안내

자료를 인용, 보도하시는 경우, 출처를 반드시 “CSF(중국전문가포럼)”로 명시해 주시기 바랍니다.

중국 AI, 진흥과 규제의 균형 추구

2025년 3월 중국 북경에서 개최된 양회(兩會)가 11일 제14기 전국인민대표대회(이하 “전인대”라 함) 제3차 회의의 폐막을 끝으로 마무리되었다. 올해 양회의 화두는 인공지능(AI)으로 대표되는 첨단 과학기술이었다. 시진핑(习近平) 국가주석, 리창(李强) 총리를 비롯한 중국 지도부는 과학기술과 혁신을 강조하였고, 이를 뒷받침하기 위한 관련 예산 증액과 국가 주도의 펀드 조성 계획도 발표되었다. 과학기술 개발과 인재 육성 정책 추진을 통해 딥시크(DeepSeek) 열풍을 이어 나가겠다는 중국 정부의 강력한 의지를 확인할 수 있었다.1)

양회 기간 중인 3월 7일, 중국 국가인터넷정보판공실(国家互联网信息办公室), 공업・정보화부(工业和信息化部), 공안부(公安部), 국가광전총국(国家广播电视总局)은 공동으로 ‘인공지능 생성 콘텐츠 표시방법(人工智能生成合成内容标识办法)’(이하 “방법”이라 함)을 발표하고 올해 9월부터 시행할 예정임을 밝혔다.2) AI의 건전한 발전 촉진과 AI 생성 콘텐츠(AIGC, AI-Generetaed Content) 규제를 목적으로 제정된 본 방법은 생성형 AI를 활용하여 제작한 콘텐츠임을 나타내는 표시(labeling) 방법에 대한 구체적인 규정을 담고 있다. 2022년말 ChatGPT3.5가 공개된 후 생성형 AI 기술은 빠르게 발전하여 현재는 텍스트뿐만 아니라 이미지, 동영상 등 다양한 콘텐츠를 생성하는 데 활용되고 있다. 다만 관련 기술의 발전이 딥페이크(deepfake) 제작 고도화까지 이어지면서 허위 정보(가짜 뉴스)로 인한 피해가 우후죽순 늘고 있다. 특히 중국의 특수한 체제를 감안하면 허위 정보의 매개체가 되는 AIGC는 성 착취물, 명예 훼손 등의 문제를 넘어 체제를 위협할 수 있는 도구로 활용될 우려가 존재한다.

이에 중국은 동시기 AI 산업의 진흥을 추진할 정책을 공개하는 한편, 이를 규율하기 위한 규제 방안을 제시함으로써 진흥과 규제의 균형을 추구하고자 하였다.

입법 공백 보완과 정합성 제고

총 14개 조항으로 구성된 본 방법은 ‘네트워크정보 서비스제공자(网络信息服务提供者’(이하 “서비스제공자”라 함)가 “AI 기술을 활용하여 생성(生成)·합성(合成)한 텍스트(文本), 이미지(图片), 오디오(音频), 동영상(视频), 가상장면(虚拟场景) 등의 정보”에 AIGC(人工智能生成合成内容)임을 표시하는 행위에 적용된다(제2조 및 제3조). 여기서 ‘서비스제공자’란 현재 시행 중인 ‘인터넷정보서비스 알고리즘추천 관리규정(互联网信息服务算法推荐管理规定)’(이하 “알고리즘 규정”이라 함, 2022. 3. 1. 시행)의 ‘알고리즘추천 서비스제공자(算法推荐服务提供者)’, ‘인터넷정보서비스 딥페이크 관리규정(互联网信息服务深度合成管理规定)’(이하 “딥페이크 규정”이라 함, 2023. 1. 10. 시행)의 ‘딥페이크 서비스제공자(深度合成服务提供者)’, ‘생성형 AI 서비스관리 임시방법(生成式人工智能服务管理暂行办法)’(이하 “생성형 AI 임시방법”이라 함, 2023. 8. 15. 시행)에서 규정하는 ‘생성형 AI 서비스제공자(生成式人工智能服务提供者)’를 의미한다(제2조).

AI 기술을 활용하여 제작한 콘텐츠의 종류가 다양하기 때문에 본 방법 시행 전에도 알고리즘 규정, 딥페이크 규정, 생성형 AI 임시방법 등을 통해서 AIGC를 규율하고 있었다. 다만 그 규정이 구체적이지 않았고, 불과 2~3년 사이에 기술이 빠르게 발전하였기 때문에 주된 수범자인 서비스제공자의 입장에서 어떻게 AIGC임을 표시해야 하는지에 대해 어려움이 있었고, 이에 본 방법을 공개하였다. 즉 기존의 법령에서의 공백 부분을 보완하고 관련 법령 간의 정합성을 제고하고자 한 것인데, 이는 입법 목적(제1조)에서 본 방법이 “‘네트워크안전법(网络安全法)’(2017. 6. 1. 시행), 알고리즘 규정, 딥페이크 규정, 생성형 AI 임시방법 등 법률, 행정법규 및 부문규장에 따라 제정”되었음을 명시한 것과 궤를 같이한다.

명시적 표시와 암시적 표시 방식

본 방법은 AIGC 표시 방법으로 ‘명시적 표시(显式标识, explicit label)’와 ‘암시적 표시(隐式标识, implicit label)’라는 두 가지 방식을 규정하고 있다. ‘명시적 표시’는 콘텐츠 또는 인터페이스상에 문자(文字), 음성(声音), 도형(图形) 등의 방식으로 표현되고 사용자가 명확하게 인지할 수 있는 표시이며, ‘암시적 표시’는 AIGC의 메타데이터(文件数据)에 기술적 조처를 한 것으로 사용자가 쉽게 인지할 수 없는 표시를 의미한다(제3조). 방법 제4조 및 제5조는 이 두 가지 표시 방법을 더욱 구체적으로 규정하고 있다. 먼저 제4조는 서비스제공자의 서비스가 2023년 1월 10일부터 시행 중인 딥페이크 규정 제17조 제1항에 해당하는 경우, 방법 제4조의 각항의 요구 조건에 따라 AIGC에 명시적 표시를 추가해야 함을 규정한다. 딥페이크 규정 제17조 제1항은 딥페이크 서비스제공자가 공중(公众)의 혼동·오인을 유발할 수 있는 딥페이크 서비스를 제공하는 경우, 생성·편집된 콘텐츠의 합리적 위치(合理位置)에 딥페이크 기술이 적용된 영상 등의 정보임을 명확하게 식별할 수 있는 표식(显著标识)을 추가하여 일반인이 딥페이크 처리된 영상임을 인지할 수 있도록 규정하였으며, 생성형 AI를 활용한 텍스트 생성 또는 편집 서비스가 여기에 해당된다(예를 들어, 챗봇 등). 즉 방법 제4조는 이러한 경우, 텍스트, 오디오, 이미지, 동영상 등에 명시적 표시를 하도록 규정한 것이다. 다음으로 방법 제5조는 서비스제공자에게 딥페이크 규정 제16조에 따라, AIGC의 메타데이터에 암시적 표시를 추가해야 함을 규정하였다. 딥페이크 규정 제16조는 딥페이크 콘텐츠가 무분별하게 유포·재생산되지 못하도록 원본 콘텐츠를 추적할 수 있는 로그 기록을 저장하도록 규정하였는데, 방법 제5조는 해당 콘텐츠의 메타데이터에 속성 정보, 서비스제공자명 또는 코드 등을 추가하도록 했다.

상기 표시 방법과 관련하여 올해 2월 28일 발표된 ‘네트워크안전기술 인공지능 생성 콘텐츠 표시방법(网络安全技术 人工智能生成合成内容标识方法)’3)(이하 “표준”이라 함)은 구체적인 사례를 들어 설명하고 있다.4) ‘국가시장감독관리총국(国家市场监督管理总局)’과‘국가표준화관리위원회(国家标准化管理委员会)’가 함께 발표한 본 표준은 강행규정이며 방법과 동일하게 9월 1일부터 시행된다. 

먼저 명시적 표현과 관련하여, 문자 형식 표시의 경우(그림 1.), ① ‘인공지능(人工智能) 또는 AI’와 ② ‘생성(生成) 과/또는 합성(合成)’을 병기하여 텍스트의 시작 또는 끝에 표기한다. 다만 방법 제4조 제1항은 시작, 끝, 또는 중간의 적절한 위치에 표시를 추가한다고 규정하였으며, 방법과 표준의 이해를 돕기 위해 전국네트워크안전표준화기술위원회사무국(全国网络安全标准化技术委员会秘书处)에서 2025년 3월 14일 공개한 ‘네트워크안전표준실전가이드라인 인공지능--네트워크안전기술 인공지능 생성 콘텐츠 표시 서비스제공자코딩규칙(网络安全标准实践指南——人工智能生成合成内容标识 服务提供者编码规则)’(이하 “가이드라인”이라 함)도 방법의 규정과 동일하게 시작, 끝 또는 중간의 적절한 위치에 표시를 추가하도록 안내하고 있다.5)

이미지상의 붉은 색 상자는 독자의 이해를 돕기 위해 필자가 추가.

첨자(添字) 형식 표시의 경우(그림 2.), ‘AI’라는 단어를 텍스트의 시작 또는 끝에 표기한다. 위치 등에 관한 추가적인 요구사항은 문자 형식 표시의 경우와 동일하다.
이미지상의 붉은 색 상자는 독자의 이해를 돕기 위해 필자가 추가.

오디오 콘텐츠의 경우(그림 3.), ① ‘인공지능(人工智能) 또는 AI’와 ② ‘생성(生成) 과/또는 합성(合成)’을 조합한 음성을 정상적인 속도로 오디오 콘텐츠의 시작 또는 끝에 삽입하여 본 콘텐츠가 AIGC임을 인지할 수 있도록 하거나,8) ‘단음(短)-장음(长)-단음(短)-단음(短)’의 리듬(节奏)을 역시 동일 위치에 삽입하는 방법으로 표시할 수 있다.


표준은 이미지와 동영상 콘텐츠의 경우 해당 콘텐츠 우하단에 ‘인공지능생성합성(人工智能生成合成)’이라는 문구를 추가하여 표시하는 것으로 규정한다(그림 4. 및 그림 5.). 가이드라인은 이미지 표시와 관련하여 몇 가지 사항을 추가로 안내하고 있는데, 문구는 ① ‘인공지능(人工智能) 또는 AI’와, ‘생성(生成) 과/또는 합성(合成)’을 병기하고, ② 이미지 변이나 각(코너)에 추가하며, ③ 폰트는 눈에 띄어야 하고, ④ 문구의 높이는 해당 이미지 가로, 세로 중 짧은 변의 5% 이상이어야 한다.

이미지상의 붉은 색 상자는 독자의 이해를 돕기 위해 필자가 추가.

동영상의 경우, 동영상 끝과 중간의 적절한 위치에 ‘인공지능(人工智能) 또는 AI’와 ‘생성(生成) 과/또는 합성(合成)’을 병기한 문구를 삽입하도록 하였으며,10) 폰트와 문구의 높이 등에 관한 요구사항은 이미지와 동일하다. 동영상이라는 특성을 고려하여, 정상적인 동영상 재생속도를 기준으로 최소한 2초 이상 연속적으로 노출되어야 한다.
이미지상의 붉은 색 상자는 독자의 이해를 돕기 위해 필자가 추가.

해당 콘텐츠에 표시하는 방법 외에도 인터페이스에 표시하는 방법이 가능한데, 챗봇의 말풍선에 ‘AI생성(AI生成)’ 또는 ‘위 콘텐츠는 AI로 생성한 것임(以上内容由AI生成)’이라고 표시할 수 있다(그림 6.).12)

이미지상의 붉은 색 상자는 독자의 이해를 돕기 위해 필자가 추가.

또한 전체 인터페이스 하단에 ‘위 콘텐츠는 인공지능으로 생성·합성한 것임(以上内容由人工智能生成合成)’이라고 표시할 수 있으며(그림 7. 위), 배경 형식으로 삽입할 수 있다(그림 7. 아래).

이미지상의 붉은 색 상자는 독자의 이해를 돕기 위해 필자가 추가.

암시적 표시의 경우, 이미지, 오디오, 동영상의 메타데이터에 기술적 조치를 통해 본 콘텐츠가 AIGC임을 표시해야 한다(그림 8.).


주체별 책임과 의무

본 방법은 명시적·암시적 표시 방식의 규정 외에도 각 주체별 책임과 의무를 명시하였다. 제7조에 따르면 인터넷 응용 프로그램 배포 플랫폼(互联网应用程序分发平台)은 응용 프로그램(app, 앱)을 출시하거나 온라인 심사 시, 해당 응용 프로그램 서비스제공자에게 생성형 AI 서비스 제공 여부를 확인해야 하며, 해당 서비스를 제공하는 경우 표시 의무를 다하였는지 관련 자료를 검증해야 한다. 인터넷 응용 프로그램 배포 플랫폼은 구글 플레이(Google Play), 애플의 앱 스토어(App Store)와 같이 앱을 내려받을 수 있는 플랫폼을 의미하며, 중국의 경우 국가인터넷정보판공실의 비안(备案)이 필요하다.15)

사용자가 서비스제공자에게 명시적 표시가 추가되지 않은 콘텐츠를 요청할 경우, 서비스제공자는 사용자와의 계약을 통해 표시 의무와 사용 책임을 명확히 한 후 명시적 표시가 없는 콘텐츠를 제공할 수 있다(제9조). 다만 사용자가 해당 콘텐츠를 배포할 경우 명시적 표시를 추가해야 하며, 어느 누구도 ① 본 방법에 규정된 표시를 악의적으로 변조, 위조, 은폐하거나, ② 타인이 이와 같은 악의적 행위를 수행하도록 하기 위한 도구 또는 서비스를 제공하거나, ③ 부당한 표시를 통해 타인의 정당한 권익을 침해해서는 안 된다(제10조). 또한 이 방법을 위반한 자는 관련 부처(국가인터넷정보판공실, 공업・정보화부, 공안부, 국가광전총국 등)가 법률, 행정법규, 부문규장 등의 규정에 따라 처리한다(제13조).

우리나라 AI 기본법의 투명성 확보 의무

주지하다시피 우리나라는 유럽연합(EU)에 이어 세계 두 번째로 ‘인공지능 발전과 신뢰 기반 조성 등에 관한 기본법’(이하 “AI 기본법”이라 함)을 제정하여 2026년 1월 22일 시행을 앞두고 있다. AI 기본법 제31조는 ‘인공지능 투명성 확보 의무’를 규정하고 있는데, 인공지능사업자에게 “인공지능시스템을 이용하여 실제와 구분하기 어려운 가상의 음향, 이미지 또는 영상 등의 결과물을 제공하는 경우 해당 결과물이 인공지능시스템에 의하여 생성되었다는 사실을 이용자가 명확하게 인식할 수 있는 방식으로 고지 또는 표시하여야 한다”라고 규정한 점에 있어서 중국의 방법과 상응하는 조항으로 볼 수 있다. 

동조 제4항은 “제1항에 따른 사전고지, 제2항에 따른 표시, 제3항에 따른 고지 또는 표시의 방법 및 그 예외 등에 관하여 필요한 사항은 대통령령으로 정한다”라고 규정한 바, 현재 과학기술정보통신부(이하 “과기정통부”라 함)가 주도하고 있는 하위 법령 정비단에서 가까운 시일 내 AI 투명성 확보 의무에 관한 가이드라인을 제작·배포할 것으로 예상된다. 중국의 경우 2022년 알고리즘 규정, 2023년 딥페이크 규정 및 생성형 AI 임시방법 등 AI와 관련한 입법 경험이 축적되었으며 미·중 패권 경쟁 속에서 AI 경쟁력 확보에 사활을 걸고 있는 만큼, 우리나라의 하위 법령 제정 과정에서 동 시기에 입법된 중국의 방법과 표준 등 관련 문건을 참고해 보는 것도 나름의 의미가 있을 것이다.

AI 기본법이 AI 산업 발전을 지원하고 신뢰 기반 조성에 필요한 기본사항 규정하여 국가 AI 경쟁력 강화하겠다는 입법 방향에도 불구하고, 적지 않은 부분을 가이드라인에 위임함으로써 종국에는 또 다른 규제로 작용할 수 있다는 우려와 비판의 목소리가 있다.16) 중국이 현재 AI G2로 평가받고 있는 만큼 과학기술 분야뿐만 아니라 관련 입법도 지속적으로 연구하여, 우리나라 AI 경쟁력 강화를 위해 취사선택하는 지혜를 발휘해야 할 것이다.

포괄적 AI 규제에 관한 신중한 접근

관련 입법을 통해 AI 기술 규율에 기민하게 대응해 온 중국도 포괄적 AI 규제 도입 논의가 진행되고 있다. ‘인공지능법 초안(人工智能法草案)’이 2023년과 2024년 국무원 입법 작업 계획에 포함되었고, 전인대 상무위원회의 심의를 앞두고 있다.17)

하지만 동시에 ‘인공지능법’ 입법에 신중해야 한다는 의견도 각계에서 제기된다. 2024년 12월 남방도시보(南方都市报, Southern Metropolis Daily)가 발표한 보고서에 따르면 법조계가 가장 신중한 입장을 취하고 있음을 확인할 수 있다.18) 위안리지(袁立志) 경천공성법률사무소 파트너변호사는 AI 기술과 산업의 발전이 초기 단계이기 때문에 우리가 인식하지 못한 문제들이 도처에 산재(散在)되어 있으며, 아직 기술·산업계도 정확히 알지 못하는 것을 법조계가 제대로 파악할 리 만무하기 때문에 입법에 신중해야 한다고 목소리를 내었다.19) 양회에서도 이와 같은 움직임이 나타났다. 리징홍(李景虹) 전국인민정치협상회의(이하 “정협”이라 함) 위원 겸 칭화대학 화학과 교수는 인공지능법이 ‘촉진법’의 성격을 띠어 AI 산업을 지원하고, 규제에는 신중해야 한다는 의견을 내었으며, 하이니차티 토후티(海尼扎提·托呼提) 정협 위원 겸 신장신련회(新疆新联会) 부회장은 기존의 데이터 3법(네트워크안전법, 데이터안전법, 개인정보보호법) 등 현행 법령을 활용하여 AI 규율에 효과적으로 대응해야 함을 강조하였다.20)

중국은 2014년 총체적 국가안전관(总体国家安全观) 발표 후 전통적인 국가 안보의 영역을 사이버 공간으로 확대하여, 안보 강화를 위한 입법과 정책을 전방위에 걸쳐 진행하였다. 이는 우리의 관점에서 감시, 검열로 받아들여졌다. 다만 최근에 중국의 움직임에 변화가 감지되고 있다. AI 기술의 발전으로 촉발된 안보 이슈는 사이버 공간을 넘어 데이터 주권, 소버린 AI(sovereign AI), 경제·기술 안보의 영역으로 확대되었고,21) AI 경쟁력이 국가 경쟁력의 핵심 지표로 평가받고 있는 만큼, 통제와 규제 방식의 접근보다는 AI 기술 역량 제고와 관련 산업 진흥이 국가 안보 수호에 더 크게 기여할 수 있다는 것이다. 즉 AI의 3가지 핵심 요소인 데이터, 알고리즘, 컴퓨팅 파워의 경쟁력 확보가 미·중 패권 경쟁 속에서 물리적 난관에 부딪혔기 때문에 국가 차원에서의 입법적인 지원이 필요하며, 이에 중국은 포괄적 AI 규제에 관한 인공지능법 입법에 신중할 수밖에 없는 처지다.

AI G3 강국으로의 도약을 희망하며

우리나라 AI 기본법이 “국가 경쟁력을 강화”라는 입법 목적을 달성하기 위해서는 앞서 언급한 바와 같이 가이드라인 제정 시 산업계·법조계·학계가 중지를 모아 하위 법령이 불필요한 규제로 작용하지 않도록 주의를 기울여야 할 것이다. 이 법은 또한 주요 AI 정책 등을 심의·의결하기 위한 ‘국가인공지능위원회’(이하 “위원회”라 함) 설치의 법적 근거를 마련하였다(제7조). 특히 동조는 AI에 관한 업무를 담당하는 국가안보실 제3차장을 당연직 위원으로 참여토록 하여, AI 기술 발전으로 인하여 발생하는 안보 이슈에 대응할 수 있도록 구성하였다는 점에서 바람직하다.22)

다만 전통적인 국가 안보의 관점에서 AI 이슈를 다루게 된다면 결국 불필요한 규제와 통제 등으로 인하여 기술 발전과 산업 진흥의 골든 타임을 놓치게 될 수 있다. 세계 주요국의 AI 기술 발전 속도를 따라가지 못하여 결국 기술의 도태로 인해 또 다른 측면의 AI 국가 안보 위기 상황을 초래할 가능성이 높다. AI 기본법 제정을 통해 규제라는 큰 틀을 마련한 지금, 진흥을 위한 노력이 필요하다. 이를 위해 위원회의 거버넌스 아래 AI의 핵심 요소인 ‘데이터·개인정보’, ‘알고리즘’, ‘컴퓨팅 파워’에 관한 주무관청인 과기정통부, 행정안전부, 개인정보보호위원회 등이 주축이 되어 건설적인 논의를 시작해야 할 것이다. AI 경쟁력 강화를 논하면서 데이터와 개인정보의 활용을 억제한다면 건전한 AI 산업 발전과 AI 사회의 신뢰 기반 조성이라는 AI 기본법의 입법 목적은 결국 공염불에 그칠 것이다. 

국가 AI 경쟁력 강화라는 목표를 이루기 위해서는 AI 기본법과 데이터 3법(개인정보 보호법, 정보통신망 이용촉진 및 정보보호 등에 관한 법률, 신용정보의 이용 및 보호에 관한 법률)이 시너지 효과를 낼 수 있도록 입법 연구가 지속되어야 하며, 부처 이기주의를 극복하기 위한 노력도 함께 진행되어야 할 것이다. 이러한 과정을 통해 우리나라가 진정한 AI G3로 거듭나길 희망한다.

---
*각주
1) 아주경제(2025. 3. 11.), ““딥시크 AI 열풍 속 기술 굴기 자신감” 中 양회 폐막”, <https://www.ajunews.com/view/20250311131204427>(최종방문일: 2025. 3. 21.).
2) 界面快报(2025. 3. 14.), “四部门联合印发《人工智能生成合成内容标识办法》”, <https://www.jiemian.com/article/12472097.html>(최종방문일: 2025. 3. 22.).
3) GB 45438-2025.
4) 中国信息安全(2025. 3. 17.), “发布 | 强制性国家标准GB 45438-2025《网络安全技术 人工智能生成合成内容标识方法》全文发布”, <https://mp.weixin.qq.com/s?__biz=MzA5MzE5MDAzOA==&mid=2664238491&idx=3&sn=bbd5db1c480dee6b512b32ed56c8fee1&chksm=8aacbcdf41f28dbf5d93df265c3d56a5f7096ae3a6575c31ac2d56cc150424ece1e9cee74326&scene=27>(최종방문일: 2025. 3. 22.).
5) 清华大学智能法治研究院(2025. 3. 16.), “TC260发布《网络安全标准实践指南——人工智能生成合成内容标识 服务提供者编码规则》”, <https://mp.weixin.qq.com/s/F7vWoX8HVPKlPYARerixMA>(최종방문일: 2025. 3. 24.).
6) 방법 제4조 제2항 및 가이드라인은 추가 위치에 관하여 시작, 끝 또는 중간으로 규정하고 있다.
7) 표시 위치는 방법 제4조 제4항도 동일하게 규정한다.
8) 해당 문구는 ① ‘인공지능(人工智能) 또는 AI’와 ‘생성(生成) 과/또는 합성(合成)’을 병기하여 변경 표시할 수 있다.
9) ‘비안(备案, beian)’은 일종의 허가증이라고 볼 수 있는데, 사전적 의미로는 ‘1. (담당 부서에 문건 등을) 기록해 두다. 등록하다. 문건을 만들어 두다.’, ‘2. (신고⋅신청⋅소송 등이) 수리되다.’로 해석된다(고려대 중한사전). 등록의 의미를 갖고 있는 ‘登录(denglu)’, ‘注册(zhuce)’가 중국 내 법률 용어로 사용되고 있는 점을 고려하면, 비안을 국내의 법률 용어로 번역하기에는 까다로운 점이 있다. 이상우, “중국 알고리즘 거버넌스에 관한 소고 - 「인터넷 정보 서비스 알고리즘 추천 관리 규정」을 중심으로 -”, 동북아법연구 제16권 제1호, 전북대학교 동북아법연구소, 2022, 38면 각주 22 재인용.
10) AI 투명성 확보 의무 가이드라인(제31조) 외에도 고영향 AI 기준과 예시에 관한 가이드라인(제33조), 고영향 AI사업자 책무 가이드라인(제34조), AI 영향평가 가이드라인(제35조) 등이 하위 법령 정비 주요 사항으로 다루어지고 있다.
11) 清华大学智能法治研究院(2025. 2. 26.), “科技部:有序推进人工智能立法工作”, <https://mp.weixin.qq.com/s/6rsIY6ZvikE0sAg8GHpSwA>(최종방문일: 2025. 3. 22.).
12) 南方都市报(2024. 12. 18.), “上千份问卷披露用户生成式AI风险感知:最怕虚假信息与欺诈”, <https://baijiahao.baidu.com/s?id=1818771425467272576&wfr=spider&for=pc>(최종방문일: 2025. 3. 22.).
13) 清华大学智能法治研究院(2025. 2. 26.), 앞의 자료.
14) 清华大学智能法治研究院(2025. 2. 26.), 위의 자료.
15) 상세는 이상우, “인공지능과 신(新)안보규범”, 인하대학교 법학연구소 AI·데이터법 센터 편 󰡔인공지능법2󰡕, 세창출판사, 2025, 558면 이하 참조.
16) 이상우, “중국 사이버안보 패러다임 변화와 시사점 -인공지능 시대의 바람직한 거버넌스 구축을 위한 제언-”, 명지법학 제22권 제2호, 명지대학교(서울캠퍼스) 법학연구소, 2024, 149면 이하 참조.

목록