이슈 & 트렌드
Home 이슈 & 트렌드
경제, 정치·외교, 사회·문화 등 다양한 분야의 주요 이슈에 대한 동향을 정리하여 제공합니다.
中 알리바바, AI 전면전 돌입...칩부터 응용까지 수직 통합 가속화
유은영 소속/직책 : EC21R&C 연구원 2026-01-30
자료인용안내
자료를 인용, 보도하시는 경우, 출처를 반드시 “CSF(중국전문가포럼)”로 명시해 주시기 바랍니다.
☐ 알리바바는 AI 시대 핵심 경쟁력 확보를 위해 칩 설계부터 모델 개발, 서비스 통합, 전력 인프라까지 아우르는 수직 통합 생태계 구축에 나서고 있음. 티헤드 독립 상장으로 엔비디아 의존도를 낮추고 자체 AI 가속기 기반을 마련하는 한편, 큐원 모델로 추론 효율을 혁신하며 이커머스·결제·여행 등 그룹 산하 서비스를 AI 플랫폼에 통합함. 또한 원전 기업과의 합작은 대규모 데이터센터 운영에 필수적인 전력 확보를 위한 선제적 투자로, 알리바바의 AI 자립 생태계 전략이 하드웨어부터 인프라까지 전 영역에서 본격화되고 있음.
◦ 티헤드의 독립과 AI 칩 산업 기반 구축
- 중국 빅테크 기업 알리바바(Alibaba)가 반도체 계열사 티헤드(T-Head)의 독립 상장을 추진하며 반도체 사업 본격화에 나서고 있음. 1월 22일 외신 보도에 따르면 알리바바는 칩 사업부를 임직원 지분 참여 방식으로 재편한 뒤 기업공개(IPO)를 검토 중인 것으로 알려짐. 티헤드는 2018년 알리바바가 항저우중톈웨이시스템(杭州中天微系统)을 인수하고 다모 아카데미(DAMO Academy)의 자체 칩 개발 부문과 통합해 설립한 회사로, 이후 7년여간 알리바바 내부에서 반도체 자체 개발과 기술 자립을 담당하는 핵심 조직으로 성장해 왔음.
- 티헤드는 현재 데이터센터 운영에 필수적인 핵심 칩 라인업을 확보한 상태임. 서버용 이톈(倚天) 프로세서, 스토리지용 전웨(镇岳) SSD 컨트롤러, AI 가속기 한광(含光), RFID용 위전(羽阵) 등이 대표적임. 특히 티헤드가 자체 개발한 최신 AI 가속기 학습·추론 겸용 병렬처리유닛(PPU) 칩에 대해 전문가들은 일부 성능 지표가 엔비디아(NVIDIA) A800을 상회하고 중국 시장 전용으로 설계된 H20과 유사한 수준이라고 평가했음. 티헤드는 이미 외부 시장 진출을 본격화하여 통신업체인 차이나유니콤(China Unicom)의 산장위안(三江源) 그린데이터센터 프로젝트에서 총 3,579페타플롭스(PFLOPS) 중 과반인 54%(1,945PFLOPS)를 공급하는 대규모 계약을 체결했음.
- 알리바바가 티헤드의 독립 상장을 추진하는 배경에는 반도체 사업을 비용 부담 영역에서 탈피시켜 수익 창출 구조로 전환하려는 전략적 의도가 깔려 있음. 대형 언어모델(LLM)의 파라미터 규모가 1,000조 단위로 급격히 확대되면서 학습과 추론에 소요되는 비용이 기하급수적으로 증가하고 있으며, 이에 따라 컴퓨팅 파워는 AI 시대를 좌우하는 핵심 인프라로 부상했음. 알리바바는 엔비디아에 대한 의존도를 낮추는 동시에 자체적인 AI 프레임워크와 긴밀하게 통합된 자체 칩을 개발함으로써 하드웨어부터 애플리케이션까지 아우르는 수직 통합 생태계 구축을 시도하고 있음.
◦ 큐원 모델의 기술 혁신과 추론 능력 강화
- 알리바바는 1월 26일 별도 발표행사 없이 플래그십 추론 모델 '큐원3-맥스-싱킹(Qwen3-Max-Thinking)'을 전격 공개했음. 알리바바 측 발표에 따르면 총 파라미터 1,000조 규모로 개발된 이 모델은 성능 면에서 오픈AI(OpenAI)의 GPT-5.2, 구글(Google)의 제미나이3 프로(Gemini 3 Pro)와 대등한 수준에 도달했으며, 지식 정확도, 복잡한 논리 추론, 명령어 이해, 에이전트 기능 등을 종합적으로 평가하는 19개 주요 벤치마크 테스트에서 다수의 최고 성능(SOTA) 기록을 세웠다고 밝혔음.
- 이번 큐원 모델에서 내세우는 핵심적 혁신은 테스트타임 스케일링(Test-time Scaling)이라는 새로운 메커니즘을 통한 추론 효율 개선임. 기존 AI 모델들은 추론 과정에서 단순히 병렬 경로의 수를 늘려 동일한 결론을 반복적으로 도출하는 방식을 사용해 왔으며, 이는 컴퓨팅 자원 낭비로 이어지는 비효율의 원인이 되었음. 이와 달리 큐원은 이전 추론 과정에서 핵심 요소를 추출해 다음 추론 단계에 활용하는 방식을 채택함으로써 동일한 컴퓨팅 자원으로도 더욱 정확한 결과를 도출할 수 있다는 설명임. 이는 AI가 한 장의 초안지로 문제를 끝까지 푸는 기존 방식에서 벗어나 인간처럼 중간 과정을 되돌아보고 경험을 축적하며 다음 단계를 개선해 나가는 접근법으로 볼 수 있음.
- 글로벌 AI 업계가 추론 능력과 에이전트 기능에 주목하는 이유는 이것이 AI가 단순한 대화형 챗봇의 한계를 넘어 실제 업무 처리가 가능한 생산성 도구로 진화할 수 있는지를 결정하는 핵심 기술이기 때문임. 복잡한 논리적 사고 능력과 외부 도구 연동이 가능한 AI만이 여행 일정 수립, 전문 리포트 작성, 데이터 분석 등과 같은 실무 영역에서 실질적인 활용 가치를 지닐 수 있음. 글로벌 최대 AI 오픈소스 플랫폼 허깅페이스(Hugging Face)의 집계에 따르면 2025년 이후 큐원 모델의 누적 다운로드 건수가 7억 건을 돌파하며 전 세계에서 가장 많이 활용되는 오픈소스 모델로 자리매김했음.
◦ AI 생태계 통합과 인프라 확장 전략
- 알리바바는 큐원을 주축으로 그룹 내 분산되어 있던 서비스들을 하나의 통합 플랫폼으로 재편하는 작업을 본격화하고 있음. 2025년 12월 소비자 대상 서비스를 전담하는 큐원 C2C 사업부를 신설한 데 이어, 2026년 1월 15일에는 큐원 앱을 대폭 업그레이드하며 이커머스 플랫폼 타오바오(Taobao), 결제 플랫폼 알리페이(Alipay), 퀵커머스 타오바오샨거우(淘宝闪购), 내비게이션 에이맵(Amap), 여행 플랫폼 플리기(Fliggy) 등 그룹의 핵심 서비스들을 순차적으로 연동했음. 이를 통해 음식 주문부터 일반 쇼핑, 항공권·숙박 예약에 이르기까지 AI를 통해 처리할 수 있는 복합 기능을 구현하며 사용자가 여러 앱을 오가지 않아도 되는 통합 서비스 생태계를 구축하고 있음.
- 큐원 C2C 사업부를 총괄하는 우자(吴嘉) 총재는 큐원이 업계 최초로 결제 기능을 AI 대화 인터페이스에 완전히 통합했다는 점을 특히 강조했음. 사용자가 "스타벅스에서 아메리카노 주문해줘"라고 말하기만 하면 큐원이 위치 기반으로 최근접 매장을 자동으로 찾아 타오바오샨거우를 통해 주문하고 내장된 알리페이로 결제까지 완료하는 방식임. 알리바바 측 발표에 따르면 큐원 앱은 출시 2개월 만에 월간활성이용자(MAU) 1억 명을 돌파하는 성과를 거뒀으며, 제3자 분석기관의 집계에서 월간 성장률 149.03%를 기록하며 챗GPT(ChatGPT), 딥시크(DeepSeek) 등 주요 AI 앱의 초기 성장 속도를 크게 상회했음.
- 알리바바는 이러한 생태계 확장에 따라 필연적으로 발생할 데이터센터 전력 수요의 급증에 선제적으로 대비하기 위해 에너지 확보에도 적극 나서고 있음. 1월 21일 알리바바는 중국 국영 원전 기업 CNNC와 합작으로 닝보(宁波)에 등록자본금 2억 5,000만 위안(약 517억 원) 규모의 합작사를 설립했음. 주주 구성은 CNNC 계열사를 비롯해 건설사 훙룬건설(宏润建设), 패션 그룹 야거얼(雅戈尔), 알리바바 계열사 등이며 합작사는 향후 발전·송전·배전 사업을 운영할 예정임. 메타(Meta), 마이크로소프트(Microsoft) 등 글로벌 빅테크 기업들도 고전력을 소비하는 데이터센터 운영을 위해 원전 기업과 장기 전력 공급 계약을 체결하는 추세임. 알리바바 역시 향후 수년간 530억 달러(약 76조 원) 이상을 AI 개발에 투자할 계획이며 이 중 상당 부분이 데이터센터 구축에 투입될 전망임.
[관련 뉴스 브리핑]
[참고 자료]
| 이전글 | 中 농업 현대화 가속...무인기 '新농기구'로 부상 | 2026-02-06 |
|---|---|---|
| 다음글 | [차이나인사이트] 중국 기업 글로벌 진출의 새로운 특징과 새로운 트렌드 | 2026-01-30 |









