퀄컴 테크놀로지스(Qualcomm Technologies)가 데이터센터 시장을 겨냥한 차세대 인공지능(AI) 칩셋 AI200과 AI250을 발표했다. 이번 신제품은 GPU 중심으로 형성된 AI 추론 시장에 새로운 경쟁 구도를 형성할 것으로 전망된다.
두 제품은 각각 2026년(AI200), 2027년(AI250) 출시 예정이며, 액체 냉각 시스템이 기본 장착된 서버 랙 단위 완전형 시스템으로 제공된다. AI200은 768GB LPDDR 메모리를 기반으로 대규모 추론 작업에 최적화되어 있으며, AI250은 메모리 대역폭이 크게 향상된 ‘세대 점프’ 제품으로 평가된다. 퀄컴은 두 제품 모두 PCIe·이더넷 확장을 지원해 초대형 AI 워크로드를 위한 수평 확장성과 보안성을 강화했다고 밝혔다.
퀄컴의 NPU 기술은 원래 모바일 칩셋에서 출발했다. 이후 노트북·PC·차량용 칩으로 확장되었고, 이번에 데이터센터·클라우드 시장까지 뻗어 나가며 ‘모바일에서 데이터센터까지 이어지는 NPU 생태계’라는 자체 전략을 완성했다는 평가가 나온다. 특히 AI 추론 작업에서 전력 효율성과 운영 비용 절감을 전면에 내세우며, 전력 비용이 치솟고 있는 글로벌 데이터센터 업계의 수요를 직접 겨냥했다.
해외 외신 보도에 의하면, 퀄컴은 사우디아라비아 국영 AI 기업 ‘휴메인(Humain)’과 협력해 AI200·AI250을 기반으로 한 대규모 AI 인프라 구축 프로젝트를 진행 중이다. 이는 중동 국가들이 국가 차원의 ‘AI 허브’를 표방하며 인공지능 기반 산업 전환을 가속하는 흐름 속에서 의미 있는 움직임으로 평가된다.
한편 미국 내 AI 인프라 규제 완화 움직임과 맞물려 퀄컴이 미국 남부 지역 데이터센터 기업들과 공급 논의를 진행 중이라는 업계 관계자의 전언이 있다. 특히 최근 ‘AI 전력난’이 문제로 떠오르면서 효율 중심의 NPU형 가속기를 원하는 업체들이 늘고 있는 점도 퀄컴의 시장 진입 배경으로 분석된다.
컬럼의 AI시장 진입은 글로벌 AI 칩 전쟁 구도에 새로운 변화를 예고하고 있다.


















