[메가경제=정호 기자] 알리바바 그룹의 디지털 기술 및 인텔리전스 중추인 알리바바 클라우드가 연례 기술 컨퍼런스 '압사라 컨퍼런스 2025(Apsara Conference 2025)'에서 최신 AI 기술 혁신 성과를 대거 공개했다.
25일 알리바바에 따르면 이번 발표는 Qwen3 패밀리의 차세대 초거대 언어모델을 비롯해 곧 출시될 Wan 2.5 비주얼 생성 모델, 에이전트 개발·응용 플랫폼의 대폭 강화, AI 인프라의 전면적 업그레이드까지 아우르며, 알리바바 클라우드가 새로운 AI 시대를 선도하는 글로벌 기술 리더로서의 위상을 한층 더 공고히 했다.
![]() |
▲ <사진=알리바바> |
에디 우 알리바바 클라우드 인텔리전스 회장 겸 CEO는 "미래에는 초거대 AI 모델이 다양한 디바이스에 통합돼 운영체제처럼 작동하게 될 것"이라며 "우리는 Qwen을 지속적으로 오픈소스로 공개하여 'AI 시대의 운영체제'로 발전시키고, 전 세계 개발자들이 혁신적인 AI 애플리케이션을 구축할 수 있도록 지원하겠다"고 밝혔다.
이어 "알리바바 클라우드는 풀스택 AI 서비스 제공업체로서, 클라우드에서 초거대 AI 모델의 학습과 배포를 위한 최고 효율의 강력한 컴퓨팅 환경을 제공하는데 집중하고 있다"며 "AI 발전에 대한 장기 투자 의지를 보여주기 위해 향후 3년간 AI 및 클라우드 인프라에 3800억 위안(약 73조원)을 투자할 계획"이라고 강조했다.
2023년 1세대 Qwen 출시 이후 알리바바는 초거대 언어모델 Qwen과 비주얼 생성 모델 Wan을 기반으로 300개 이상의 AI 모델을 오픈소스로 공개했다. 누적 다운로드 6억 건, 파생 모델 17만 개 이상이 생성되며 알리바바 AI 모델은 전 세계에서 가장 널리 활용되는 오픈소스 AI 시리즈가 됐다. 특히 100만 개 이상의 기업 및 개인이 알리바바 AI 개발 플랫폼 '모델 스튜디오'에서 Qwen을 이용하고 있다.
이번 컨퍼런스에서 알리바바가 공식 출시한 Qwen3-Max는 1조 개 이상의 매개변수를 보유한 최대 규모 초거대언어모델이다. 일반 지시 모드와 사고 모드를 모두 갖춘 이 모델은 특히 코드 생성과 에이전트 기능 영역에서 각종 벤치마크 테스트에서 높은 성능을 기록했다.
일반 지시 모드에서는 실제 소프트웨어 문제 해결 능력을 평가하는 권위 있는 벤치마크 SWE-Bench에서 69.6점을 달성해 일부 유명 비공개 모델과 대등한 수준을 보였다. 또한 대화형 에이전트를 평가하는 Tau2-Bench에서도 우수한 성과를 거두며, 지능형 행동 중심 에이전트 구축의 핵심인 도구 활용 능력에서 탁월함을 입증했다.
압사라 컨퍼런스에서는 비전-언어 처리와 멀티모달 기능을 강화한 Qwen3 시리즈 모델들도 함께 공개됐다.
Qwen3-VL: Qwen 제품군 중 가장 뛰어난 비전-언어 모델이다. 전문가 혼합(MoE) 구조를 통해 엣지 디바이스부터 고성능 클라우드 환경까지 유연한 배포가 가능하다. 비주얼 에이전트 기능으로 PC와 모바일 인터페이스 모두에서 동작하며, 이미지나 영상에서 바로 코드를 생성해 시각적 디자인을 실제 동작하는 애플리케이션으로 변환하는 비주얼 프로그래밍을 실현했다. 공간 인식 기능은 방향과 거리에 대한 향상된 인식을 통해 3D 공간 이해를 지원하여, 체화된 AI와 실세계 공간 내비게이션의 토대를 마련한다. Qwen3-VL-235B-A22B는 일반 지시 및 사고 버전 모두 제공되며, 주요 시각 인식 및 멀티모달 추론 벤치마크에서 탁월한 성능을 보인다.
Qwen3-Omni: 텍스트, 이미지, 음성, 영상을 모두 처리하고 텍스트와 자연스러운 음성으로 실시간 스트리밍 응답을 제공하는 네이티브 엔드투엔드 다국어 통합 모델이다. 혁신적인 Thinker-Talker MoE 구조와 2,000만 시간 분량의 음성 데이터로 사전 학습된 Qwen3-Omni는 음성 입력 이해(최대 30분)와 동영상 기반 대화에서 뛰어난 성능을 보이면서도 텍스트 및 이미지 처리 능력은 그대로 유지한다. 초저지연 실시간 멀티모달 상호작용이 가능해 스마트 자동차, 스마트 글래스, 스마트폰에서의 직관적 핸즈프리 교감에 최적화됐다. Qwen3-Omni-30B-A3B는 현재 허깅페이스와 알리바바 클라우드 ModelScope 커뮤니티에서 오픈소스로 제공된다. 사용자는 다양한 Qwen 모델을 체험할 수 있는 웹 서비스 'Qwen Chat'에서 Qwen3-Omni-Flash를 이용할 수도 있다.
아울러 Qwen3-Coder와 Qwen3-Image-Edit도 대대적으로 업그레이드됐다. 새로운 Qwen3-Coder는 추론 속도 향상과 코드 보안 강화를 달성했으며, Qwen3-Image-Edit는 시각적 일관성이 크게 개선된 다중 이미지 편집 기능을 지원한다.
알리바바는 또한 고급 다국어 음성 인식 및 합성 기능을 갖춘 음성 초거대언어모델 제품군 Fun을 공개했다. 실제 기업 환경 배포에 최적화된 엔드투엔드 자동 음성 인식(ASR) 모델 Fun-ASR과, 여러 언어로 자연스러운 음성을 생성하는 고품질 표현 음성 합성 모델 Fun-CosyVoice가 포함됐다.
Wan2.5 프리뷰: 멀티미디어 콘텐츠 제작의 새로운 혁신
해당 행사에서 알리바바는 최신 동영상 생성 모델, 이미지 생성 모델, 이미지 편집 모델을 포함한 Wan2.5 모델 4종도 함께 공개했다. 동영상 생성 모델은 동영상과 함께 고품질 오디오 생성을 기본 지원하며, 영상 길이를 기존 5초에서 10초로 2배 늘려 향상된 화질로 더욱 완성도 높고 일관된 스토리텔링을 가능하게 한다. 텍스트, 오디오, 시각 데이터를 함께 학습한 네이티브 통합 멀티모달 구조를 특징으로 하여, 동기화된 오디오-비주얼 콘텐츠와 사용자 요구사항을 정확히 반영하는 향상된 지시 이해 능력을 제공한다.
대규모 에이전트 배포를 위한 새로운 개발 프레임워크
AI 에이전트의 대규모 구현 효율성 향상을 위해 알리바바 클라우드 AI 개발 플랫폼 '모델 스튜디오'에 새로운 개발 프레임워크가 추가됐다. 새 프레임워크의 핵심인 모델 스튜디오-ADK(에이전트 개발 키트)는 복잡한 비즈니스 요구사항을 실행 가능한 에이전트 로직으로 변환해 자율 의사결정, 동적 성찰, 반복 작업 실행 기능을 갖춘 정교한 AI 에이전트를 빠르게 개발할 수 있게 하는 기업 전문가용 하이코드 개발 프레임워크다. 해당 개발 키트를 활용하면 딥리서치나 에이전트 기반 RAG(검색 증강 생성) 프로젝트를 단 1시간 만에 구축할 수 있다. 모델 스튜디오는 프로그래밍 경험이 부족한 사용자도 쉽게 경량 AI 에이전트를 만들 수 있도록 하는 로우코드 개발 플랫폼 '모델 스튜디오-ADP'(에이전트 개발 플랫폼)도 업그레이드했다.
다중 소스 데이터 처리, 리소스 제약, 교차 환경 배포 등 주요 기업 과제 해결을 위해 모델 스튜디오 에이전트는 다양한 기업급 기능을 새로 도입했다. 멀티 클라우드 플랫폼(MCP) 연결, RAG 멀티모달 융합, 동적 추론 스케줄링, 샌드박스 서비스 등을 통해 기업의 AI 에이전트 도입을 가속화한다.
현재 사용자는 알리바바 자체 개발 Qwen·Wan 모델을 포함해 모델 스튜디오를 통해 업계 선도 모델 200여 개에 접근할 수 있다. 모델 스튜디오에서 생성된 에이전트는 80만 개를 넘어서며, 콘텐츠 제작·인텔리전트 마케팅부터 스마트홈 관리·생산 최적화까지 다양한 분야를 지원하고 있다. 지난 12개월간 모델 스튜디오 통한 모델 호출 횟수는 15배 급증했으며, 이는 강력하고 확장 가능한 AI 솔루션에 대한 폭발적 수요를 입증한다.
기업과 크리에이터를 위한 새로운 AI 플랫폼
알리바바 클라우드는 기업·개발자·AI 파트너를 위한 멀티모달 클라우드 기반 운영 환경이자 전문 에이전트 플랫폼인 AgentBay를 대폭 업그레이드했다. 7월 첫 선을 보인 이후, 이번 업그레이드를 통해 자체 진화 엔진, 커스텀 컨테이너 이미지, 내장 보안·컴플라이언스 제어 등 신기능이 추가되어 에이전트가 단순한 단일 모델 도우미에서 엔드투엔드 업무를 완료하는 복합적이고 인간다운 멀티모달 워커로 진화했다는 평가다.
AI 기반 성장에 대한 기업 수요 급증에 맞춰 알리바바 클라우드는 조직이 수동적 대응에서 능동적 인텔리전스로 전환할 수 있게 하는 원스톱 기업용 AI 애플리케이션 플랫폼 '링양 에이전트원'도 출시했다. 알리바바 Qwen 모델 기반이며 알리바바 생태계와 깊이 연동된 링양 에이전트원은 기존 시스템과의 연결과 빠른 가치 실현을 위한 엔드투엔드 에이전트 개발 워크스페이스를 제공한다. 마케팅·분석·고객서비스·운영 전반의 시나리오별 솔루션을 통해 사전판매부터 판매·사후관리까지 전체 가치사슬을 연결하여 인테리어·전자상거래 등 각 업종에 측정 가능하고 실무 적용 가능한 성과를 제공한다.
더불어, 알리바바의 소비자 대상 AI 애플리케이션 플랫폼 쿼크가 '조디엔'을 새롭게 출시했다. 조디엔은 알리바바 대표 동영상 생성 모델 Wan 등 업계 최고 AI 모델을 통합해 크리에이터에게 전문적이고 효율적인 경험을 제공하는 원스톱 AI 이미지·동영상 제작 플랫폼이다. Wan 지원 텍스트-투-비디오, 이미지-투-비디오 기능 외에도 최고 수준 모델 선택권과 함께 AI 이미지 생성·편집 기능을 제공한다. 크리에이터는 웹사이트 zaodian.quark.cn 혹은 쿼크 PC 버전 'AI 이미지' 메뉴를 통해 플랫폼을 이용할 수 있다.
에이전트 AI를 위한 차세대 AI 인프라
알리바바 클라우드는 신흥 에이전트 AI 환경을 지원하도록 특별 설계된 혁신 인프라 업그레이드 패키지도 공개했다.
스토리지: RAG 및 AI 앱에 최적화된 비용 효율적 대규모 벡터 데이터 저장·검색을 가능하게 하는 AI 기반 기능 '벡터 버킷'으로 객체 스토리지 서비스(OSS)를 강화했다. OSS 내 원시 데이터와 벡터 데이터 통합 관리를 통해 표준 API로 접근할 수 있게 하여 확장 가능한 RAG 플랫폼 개발과 멀티미디어 자산 관리를 단순화했다. 기업이 한 곳에서 원시 데이터와 벡터 데이터를 모두 관리할 수 있게 해 복잡성을 줄이고 RAG 애플리케이션 배포를 가속화함으로써 AI 개발 비용 절감에 기여한다.
네트워킹: AI 모델 전용 고성능 네트워크 HPN8.0의 최신 아키텍처를 공개했다. 이 혁신 기술은 혼합 계산 워크로드에서 원활한 모델 학습·추론·강화학습을 가능하게 하며 초대규모 배포를 지원한다. 800Gbps 네트워크 처리량을 제공해 이전 세대 대비 용량을 2배 늘렸다.
보안: 핵심 업데이트 중 하나로 클라우드 위협 탐지 대응(CTDR) 솔루션에 AI 기반 에이전트 기능을 추가했다. 이 클라우드 네이티브 보안 강화 기능은 탐지·분석·대응 능력을 향상시켜 보안 위협에 대한 더욱 지능적이고 능동적인 접근을 제공한다. Qwen 기반 5개 AI 에이전트가 경고 평가부터 실행까지 보안 운영을 자동화하며, 지능형 분석·이벤트 상관관계·실행 가능한 보고를 통한 엔드투엔드 위협 관리를 제공한다. 신기능 도입으로 자동화된 사고 조사 성공률이 59%에서 74%로 크게 향상됐으며, 인간 개입 없이 70%의 자동 대응 조치를 처리한다.
컨테이너: 최적화된 스케줄링과 컨테이너 이미지 캐시 가속 기술을 통해 오토 스케일링 기능을 강화해 컨테이너 컴퓨트 서비스(ACS)를 업그레이드했다. 대규모 고동시성 에이전트 요청 처리를 위해 분당 최대 1만5천 개 포드까지 확장을 지원하는 탄력성을 제공한다. ACS 컨테이너 샌드박스 기술은 사용자 영역을 런타임 환경에서 분리해 강력한 격리를 제공하고, 한 에이전트의 취약점이나 데이터 유출이 다른 에이전트에 영향을 주지 않도록 방지한다.
데이터베이스: 데이터와 AI 워크로드를 결합해 최적화한 PolarDB 데이터베이스를 업그레이드했다. 지연 시간을 72.3% 단축하고 메모리 확장성을 16배 향상시키며 데이터 및 AI 워크로드 처리를 위한 견고한 토대를 마련하는 고효율 컴퓨트-메모리 연결 기술인 컴퓨트 익스프레스 링크(CXL) 기반 하드웨어 혁신을 도입했다. 업그레이드된 PolarDB는 Lance, Iceberg, Apache Hudi 등 주요 오픈 데이터 형식을 저장하고 저장 비용을 절감하며 효율적인 멀티모달 데이터 저장·관리를 가능하게 하는 레이크, 운영 데이터베이스, 메타데이터를 포함한 하이브리드 스토리지 기반 새로운 레이크베이스 아키텍처를 도입했다.
AI 플랫폼(PAI): 대규모 모델 개발을 에이전트 AI 시대로 발전시키기 위한 시너지 최적화를 도입했다. 새로운 MoE 학습 가속화 기능은 Qwen 시리즈 학습을 300% 이상 향상시키며, 업그레이드된 DiT 학습 엔진은 Wan 시리즈 단일 샘플 학습 시간을 28.1% 단축한다. 강화된 추론 기능은 71% 높은 TPS, 70.6% 낮은 TPOT 지연시간, 97.6% 빠른 인프라 확장을 제공한다.
[저작권자ⓒ 메가경제. 무단전재-재배포 금지]