[메가경제=황성완 기자] 카카오는 허깅페이스에 자체 개발한 차세대 언어모델 ‘Kanana-2’를 오픈소스로 공개했다고 19일 밝혔다. 이를 통해 카카오는 에이전틱(Agentic) 인공지능(AI) 구현에 최적화된 고성능·고효율 기술 경쟁력을 입증했다.
![]() |
| ▲[사진=카카오] |
카카오는 지난해 자체 개발 AI 모델 ‘카나나(Kanana)’의 라인업을 선보인 이래, 경량 사이즈의 모델부터 고난이도 문제 해결에 특화된 ‘Kanana-1.5’까지 꾸준히 오픈소스로 추가 공개해왔다.
이번에 선보인 ‘Kanana-2’ 모델은 성능과 효율을 획기적으로 개선한 최신 연구 성과로, 사용자 명령의 맥락을 파악하고 능동적으로 동작하는 ‘동료’와 같은 AI 구현에 초점을 맞췄다.
이번에 공개된 모델은 총 3종으로, 기본 모델인 ▲베이스(Base), 사후 학습을 통해 지시 이행 능력을 높인 ▲인스트럭트(Instruct), 그리고 이번에 처음 선보이는 ▲추론(Thinking) 특화 모델로 구성됐다. 특히, 개발자들이 자체 데이터를 활용해 자유롭게 모델을 파인튜닝(Fine-tuning)할 수 있도록 학습 단계의 웨이트(Weight, 학습된 매개변수 값)를 모두 공개한 점이 특징이다.
Kanana-2는 에이전틱 AI 구현의 핵심인 도구 호출(Tool Calling) 기능과 사용자 지시 이행(Instruction following) 능력이 비약적으로 향상됐다. 이전 모델(Kanana-1.5-32.5b) 대비 다중 대화 도구 호출(Multi-turn tool calling) 능력을 3배 이상 향상시켰으며, 복잡한 단계별 요구 사항을 정확하게 이해하고 수행하도록 설계됐다. 지원 언어 역시 기존 한국어, 영어에서 한국어, 영어, 일본어, 중국어, 태국어, 베트남어까지 6개로 확장해 활용도를 높였다.
기술적으로는 효율성을 극대화하기 위해 최신 아키텍처를 도입했다. 긴 입력(Input)을 효율적으로 처리하는 방식인 ‘MLA(Multi-head Latent Attention)’ 기법을 적용했으며, 추론 시 필요한 파라미터만 활성화하는 ‘MoE(Mixture of Experts)’ 구조를 적용했다. 이를 통해 적은 메모리 자원으로도 긴 문맥(Long Context)을 효율적으로 처리할 수 있게 됐으며, 추론 시 필요한 파라미터만 활성화 해 연산 비용과 응답 속도가 개선됐다. 대규모 동시 접속 요청을 압도적으로 빠르게 처리(High-Throughput)하는 성능 진화를 만들기도 했다.
성능 지표에서도 글로벌 수준의 경쟁력을 확인했다. 인스트럭트(Instruct) 모델의 경우 동일한 구조의 최신 모델 ‘Qwen3-30B-A3B’와 유사한 수준을 달성했으며, 이달 한국정보과학회와 공동 개최한 ‘AI 에이전트 경진대회’에서 참가자들에게 선공개되어 실제 에이전트 개발 환경에서의 탁월한 활용 능력이 검증되기도 했다. 추론 특화 모델은 다양한 사고 능력이 요구되는 벤치마크에서 추론 모드(Thinking Mode)를 적용한 ‘Qwen3-30B-A3B’와 유사한 성능을 보이며 추론형 AI로서의 발전 가능성을 확인했다.
카카오는 향후 동일한 MoE 구조를 기반으로 모델 규모를 확장하고, 고차원적인 지시 이행 능력을 확보할 계획이다. 이와 더불어 복잡한 AI 에이전트 시나리오에 특화된 모델 개발과, 온 디바이스(On-device) 경량화 모델의 고도화를 지속적으로 추진할 계획이다.
김병학 카카오 카나나 성과리더는 “혁신적인 기술과 기능을 갖춘 AI 서비스의 근간은 기반이 되는 언어모델의 성능과 효율”이라며 “높은 성능에 초점을 둔 모델을 넘어 실제 AI 서비스에 적용되어 빠르고 효과적으로 동작할 수 있는 실용성을 갖춘 AI 모델을 개발하고, 꾸준히 오픈소스로 공유하며 국내외 AI 연구 생태계 활성화에 기여할 계획”이라고 말했다.
[저작권자ⓒ 메가경제. 무단전재-재배포 금지]


















































































