위런치 로고
카카오, 오픈소스 LLM ‘Kanana-2’ 대폭 업데이트… 4종 모델 추가 공개

Welaunch
Welaunch
·
2주 전

카카오, 오픈소스 LLM ‘Kanana-2’ 대폭 업데이트… 4종 모델 추가 공개

소식발행일
 
관심
14
620
태그
사이트
https://www.kakaocorp.com/page/
구독
좋아요
공유
신청
카카오(대표이사 정신아)가 자체 개발 대형 언어모델(LLM) ‘Kanana-2(카나나-2)’의 성능을 대폭 업그레이드하고, 총 4종의 고효율 모델을 추가로 오픈소스로 공개했다고 20일 밝혔다. 지난해 12월 허깅페이스(Hugging Face)를 통해 최초 공개된 Kanana-2는 에이전틱(Agentic) AI 구현에 최적화된 고성능·고효율 모델로 주목받았다. 불과 한 달여 만에 이뤄진 이번 업데이트는 실용성과 접근성을 극대화한 것이 핵심이다. 이번에 공개된 4종 모델은 ▲기본(Base) ▲지시 이행(Instruct) ▲추론 특화(Thinking) ▲미드 트레이닝(Mid-training) 모델로 구성되며, 모두 엔비디아 A100 수준의 범용 GPU에서도 원활하게 구동되도록 최적화됐다. 이는 고가의 최신 GPU가 없어도 중소기업·개인 연구자·학계가 고성능 AI를 활용할 수 있도록 한 실용적 접근이라는 평가다. Kanana-2의 효율성 핵심은 ‘전문가 혼합(MoE, Mixture of Experts)’ 아키텍처다. 전체 파라미터는 32B(320억 개) 규모로 거대 모델 수준의 지능을 유지하면서도, 실제 추론 시에는 상황에 맞는 3B(30억 개) 파라미터만 활성화해 연산 비용을 획기적으로 절감했다. 또한 MoE 학습에 필수적인 커널을 자체 개발해 성능 손실 없이 학습 속도를 높이고 메모리 사용량을 크게 줄였다. 학습 과정도 고도화됐다. 기존 사전 학습(Pre-training)과 사후 학습(Post-training) 사이에 ‘미드 트레이닝(Mid-training)’ 단계를 신설하고, ‘리플레이(Replay)’ 기법을 도입해 새로운 정보를 학습하면서도 기존 한국어 능력과 상식 지식을 잃어버리는 치명적 망각(Catastrophic Forgetting) 현상을 최소화했다. 특히 에이전트 AI 구현에 특화된 점이 돋보인다. 고품질 멀티턴(Multi-turn) 도구 호출 데이터를 집중 학습시켜 복잡한 사용자 지시를 정확히 이해하고 적절한 도구를 스스로 선택·호출하는 능력을 대폭 강화했다. 실제 벤치마크에서 동급 경쟁 모델(Qwen-30B-A3B-Instruct-2507) 대비 지시 이행 정확도, 멀티턴 도구 호출 성능, 한국어 능력 등에서 압도적 우위를 기록했다. 카카오는 현재 MoE 구조를 기반으로 한 초대형 155B(1,550억 개) 파라미터 모델 ‘Kanana-2-155b-a17b’ 학습도 진행 중이다. 중국 지푸 AI(Zhipu AI)의 ‘GLM-4.5-Air-Base’ 대비 40% 수준의 데이터만 사용했음에도 MMLU(모델 일반 지능) 등 주요 벤치마크에서 유사한 성능을 보였으며, 한국어 질의응답과 수학 영역에서는 월등한 우위를 나타냈다. 학습 효율 극대화를 위해 최신 Hopper GPU의 8비트 포맷을 도입하는 등 기술 혁신도 이어가고 있다. 김병학 카카오 카나나 성과리더는 “Kanana-2는 ‘어떻게 하면 고가 인프라 없이도 실용적인 에이전트 AI를 구현할 수 있을까’에 대한 치열한 고민의 결과”라며 “보편적 인프라 환경에서도 고효율을 내는 모델을 오픈소스로 공개함으로써 국내 AI 연구·개발 생태계 발전과 기업들의 AI 도입에 새로운 대안을 제시하고자 한다”고 밝혔다. 카카오는 앞으로 글로벌 최상위 수준의 파운데이션 모델 개발을 지속하면서, 더 복잡한 에이전트 시나리오에도 대응할 수 있는 고도화된 AI를 선보일 계획이다. 이번 업데이트와 오픈소스 공개는 카카오가 단순 대화형 AI를 넘어 실질적인 업무 수행 에이전트 AI 분야에서 글로벌 경쟁력을 입증하는 계기가 될 전망이다. Welaunch 강한나 기자 스타트업 뉴스 플랫폼, 위런치 © 2024 Welaunch. All Rights Reserved 보도자료/기고 : editor@welaunch.kr 광고/제휴 문의: we@welaunch.kr

Welaunch
Welaunch
다른소식