Kanana-2, 이 정도면 국산 ChatGPT? : 카나나-2 오픈소스 핵심 정리

카카오 기술블로그에 「더 똑똑하고 효율적인 Kanana-2 오픈소스 공개」 글이 올라오면서, 또 하나의 국산 LLM이 등판했습니다. 이름은 Kanana-2, 그리고 핵심 키워드는 “에이전틱(Agentic) AI 최적화”예요.
이미 Llama, Qwen, DeepSeek, Kimi등 오픈소스 모델이 넘쳐나는 시대에, 왜 Kanana-2 오픈소스가 의미가 있을까요?
- 한국어에 강하고
- 도구 호출(tool calling), 복잡한 지시 이행, 논리 추론에 특히 튜닝되어 있고
- MLA + MoE 구조로 성능 대비 연산비를 줄인 모델이라서입니다.
이 포스트에서는 Kanana-2 오픈소스가 어떤 모델인지 감 잡는 것에 집중하고, 2편에서 “실제로 어떻게 써먹을까?”를 다루어 보도록 하겠습니다.
1. 국산 LLM Kanana-2 오픈소스 한눈에 보기

카카오 공식 발표 기준으로, Kanana-2 오픈소스는 다음 포인트로 요약할 수 있어요.
- 에이전틱 AI 특화 LLM
- 단순 Q&A용 챗봇이 아니라,
→ “명령을 이해 → 필요한 도구 호출 → 응답 조합” 같은 에이전트 스타일 작업에 최적화. - 내부 벤치마크 기준, 도구 호출(Task/Tool Calling) 성공률이 이전 모델 대비 3배 수준까지 올라갔다고 언급됩니다.
- 단순 Q&A용 챗봇이 아니라,
- 모델 3종 세트 공개
- 성능·효율을 동시에 잡은 구조
- MLA (Multi-head Latent Attention)
- MoE (Mixture of Experts)
→ 일부 “전문가(Expert)” 레이어만 활성화해서, 전체 파라미터는 크지만 실제 추론 시 활성 파라미터를 줄여 효율↑
- 긴 문맥 + 다국어 지원
- 기본 32K 토큰 컨텍스트 지원, YaRN 스케일링으로 최대 128K까지 확장 가능(설정에 따라).
- 언어: 한국어, 영어, 일본어, 중국어, 태국어, 베트남어 등 6개 언어 지원. 특히 새 토크나이저로 한국어 처리 효율이 30% 이상 개선되었다고 합니다.
- 어떤 라이선스?
- Hugging Face에 올라간 Kanana-2-30B-A3B 계열은 kanana-license라는 자체 라이선스를 사용합니다.
- 상업적 이용 가능하지만, Apache-2.0보다 조금 더 조건이 타이트하다고 명시되어 있어요. 활용 전 반드시 라이선스 전문을 읽어야 합니다.

2. Kanana-2는 어디서, 어떻게 받을 수 있나?
실제 모델은 전부 Hugging Face에 올라와 있어요.
대표 예시는 이런 식입니다.
kakaocorp/kanana-2-30b-a3b-basekakaocorp/kanana-2-30b-a3b-instructkakaocorp/kanana-2-30b-a3b-thinking
기본 흐름은 다른 LLM과 똑같아요.
- Hugging Face에서 모델 레포지토리 방문
git lfs+transformers/vLLM/TGI등으로 모델 다운로드- GPU 서버 or 고스펙 CPU 서버에서 서빙
※ 지금 시점(2025년 12월 기준)에는 로컬 맥북에서 돌리기엔 30B 급이 꽤 무겁기 때문에,
추후 더 작은 파라미터의 Kanana-2 계열이 나오거나,
압축/양자화한 커뮤니티 버전이 나오면 로컬 실험도 가능성이 커질 거예요. (이 부분은 앞으로 업데이트를 기다려야 봐야 할 것 같습니다.
3. Kanana-1.5, Qwen, Llama랑 뭐가 다를까?
1) Kanana-1.5 vs Kanana-2
- Kanana-1.5
- 이미 한국어 성능이 꽤 좋았고,
- MoE 구조 기반 경량·효율을 보여줬습니다.
- Kanana-2 오픈소스
- 에이전틱 AI에 포커스: 도구 호출/추론에 초점
- 맥락 길이와 다국어 지원, 토크나이저 효율까지 개선
- 내부 벤치마크에서 Qwen-3-30B Base보다 KoSimpleQA 2배 이상 스코어를 기록했다는 언급도 있어요.
2) Qwen, Llama 같은 글로벌 모델들과 비교 포인트
- Kanana-2 오픈소스가 강한 쪽
- 한국어 QA/지식 영역
- 한국 환경/서비스 문맥에 가까운 데이터
- 에이전트/도구 호출 벤치마크에 맞춰 튜닝된 점
- 아직은 관망해야 할 부분
- 영어 등 글로벌 벤치마크에서의 “절대 성능”은 Llama 3.x, Qwen 3.x 같은 글로벌 최상위 모델 대비 어느 정도인지는 계속 검증 중입니다.
그래서 현실적인 포지션은 이 정도로 보면 좋을 것 같습니다.
“한국어 중심 서비스 + 에이전트/툴콜링 기능을 만들고 싶은 팀이 검토해 볼 만한 국산 LLM 후보”
4. 국산 LLM Kanana-2 오픈소스 정리하기

이번 포스트에서 기억하면 좋은 키포인트만 다시 모아볼게요.
- Kanana-2 오픈소스는 에이전틱 AI에 최적화된 국산 LLM이다.
- Base / Instruct / Thinking 3종이 Hugging Face에 공개되어 있고,
한국어 + 다국어, 긴 문맥, 도구 호출 성능에 초점을 맞추고 있다. - MLA + MoE 구조를 통해 “큰 모델인데도 실제 추론 비용을 줄인” 설계를 채택했다.
- 라이선스는 kanana-license로 상업적 사용이 가능하지만, 조건이 있으니 꼼꼼한 확인이 필요하다.
- 국산 LLM으로 글로벌 LLM과 “누가 더 좋냐”가 아니라,
“한국어/에이전트/툴콜링 중심의 서비스에 적합한가?”가 Kanana-2 오픈소스 평가 기준이 된다.
2편에서는 이제 진짜로,
“이 Kanana-2 오픈소스, 실제로 어떻게 써먹지?”
라는 관점에서 실무 활용 시나리오 + 코드 예시 중심으로 정리해 보도록 하겠습니다.
여기서는 Kanana‑2 오픈소스 포스트의 주요 기술과 개념을 정리해, 독자들이 글 말미에서 빠르게 참고할 수 있도록 만든 용어 해설 섹션을 제안드립니다. 워드프레스 포스트에서도 그대로 활용하기 좋게 구성했어요.
🧠 용어 정리
1. LLM (Large Language Model)
대규모 텍스트 데이터를 학습해 문장 생성·이해·추론 등의 능력을 갖춘 AI 모델. 대표적으로 ChatGPT, Llama, Qwen 등이 있다. Kanana‑2 역시 한국어 중심의 오픈소스 LLM이다.
2. 에이전틱 AI (Agentic AI)
단순히 답만 주는 챗봇이 아니라, 명령을 이해하고 필요한 도구(tool)를 호출해 작업을 수행하는 능동형 인공지능. Kanana‑2는 이 지향점에 맞춰 훈련되었다.
3. 도구 호출 (Tool Calling)
AI가 계산기나 검색 API 같은 외부 기능을 필요 시 스스로 호출하고, 그 결과를 이용해 응답을 완성하는 구조. Kanana‑2는 이 성공률을 크게 높였다는 것이 핵심 개선점이다.
4. MLA (Multi‑head Latent Attention)
Kanana‑2의 주요 구조 중 하나로, Attention 연산의 효율성을 높이는 방식. 여러 “헤드”가 정보를 나눠 처리하며 메모리 사용량을 줄인다.
5. MoE (Mixture of Experts)
하나의 거대한 모델 안에 여러 “전문가(Expert)” 네트워크가 있고, 입력에 맞는 일부만 활성화해 연산량은 적게, 성능은 동일하게 유지하는 기술. 효율형 대규모 모델의 핵심 아이디어다.
6. Instruct 모델
“사용자 지시에 따라 행동하도록” 미세 조정된 LLM. 예: Kanana‑2‑30B‑A3B‑Instruct는 질문 응답, 코딩, 분석 같은 실용 명령 수행에 특화되어 있다.
7. Thinking 모델
내부 추론(Thinking) 능력을 강화한 형태. 에이전트 플로우나 복잡한 의사결정형 태스크에서 정확도를 높인다.
8. Hugging Face
AI 모델 공유 플랫폼. 오픈소스 LLM 대부분이 여기에 공개된다. Kanana‑2도 kakaocorp/kanana‑2‑30b‑a3b‑* 형태로 공개되어 있다.
9. Token / Context Length (토큰·문맥 길이)
LLM이 한 번에 이해할 수 있는 글자·단어 단위의 전체 맥락 길이. Kanana‑2는 기본 32K 토큰, 설정에 따라 최대 128K까지 확장된다.






