언어 모델 | ||
{{{#!wiki style="margin:-0px -10px -5px" {{{#!folding [ 펼치기 · 접기 ] {{{#!wiki style="margin:-5px -1px -11px; word-break:keep-all" | <colkeepall> OpenAI | GPT (1/2/3/4/oss/5) · (o1/o3/o4) |
구글 | Gemini · Gemma · LaMDA · PaLM 2 | |
Anthropic | Claude | |
메타 | LLaMA | |
xAI | Grok | |
기타 | Exaone(LG AI연구원) · HyperCLOVA(네이버) · 삼성 가우스(삼성전자) · 카나나(카카오) · 믿:음(KT) · A.X(SK텔레콤) · Qwen(알리바바) · DeepSeek · OpenELM(Apple) · Phi(Microsoft) · 어니봇(바이두) ·Kimi(Moonshot AI) | }}}}}}}}} |
Kanana | 카나나 Kakao native natural | |
| |
공개일 | 2025년 2월 27일 |
출시일 | 클로즈 베타 2025년 5월 8일[1]1.5 2025년 5월 23일[2] |
기능 | 언어 모델 |
제작사 | 카카오 |
인프라 | TPU[3] |
소개 페이지 | |
링크 |
1. 개요
카카오에서 개발한 언어 모델이다.2. 특징
‘카나나’는 ‘가장 나다운 AI’라는 의미로, 카카오(Kakao), 네이티브(Native), 내츄럴(Natural)의 단어를 조합해 만들었다.
카나나 서비스 속 AI 메이트는 개인메이트 ‘나나(nana)’와 그룹메이트 ‘카나(kana)’로 구현되며, 나나는 이용자와의 일대일 대화와 그룹대화에서의 대화를 기억해 최적화된 개인화 경험을 제공하고, 카나는 상주하는 그룹대화 안에서의 대화 내용만 기억하여 이용자들을 돕는 식의 특징이다. 예를들어 나나를 통해, 그룹대화에서 나눈 컨퍼런스 참석 일정과 준비물 등을 기억해 메시지로 알려 주거나, 카나를 통해 스터디 그룹대화에서 함께 읽은 논문 관련 퀴즈를 내주고 채점 및 부연 설명을 해주거나, 연인 간의 대화방에서 귓속말 기능을 통해 데이트 일정이나 장소를 제안해 주는 방식으로 말이다.
또한, 카카오의 AI 기술과 콘텐츠 지식재산권(IP)가 결합하여 나타내는 다양한 서비스 확장 또한, 카카오엔터테인먼트 소속 아티스트의 목소리를 학습시킨 음성모델 데모 시연을 통해 보여졌다.
3. 모델
<colbgcolor=#FEE500> Kanana Model Family | |||
언어모델 | Kanana FLAG[32.5B] 초거대 언어모델 | Kanana ESSENCE[9.8B] 중소형 언어모델 | Kanana NANO[2.1B] 초경량 언어모델 |
멀티모달 | Kanana-o 통합 멀티모달 모델 | Kanana-v 비전 모델 | Kanana-a 오디오 모델 |
비주얼 생성 | KOLLAGE 이미지 생성 | KINEMA 비디오 생성 | |
음성 모델 | KRAVE 음성인식 | KAST 음성합성 |
3가지 모델이 있으며, 크기에 따라 카나나 Nano, Essense, Flag로 나뉜다.
실제로 처음부터 학습된 모델은 8B, 26.8B 모델이며, 이를 증류하거나 스케일링 했다.
2 stage pre-training하여 총 3.2T 토큰을 학습하였다.
3.1. 카나나 Nano
모델 다운로드2.1B 모델로, 8B 모델을 Pretrain한 다음 Pruning Distillation 하여 크기를 줄였다.
300B 토큰밖에 학습하지 않았지만 KMMLU와 HAE-RAE, HumanEval 벤치마크에서 Llama 3.2 3B, Qwen2.5 3B, Gemma2 2B와 비슷하거나 높다. [7]
3.2. 카나나 Essense
9.8B 모델로, Nano와 마찬가지로 Pretrain된 8B 모델을 Depth Up-scaling 하여 크기를 키웠다.3.3. 카나나 Flag
32.5B 모델로, Essense처럼 26.8B 모델을 Pretrain한 다음 Depth Up-scaling 하여 크기를 키웠다.18T를 학습한 Qwen2.5 32B보다 성능이 좋았으며, 15T를 학습한 Llama 3.1 70B보다도 KMMLU, HAE-RAE에서 10점 더 우수한 성능을 보였다.
3.4. 카나나 1.5
모델 다운로드발표 개발기
2025년 5월 23일에 공개된 시리즈로, "코딩 및 수학능력의 고도화, Long Context의 처리능력을 확대" 에 집중했다고 한다.
단순히 한국어를 잘하는 모델이 아닌, 도구를 잘 사용하는 "에이전틱 AI" 로써 개발방향을 잡았다고 이해하면 된다.
수학, 코딩 능력에 대한 집중적인 강화학습을 진행했으며, 모델이 한번에 이해할 수 있는 양인 Context Length를 128K까지 늘렸다고 한다. 그 결과, 밴치마크 점수는 기존 모델 대비 크게는 2~30%까지 증가하는 큰 성과를 보여줬다.
그리고 기존 버전에서 2.1B 달랑 하나만 공개했던것과 달리, 8B 모델도 추가로 공개했다.
2025년 7월 24일에 MoE 구조를 적용한 15.7B 모델을 공개했다.
초소형 experts 모델 64개를 합치고, 동작시 8개씩 작동하도록 만들어졌으며, 3B정도의 활성 파라미터로 8B모델을 재끼고, 동일한 3B 모델보다 훨씬 높은 성능을 보여줬다.
추가로, Vision 모델 하나도 공개했는데, Phi-3, Qwen 2.5, HyperClova의 3B모델과 비교했을때 압도적으로 모조리 이겨버리는 강력한 성능을 보여줬다.
3.5. 카나나 2[미출시]
카나나 1.5의 출시와 함께 개발중이라 언급된 시리즈로, "AI 에이전트를 지향하는 더욱 고도화된 모델"을 목표로 개발중이라고 한다.4. 카나나 AI 메이트 서비스
홈페이지카나나(Kanana)는 카카오가 개발한 AI 메이트 서비스로, 정식 출시 전 비공개 테스트(CBT)를 통해 선별된 이용자에게 먼저 공개되었다. 개인 및 그룹 채팅방에서 작동하며, 이용자의 대화 맥락을 파악해 다양한 도움을 제공하는 AI 기반 서비스이다.
4.1. 개요
- 출시 형태: CBT (Closed Beta Test)
- 시작일: 2025년 5월 8일
- 참여 방법: 구글 플레이, 애플 앱스토어에서 앱 다운로드 후 가입 순서에 따라 선착순 참여
- 정식 출시 예정: CBT를 통해 서비스 완성도를 높인 후 정식 버전 출시 예정
- 업데이트 주기: 약 3주마다 정기 업데이트
CBT는 정식 출시 전 서비스 기능 및 안정성을 검증하기 위한 비공개 테스트로, 오픈 베타 테스트(OBT)와는 달리 제한된 인원만 참여할 수 있다.
4.2. 주요 기능
카나나는 'AI 메이트'라는 새로운 개념의 서비스를 기반으로 하며, 크게 두 가지 유형의 메이트가 있다.4.2.1. 개인메이트: 나나
- 개인 및 그룹 채팅방에 존재
- 이용자의 정보를 기억하여 개인화된 응답 제공
- 귓속말 기능을 통해 그룹방에서도 1:1 대화 가능
- 지난 대화 요약 및 추가 정보 제공 가능
4.2.2. 그룹메이트: 카나
- 이용자가 속한 모든 그룹방에서 활동
- 조별 과제, 동호회, 가족 대화 등에서 일정, 장소 조율 지원
- 대화 요약, 모임 리마인드 기능 제공
- 예: 러닝 동호회에서 마라톤 대화 감지 → 일정 등록 및 알림, 코스 추천 등
4.3. 특징
- 문맥 기반 AI 응답: 단순 명령형 응답이 아닌, 대화 흐름 파악 기반
- 성장형 AI: 이용할수록 이용자에 대한 이해도 증가 → 초개인화 서비스 지향
- 말투/성격 커스터마이징: '친구같은', '전문가같은', '분위기 메이커', '사춘기 같은' 등 선택 가능. 이용자 커스텀 설정도 지원
4.4. 향후 계획 및 전략
카카오의 AI 전략은 단순한 대화형 AI를 넘어 일상 속에 스며드는 AI 에이전트를 중심으로 구성되고 있다.- 오픈AI와의 전략적 협력을 통한 기술 고도화 진행 중
- 카카오 생태계 전반 AI 에이전트 개발: 사용성 및 경험 확장 목표
5. 여담
- 2.1B를 제외한 다른 모델은 가중치를 공개하지 않았고, 공개할 예정도 없다고 한다.
- 라이센스가 EXAONE와 마찬가지로 NC이다. 정말이지 아쉬운 부분.
- 1.5 시리즈를 발표하면서 라이센스를 Apache 2.0으로 변경했다.
- Maxtext를 이용해 TPU v6e (Trillium)을 카나나 모델 학습에 일부 활용했다고 한다. 링크
[1] https://www.kakaocorp.com/page/detail/11545[2] https://tech.kakao.com/posts/706[3] TPU를 사용해 비용을 획기적으로 절감했다고 한다.[32.5B] [9.8B] [2.1B] [7] 각각 9T, 18T, 2T 토큰을 학습한 것을 생각해보면 데이터 양보다 질이 우선임을 여실히 보여주는 대목이다. 한국어 데이터가 구하기 힘들다.[미출시]