엑사원 EXAONE | |
<colbgcolor=#ddd,#010101> | |
분류 | 언어 모델 |
개발사 | LG AI 연구원 |
출시일 | 1.0 2022년 12월2.0 2023년 7월 19일3.0 2024년 8월 7일3.5 2024년 12월 9일Deep 2025년 3월 18일 |
최신 버전 | 3.5 (비추론), Deep (추론) |
링크 |
[clearfix]
1. 개요
LG AI 연구원에서 개발한 언어 모델이다.2. 버전
2.1. 엑사원 1.0
2022년 12월에 공개된 모델이다.2.2. 엑사원 2.0
2023년 7월 19일에 공개된 모델이다. 멀티모달 입출력을 지원하며, 한국어와 영어 총 2개 언어를 구사하는 이중 언어 모델로 개발되었다.2.3. 엑사원 3.0
2024년 8월 7일에 공개된 오픈소스 모델이다. LG 측의 주장에 따르면 구글의 Gemma2, meta의 LLaMA-3.1 8B 모델보다 더 높은 벤치마크 성능을 보인다.2.4. 엑사원 3.5
2024년 12월에 Hugging Face를 통해 공개되었으며, 2.4B , 7.8B, 32B 3가지 모델로 나눠져있다.7.8b와 32b는 비슷한 체급 대비 Qwen 2.5에게 밀리지만, 2.4B 사이즈에서는 오히려 평균 점수에서 매개변수가 약간 더 많은 Qwen 2.5 3b를 능가한다.
2.5. 엑사원 Deep
2025년 3월 18일에 공개된 모델로 기존에 있던 Deepseek-R1과 같은 CoT(Chain-of-Thought)추론 모델이다. 엑사원 3.5 때와 같이 2.4B, 7.8B, 32B를 지원하고, 지난 3.5 때는 상대적으로 경쟁 상대인 Qwen2.5 에게서 열세였던 것과는 다르게 이번에는 사이즈별로 경쟁 상대들과 상당히 대등한 성과를 보여주었다. [1][2]프론티어 모델인 32b 사이즈는 전반적으로 pass@1과 같은 간단하면서도 간결한 첫 대답도 꽤 준수 또는 우수한편이지만, CoT 방식의 추론과 연관이 큰 cons@64 영역에서는 QwQ-32b를 그래프에 나오는 LiveBenchCode[3]를 제외한 모든 4가지의 테스트에서 능가하고, LiveBenchCode와 GPQA Diamond[4]을 제외하고, 사이즈가 21배는 차이나는 DeepSeek-R1과 대등하거나 능가한다.
3. 여담
- 3.0 버전까지는 스플릿 형태의 파일만을 올려뒀었지만, 사용자들이 합치고, 양자화하는 과정이 복잡하다고 판단했는지. 3.5 버전부터는 공식적으로 gguf로 양자화한 버전을 배포한다.
- 3.5 버전은 대체로 다른 AI를 따돌리는 기술을 지녀 엄청난 성과라고 평가받는데 정작 마케팅 팀이 이걸 제대로 홍보하지 않아서(...) 역시 LG답다는 평. 해외 네티즌들은 LG를 TV 회사가 이런 엄청난 걸 만들었냐는 반응을 시작으로[5] 왜 이런 엄청난 걸 제대로 홍보하지 않냐는 반응도 많다.
[1] 참고로 진한 색상의 그래프는 "pass@1"로 문제를 처음 접했을 때 문제를 푼 기준이고, 연한 색상의 그래프는 "cons@64"로 64회의 풀이를 시도했을 때 1번이라도 맞춘 비율이다.[2] 쉽게 설명하면 pass@1은 상식 능력, cons@64는 추론 일관성이라고 생각하면 된다.[3] 실시간 코딩 벤치마크로 visual studio나 colab에서 코딩을 할 때 copilot과 gemini가 반투명한 형태로 뒤에 작성 할 코드를 예측해주는 기능이라고 보면 편하다.[4] 대학원 수준의 과학 문제 해결능력[5] 한국에서도 마찬가지긴 하지만 해외에서 LG 하면 거의 대다수가 TV 내지 냉장고 만드는 회사로 인식한다. 딱히 다른 제품군이 묻혀서라기 보다는 TV랑 냉장고 업계에서 독보적이기 때문이다. 특히 LG는 냉장고에 온갖 신기술을 집어넣는 기행을 자주 선보였기 때문에 TV와 냉장고에 엑사원이 들어갈 것이라는 추측도 있다. LG가 더 이상 스마트폰을 만들지 않으므로 냉장고는 몰라도 TV에는 들어갈 가능성이 있다.