Gemma 젬마 | |
<colbgcolor=#5270ec><colcolor=#fff> 개발사 | 구글 딥마인드 |
출시일 | 2023년 2월 21일 |
기능 | 언어 모델 |
사용처 | kaggle, HuggingFace, Colab, NeMo, Vertex AI 등 |
라이선스 | 오픈 소스 소프트웨어 |
소개 페이지 | |
링크 |
|
[clearfix]
1. 개요
구글에서 공개한 오픈 웨이트(Open-Weights)[1] 경량 대규모 언어 모델(sLLM). Gemini의 경량화 모델이다.2. 모델
2.1. Gemma
Gemma는 20억 매개변수를 가진 Gemma 2B와 70억 매개변수를 가진 Gemma 7B 두 가지 모델로 제공된다.Gemini와 같은 일반적인 대규모 언어 모델(LLM)에 비해 크기가 작아 온디바이스 인공지능으로 사용이 가능하다.
구글이 공개한 벤치마크 데이터에 따르면 젬마는 메타의 LLaMA-2보다 평균 19점 높은 64.3점을 기록했다.
엔비디아 와의 제휴를 통해 GPU 최적화를 지원한다.
2.2. PaliGemma
비전 기능이 포함된 모델이다. 이미지를 업로드하여 해당 이미지에 대해 질문할 수 있다.2.3. Gemma 2
2024년 6월 29일에 공개된 모델. 20억(2B), 90억(9B) 270억(27B) 매개변수의 3가지 크기로 제공된다.2.4. PaliGemma 2
PaliGemma의 후속 모델로, Gemma 2를 기반으로 만들어졌다. 비전 기능이 포함되었으며 3B, 10B, 28B로 제공된다.3. 평가
4. 긍정적 평가
5. 부정적 평가
- 구글에서 공개한 벤치마크 결과와는 다르게 성능이 매우 처참하다는 평이 많다. 메타의 LLaMA-2에 비해 체감 상 오히려 성능이 낮다는 의견이 대다수이다.
- 할루시네이션 현상도 존재하는 것으로 보인다.