1. LM Studio
[include(틀:소프트웨어 정보,이름=LM Studio,
개발사=Element Labs, Inc.,
개발자=Yagil Burowski,
발표일=2023년 5월,
운영체제=Windows, macOS, Linux,
종류=AI 추론 소프트웨어,
라이선스=프리웨어 (독점 소프트웨어),
링크=https://lmstudio.ai
)]
| <colcolor=#6C31E3,#c49dff> LM Studio | |
| | |
| <colbgcolor=#f8f4ff,#1a0a2e> 개발 | Element Labs, Inc. |
| 개발자 | Yagil Burowski |
| 출시 | 2023년 5월 |
| 라이선스 | 프리웨어 (본체 독점, SDK는 MIT) |
| 용도 | 로컬 LLM 실행 및 추론 도구 |
| 운영체제 | macOS (Apple Silicon) | Windows | Linux |
| 웹사이트 | |
LM Studio는 대규모 언어 모델(LLM)을 사용자의 로컬 컴퓨터에서 직접 다운로드하고 실행할 수 있는 데스크톱 애플리케이션이다. Element Labs, Inc.가 개발하였으며, 2023년 5월에 최초 공개되었다.
2. 개요
LM Studio는 클라우드 서버 없이 AI 언어 모델을 로컬 환경에서 실행할 수 있도록 해주는 GUI 기반 소프트웨어이다. 사용자는 인터넷 연결 없이도 Llama, Gemma, Qwen, DeepSeek, Mistral 등 다양한 오픈소스 언어 모델을 실행하고 대화할 수 있다. 모든 추론(inference)이 로컬에서 이루어지기 때문에, 사용자 데이터가 외부 서버로 전송되지 않아 개인정보 보호 측면에서 장점이 있다.개인 및 상업적 목적 모두 무료로 사용할 수 있으며, 별도의 구독료나 API 사용료가 없다.
3. 개발사 및 역사
3.1. 개발사
Element Labs, Inc.는 미국 뉴욕 브루클린에 소재한 소프트웨어 회사이다. 대표이자 창립자인 Yagil Burowski가 2023년에 설립하였으며, 그는 이전에 Apple에서 근무한 경력이 있다. 2025년 기준 직원 수는 약 16명이며, 연 매출은 약 180만 달러로 알려져 있다.2025년 4월 25일에는 Matrix, Preston-Werner Ventures, Torch Capital 등의 투자사로부터 시리즈 B 라운드로 1,930만 달러의 투자를 유치하였다.
3.2. 출시 역사
| 버전 | 출시 시기 | 주요 변경사항 |
| 0.1.x | 2023년 5월 | 최초 공개. Hugging Face 모델 탐색·다운로드 및 채팅 기능 |
| 0.2.x | 2023년 하반기 | macOS, Linux 지원 확대 |
| 0.3.x | 2024~2025년 | 로컬 서버 기능, MLX 지원, Speculative Decoding, MCP 지원 |
| 0.3.11 | 2025년 3월 | Python·TypeScript SDK 출시, Speculative Decoding 고급 설정 |
| 0.3.17 | 2025년 | MCP(Model Context Protocol) 호스트 기능 도입 |
| 0.4.x | 2025년 이후 | CLI 채팅, llmster(헤드리스 모드), LM Studio Hub 등 |
4. 주요 기능
4.1. 모델 탐색 및 다운로드
앱 내 모델 카탈로그를 통해 Hugging Face에서 제공되는 다양한 오픈 가중치(open-weight) 모델을 검색하고 다운로드할 수 있다. GGUF 포맷과 MLX 포맷 모델을 지원한다.지원하는 주요 모델 계열:
- Meta Llama 시리즈
- Google Gemma 시리즈
- Alibaba Qwen 시리즈
- DeepSeek 시리즈
- Mistral AI 시리즈
- OpenAI gpt-oss (2025년 8월 출시일 당일 지원)
- NVIDIA 모델 등 다수
4.2. 채팅 인터페이스
다운로드한 모델과 직접 대화할 수 있는 GUI 채팅 화면을 제공한다. 시스템 프롬프트 설정, 멀티턴 대화, 컨텍스트 길이 조절 등의 기능이 포함되어 있다. 문서 기반 Q&A(RAG) 기능도 지원한다.4.3. 로컬 서버 (OpenAI 호환 API)
LM Studio는 OpenAI의 API 형식과 호환되는 로컬 서버를 구동할 수 있다. 이를 통해 VS Code, Obsidian 등 외부 도구나 자체 제작 애플리케이션에서 로컬 LLM을 마치 OpenAI API처럼 활용할 수 있다.4.4. 개발자 SDK
2025년 3월, Python과 TypeScript(JavaScript)용 공식 SDK가 1.0.0 버전으로 출시되었다. 두 SDK 모두 MIT 라이선스로 GitHub에 공개되어 있다.- lmstudio-python: 동기(sync) 및 비동기(async) API 지원, Pydantic 기반 JSON 스키마 출력 강제 기능
- lmstudio-js: Node.js 및 브라우저 환경 모두 지원, Zod 기반 스키마 검증
- .act() API: 에이전트 지향 API로, 모델이 툴을 사용하여 여러 단계에 걸쳐 자율적으로 작업을 수행하는 기능
4.5. CLI 도구 (lms)
터미널에서 LM Studio를 제어할 수 있는 CLI(명령줄 인터페이스) 도구 `lms`를 제공한다. 모델 다운로드, 서버 제어, 대화 세션 실행 등이 가능하다.#!syntax bash
# 모델 다운로드 예시
lms get lmstudio-community/llama-3.2-1b-instruct-gguf@q4_k_m
4.6. MCP 지원
0.3.17 버전부터 MCP(Model Context Protocol) 호스트 기능이 추가되었다. MCP 서버를 앱에 연결하여 로컬 모델과 함께 사용할 수 있다.4.7. Speculative Decoding
0.3.10 버전에서 Speculative Decoding 기능이 도입되었다. llama.cpp 및 MLX 백엔드 모두에서 추론 속도를 향상시키는 기법이다.4.8. llmster (헤드리스 모드)
GUI 없이 서버·CI 환경에서 LM Studio의 핵심 기능을 사용할 수 있는 헤드리스 데몬(daemon)이다. Linux 서버나 클라우드 환경에서도 배포가 가능하다.4.9. LM Link
원격으로 LM Studio 인스턴스에 접속하여 로컬처럼 모델을 사용할 수 있는 기능이다. 미리보기 기간 중에는 최대 2명의 사용자, 5개 기기(총 10개 기기)까지 무료로 이용할 수 있다.5. 기술 구조
LM Studio는 Electron 기반의 데스크톱 애플리케이션으로, 프론트엔드는 React와 TypeScript로 구성되며 빌드 시스템으로 Vite를 사용한다.추론 백엔드는 두 가지를 지원한다:
- llama.cpp: GGUF 포맷 모델 실행. CPU, CUDA(NVIDIA GPU), Vulkan(범용 GPU), ROCm(AMD GPU), Metal(Apple GPU) 등 다양한 컴퓨팅 환경 지원
- Apple MLX: Apple Silicon(M1/M2/M3/M4) 맥에서 MLX 포맷 모델을 고성능으로 실행
임베딩 모델(nomic-embed-text-v1.5, EmbeddingGemma 등)도 지원하여 RAG 워크플로우 구성이 가능하다.
6. 시스템 요구사양
6.1. macOS
- 칩: Apple Silicon (M1/M2/M3/M4)
- RAM: 16GB 권장 (8GB에서도 작은 모델은 구동 가능)
- Intel 기반 Mac은 현재 미지원
6.2. Windows
- 아키텍처: x64 또는 ARM (Snapdragon X Elite)
- CPU: AVX2 명령어셋 지원 필요 (x64 기준)
- RAM: 16GB 이상 권장
- GPU: 전용 VRAM 4GB 이상 권장
6.3. Linux
- 아키텍처: x64 또는 ARM64 (aarch64)
- 배포 형식: AppImage
- Ubuntu 22.04 이상 권장
7. 라이선스 및 가격
- 데스크톱 애플리케이션 본체는 독점 소프트웨어(클로즈드 소스)이나 개인 및 상업적 이용 모두 무료
- 2025년 7월, Element Labs는 기존의 상업용 별도 라이선스 요건을 폐지하고 누구나 무료로 사용할 수 있도록 변경하였다.
- Python SDK(lmstudio-python), TypeScript SDK(lmstudio-js), CLI 도구(lms)는 MIT 라이선스로 오픈소스 공개
- 대규모 조직을 위한 엔터프라이즈 플랜(유료)도 제공
8. 유사 소프트웨어
- Ollama: CLI 기반의 로컬 LLM 실행 도구
- GPT4All: 오프라인 LLM 실행 GUI 애플리케이션
- Jan: 오픈소스 로컬 AI 채팅 애플리케이션
- koboldcpp: llama.cpp 기반 경량 로컬 AI 서버
9. 여담
- 공식 홈페이지: https://lmstudio.ai
- 2025년 기준 로컬 LLM 실행 도구 중 가장 널리 사용되는 도구 중 하나로 꼽힌다.
- NVIDIA GeForce RTX GPU와의 최적화 협업을 통해 CUDA 12.8 지원이 추가되어 RTX AI PC에서의 성능이 크게 향상되었다.
- 2025년 8월, OpenAI의 첫 오픈소스 LLM인 gpt-oss 모델의 출시 당일 지원을 공식 발표하였다.