나무모에 미러 (일반/밝은 화면)
최근 수정 시각 : 2026-05-11 09:38:41

LM Studio

1. LM Studio

[include(틀:소프트웨어 정보,
이름=LM Studio,
개발사=Element Labs, Inc.,
개발자=Yagil Burowski,
발표일=2023년 5월,
운영체제=Windows, macOS, Linux,
종류=AI 추론 소프트웨어,
라이선스=프리웨어 (독점 소프트웨어),
링크=https://lmstudio.ai
)]
<colcolor=#6C31E3,#c49dff>
LM Studio
파일:lmstudio.png
<colbgcolor=#f8f4ff,#1a0a2e> 개발 Element Labs, Inc.
개발자 Yagil Burowski
출시 2023년 5월
라이선스 프리웨어 (본체 독점, SDK는 MIT)
용도 로컬 LLM 실행 및 추론 도구
운영체제 macOS (Apple Silicon) | Windows | Linux
웹사이트 파일:홈페이지 아이콘.svg
파일:X Corp 아이콘(블랙).svg
1. LM Studio2. 개요3. 개발사 및 역사
3.1. 개발사3.2. 출시 역사
4. 주요 기능
4.1. 모델 탐색 및 다운로드4.2. 채팅 인터페이스4.3. 로컬 서버 (OpenAI 호환 API)4.4. 개발자 SDK4.5. CLI 도구 (lms)4.6. MCP 지원4.7. Speculative Decoding4.8. llmster (헤드리스 모드)4.9. LM Link
5. 기술 구조6. 시스템 요구사양
6.1. macOS6.2. Windows6.3. Linux
7. 라이선스 및 가격8. 유사 소프트웨어9. 여담



LM Studio대규모 언어 모델(LLM)을 사용자의 로컬 컴퓨터에서 직접 다운로드하고 실행할 수 있는 데스크톱 애플리케이션이다. Element Labs, Inc.가 개발하였으며, 2023년 5월에 최초 공개되었다.

1. LM Studio2. 개요3. 개발사 및 역사
3.1. 개발사3.2. 출시 역사
4. 주요 기능
4.1. 모델 탐색 및 다운로드4.2. 채팅 인터페이스4.3. 로컬 서버 (OpenAI 호환 API)4.4. 개발자 SDK4.5. CLI 도구 (lms)4.6. MCP 지원4.7. Speculative Decoding4.8. llmster (헤드리스 모드)4.9. LM Link
5. 기술 구조6. 시스템 요구사양
6.1. macOS6.2. Windows6.3. Linux
7. 라이선스 및 가격8. 유사 소프트웨어9. 여담

2. 개요

LM Studio는 클라우드 서버 없이 AI 언어 모델을 로컬 환경에서 실행할 수 있도록 해주는 GUI 기반 소프트웨어이다. 사용자는 인터넷 연결 없이도 Llama, Gemma, Qwen, DeepSeek, Mistral 등 다양한 오픈소스 언어 모델을 실행하고 대화할 수 있다. 모든 추론(inference)이 로컬에서 이루어지기 때문에, 사용자 데이터가 외부 서버로 전송되지 않아 개인정보 보호 측면에서 장점이 있다.

개인 및 상업적 목적 모두 무료로 사용할 수 있으며, 별도의 구독료나 API 사용료가 없다.

3. 개발사 및 역사

3.1. 개발사

Element Labs, Inc.는 미국 뉴욕 브루클린에 소재한 소프트웨어 회사이다. 대표이자 창립자인 Yagil Burowski가 2023년에 설립하였으며, 그는 이전에 Apple에서 근무한 경력이 있다. 2025년 기준 직원 수는 약 16명이며, 연 매출은 약 180만 달러로 알려져 있다.

2025년 4월 25일에는 Matrix, Preston-Werner Ventures, Torch Capital 등의 투자사로부터 시리즈 B 라운드로 1,930만 달러의 투자를 유치하였다.

3.2. 출시 역사

버전 출시 시기 주요 변경사항
0.1.x 2023년 5월 최초 공개. Hugging Face 모델 탐색·다운로드 및 채팅 기능
0.2.x 2023년 하반기 macOS, Linux 지원 확대
0.3.x 2024~2025년 로컬 서버 기능, MLX 지원, Speculative Decoding, MCP 지원
0.3.11 2025년 3월 Python·TypeScript SDK 출시, Speculative Decoding 고급 설정
0.3.17 2025년 MCP(Model Context Protocol) 호스트 기능 도입
0.4.x 2025년 이후 CLI 채팅, llmster(헤드리스 모드), LM Studio Hub 등

4. 주요 기능

4.1. 모델 탐색 및 다운로드

앱 내 모델 카탈로그를 통해 Hugging Face에서 제공되는 다양한 오픈 가중치(open-weight) 모델을 검색하고 다운로드할 수 있다. GGUF 포맷과 MLX 포맷 모델을 지원한다.

지원하는 주요 모델 계열:

4.2. 채팅 인터페이스

다운로드한 모델과 직접 대화할 수 있는 GUI 채팅 화면을 제공한다. 시스템 프롬프트 설정, 멀티턴 대화, 컨텍스트 길이 조절 등의 기능이 포함되어 있다. 문서 기반 Q&A(RAG) 기능도 지원한다.

4.3. 로컬 서버 (OpenAI 호환 API)

LM Studio는 OpenAI의 API 형식과 호환되는 로컬 서버를 구동할 수 있다. 이를 통해 VS Code, Obsidian 등 외부 도구나 자체 제작 애플리케이션에서 로컬 LLM을 마치 OpenAI API처럼 활용할 수 있다.

4.4. 개발자 SDK

2025년 3월, Python과 TypeScript(JavaScript)용 공식 SDK가 1.0.0 버전으로 출시되었다. 두 SDK 모두 MIT 라이선스로 GitHub에 공개되어 있다.

4.5. CLI 도구 (lms)

터미널에서 LM Studio를 제어할 수 있는 CLI(명령줄 인터페이스) 도구 `lms`를 제공한다. 모델 다운로드, 서버 제어, 대화 세션 실행 등이 가능하다.
#!syntax bash
# 모델 다운로드 예시
lms get lmstudio-community/llama-3.2-1b-instruct-gguf@q4_k_m

4.6. MCP 지원

0.3.17 버전부터 MCP(Model Context Protocol) 호스트 기능이 추가되었다. MCP 서버를 앱에 연결하여 로컬 모델과 함께 사용할 수 있다.

4.7. Speculative Decoding

0.3.10 버전에서 Speculative Decoding 기능이 도입되었다. llama.cpp 및 MLX 백엔드 모두에서 추론 속도를 향상시키는 기법이다.

4.8. llmster (헤드리스 모드)

GUI 없이 서버·CI 환경에서 LM Studio의 핵심 기능을 사용할 수 있는 헤드리스 데몬(daemon)이다. Linux 서버나 클라우드 환경에서도 배포가 가능하다.

4.9. LM Link

원격으로 LM Studio 인스턴스에 접속하여 로컬처럼 모델을 사용할 수 있는 기능이다. 미리보기 기간 중에는 최대 2명의 사용자, 5개 기기(총 10개 기기)까지 무료로 이용할 수 있다.

5. 기술 구조

LM Studio는 Electron 기반의 데스크톱 애플리케이션으로, 프론트엔드는 ReactTypeScript로 구성되며 빌드 시스템으로 Vite를 사용한다.

추론 백엔드는 두 가지를 지원한다:
임베딩 모델(nomic-embed-text-v1.5, EmbeddingGemma 등)도 지원하여 RAG 워크플로우 구성이 가능하다.

6. 시스템 요구사양

6.1. macOS

6.2. Windows

6.3. Linux

7. 라이선스 및 가격

8. 유사 소프트웨어

9. 여담