🤖 AI/LLM
[LLM] LM Studio
heywantodo
2024. 6. 20. 13:36
728x90
반응형
[LLM] LM Studio
LM Studio는 컴퓨터에서 로컬 LLM을 실행하기 위한 데스크톱 애플리케이션이다.
localhost에서 실행되는 API 서버를 통해 LM Studio 내에서 로드한 LLM을 사용할 수 있다.
요청과 응답은 OpenAI의 API 형식을 따르며,
현재 OpenAI를 사용하는 코드가 localhost:PORT 대신 로컬 LLM을 사용하도록 지정한다.
지원하는 Endpoint
GET /v1/models
POST /v1/chat/completions
POST /v1/embeddings
POST /v1/completions
로컬 서버 구성
1. 공식 홈페이지에서 OS에 맞는 LM Studio를 설치한다.
👾 LM Studio - Discover and run local LLMs
Find, download, and experiment with local LLMs
lmstudio.ai
2. 앱 내에서 TheBloke/Mistral-7B-Instruct-v0.2-GGUF 와 같은 LLM을 검색하고 다운로드한다.
나는 테스트용으로 홈 화면에 Gemma의 경량 모델을 설치했다.
3. 로컬 서버 탭으로 이동한다.
4. 다운로드한 LLM을 로드한다.
5. 서버 시작 버튼을 클릭하여 서버를 시작한다.
참고
728x90
반응형