DeepSeek LLM 다운로드 — Ollama와 LM Studio 설치·실행 완전 정리
DeepSeek은 최근 가장 빠르게 확산되고 있는 오픈소스 대형 언어 모델 중 하나다.
특히 DeepSeek-R1과 DeepSeek-Coder 모델은 로컬 PC에서도 직접 실행할 수 있게 제공되며, GPU를 활용하면 클라우드 비용 없이 개인용 AI 환경을 구축할 수 있다.
목차
이 글에서는 DeepSeek LLM을 로컬에서 다운로드해서 실행하는 두 가지 대표 방식, 즉 Ollama와 LM Studio를 한 번에 정리한다.
DeepSeek LLM 다운로드 DeepSeek 공식 링크 모음
DeepSeek 관련 공식 정보는 아래에서 확인할 수 있다.
DeepSeek 홈페이지
https://www.deepseek.com/
DeepSeek HuggingFace 모델 페이지
https://huggingface.co/deepseek-ai
1. Ollama로 DeepSeek 실행하기
Ollama는 명령어 기반으로 작동하며, 설치 후 한 줄 명령으로 모델을 다운로드할 수 있는 가장 간단한 도구다.
1-1. Ollama 설치 방법
공식 다운로드 페이지에서 운영체제에 맞는 파일을 내려받아 설치한다.
Ollama 다운로드
https://ollama.com/download
설치 후 PowerShell 또는 터미널에서 “ollama –version”을 입력해 버전을 확인한다.
1-2. DeepSeek 모델 다운로드
Ollama는 DeepSeek 모델을 공식 저장소로 바로 제공하고 있어, 명령어만 입력하면 자동 다운로드된다.
DeepSeek-R1 다운로드
ollama pull deepseek-r1
DeepSeek-Coder 다운로드
ollama pull deepseek-coder
DeepSeek-Chat 다운로드
ollama pull deepseek-chat
1-3. DeepSeek 실행
DeepSeek LLM 다운로드가 완료되면 아래 예시처럼 실행할 수 있다.
deepseek-r1 실행
ollama run deepseek-r1
프롬프트 입력 화면이 나타나면 바로 대화를 시작할 수 있다.
2. LM Studio로 DeepSeek 실행하기
LM Studio는 데스크탑 UI 기반이라 초보자도 사용하기 쉬운 방식이다.
모델 검색, 다운로드, 설정을 모두 버튼 클릭만으로 해결할 수 있다.
2-1. LM Studio 다운로드
LM Studio 공식 다운로드
https://lmstudio.ai/
설치 후 프로그램을 실행하면 ‘Models’ 메뉴에서 모델을 검색할 수 있다.
2-2. DeepSeek 모델 검색
검색창에 다음 키워드를 입력하면 DeepSeek 관련 GGUF 모델들이 표시된다.
deepseek
deepseek-r1
deepseek-coder
deepseek-chat
2-3. 모델 다운로드 및 로딩
원하는 모델을 클릭하면 자동으로 다운로드된다.
완료 후 “Load Model” 버튼을 클릭하면 GPU 메모리에 로딩되며 즉시 대화창에서 사용할 수 있다.
3. 어떤 방식이 더 좋은가?
둘 중 어떤 방식을 선택할지는 사용 목적에 따라 달라진다.
Ollama가 적합한 경우
- 명령어(CLI) 환경에 익숙하다
- 서버에서 돌리고 싶다
- API 형태로 로컬 AI 서버를 구축하고 싶다
- Docker나 자동화와 연동하려는 개발자
LM Studio가 적합한 경우
- 초보자
- UI 기반 환경이 편하다
- 모델을 여러 개 설치하고 비교할 계획
- 로컬 ChatGPT처럼 편하게 쓰고 싶은 사용자
4. DeepSeek 모델 용량 참고
DeepSeek 모델은 용량이 다양하며, GPU VRAM에 따라 선택해야 한다.
DeepSeek-R1 7B 모델: 약 4GB (GTX 1660, RTX 2060 수준에서도 실행 가능)
DeepSeek-R1 32B 모델: 약 18~20GB (VRAM 16GB 이상 권장)
DeepSeek-Coder: 약 6~12GB
DeepSeek-Chat: 약 4~8GB
대부분의 사용자에게는 7B 모델이 가장 안정적이며, 속도 또한 빠르다.
5. DeepSeek 로컬 실행의 장점
- 매달 비용 없이 무료로 사용할 수 있다
- GPU가 있다면 체감 속도는 클라우드 모델 못지않다
- 개인정보가 서버로 업로드되지 않는다
- 개발자라면 로컬 API 서버로 만들어 앱이나 웹서비스와 연결할 수 있다
정리
DeepSeek LLM은 로컬 환경에서 쉽고 빠르게 실행할 수 있는 고성능 오픈소스 모델이다.
Ollama를 사용하면 명령어 기반으로 간단하게 실행할 수 있고,
LM Studio를 사용하면 UI 기반으로 손쉽게 다운로드하고 관리할 수 있다.
두 방식 모두 장단점이 있으므로, 환경과 목적에 맞게 선택하면 된다.