DeepSeek的本地部署

by Web全栈工程师 on 2025 年 01 月 28 日

DeepSeek 的本地部署是基于 Ollama➕WebUI 的方式部署,这里的Ollama用于后台运行LLM模型,WebUI由Chatbox或者Cherry Studio或者Page Assist提供支持。

安装Ollama

Ollama是一个基于Go语言开发的开源大型语言模型服务工具,Ollama简化在本地环境中部署和运行大型语言模型(LLM)的过程,可以将其类比为docker。Ollama 支持多平台部署,可以在官网,选择适合的平台,下载对应的安装包。
Ollama官网地址:https://ollama.com/
Ollama项目地址:https://github.com/ollama/ollama
Ollama模型库:https://ollama.com/library
ollama 安装之后,其同时还是一个命令,与模型交互就是通过命令来进行的。
ollama serve #启动ollama
ollama create #从模型文件创建模型
ollama show #显示模型信息
ollama run #运行模型
ollama pull #从注册表中拉取模型
ollama push #将模型推送到注册表
ollama list #列出模型
ollama cp #复制模型
ollama rm #删除模型
ollama help #获取有关任何命令的帮助信息

下载&运行DeepSeek模型

在模型库https://ollama.com/library中,找到deepseek-r1模型
这里选择8b模型来调试
打开命令行工具,运行 ollama run deepseek-r1:8b
Ollama 没有图形界面,在后台运行
打开浏览器,访问 http://localhost:11434, 显示Ollama is running,表示正常运行。

配置可视化图形界面

ChatBox

下载并按照Chatbox,https://chatboxai.app/zh
打开Chatbox界面,在“选择并配置AI模型提供方”中,选择“使用自己的API Key或本地模型”
模型提供方选择“OLLAMA API”
模型选择:deepseek-r1:8b
然后就可以在chatbox图形界面输入问题

 
CherryStudio

下载并安装Cherry Studio,https://cherry-ai.com/
设置->模型服务->选择Ollama,
API地址输入:http://localhost:11434
模型选择:deepseek-r1:8b

 
Page Assist

Page Assist是一个Chrome浏览器的扩展程序;

https://github.com/n4ze3m/page-assist

https://chromewebstore.google.com/detail/page-assist-%E6%9C%AC%E5%9C%B0-ai-%E6%A8%A1%E5%9E%8B%E7%9A%84-web/jfgfiigpkhlkbnfnbobbkinehhfdhndo

后台运行DeepSeek

windows 可以创建个BAT后缀的文件,文件内容如下:
@echo off
mode con cols=80 lines=25
title Ollama is Running localhost:11434
REM 运行 Ollama DeepSeek 模型
ollama run deepseek-r1:latest
pause

DeepSeek文档

DeepSeek Prompt Library 提示库:https://api-docs.deepseek.com/zh-cn/prompt-library/

原创文章,转载请注明:转载自Web开发笔记 | DeepSeek的本地部署

本文链接地址:https://www.magentonotes.com/deepseek-local-deploy.html

Leave a Comment

Previous post: