DeepSeek 的本地部署是基于 Ollama➕WebUI 的方式部署,这里的Ollama用于后台运行LLM模型,WebUI由Chatbox或者Cherry Studio或者Page Assist提供支持。
安装Ollama
Ollama是一个基于Go语言开发的开源大型语言模型服务工具,Ollama简化在本地环境中部署和运行大型语言模型(LLM)的过程,可以将其类比为docker。Ollama 支持多平台部署,可以在官网,选择适合的平台,下载对应的安装包。
Ollama官网地址:https://ollama.com/
Ollama项目地址:https://github.com/ollama/ollama
Ollama模型库:https://ollama.com/library
ollama 安装之后,其同时还是一个命令,与模型交互就是通过命令来进行的。
ollama serve #启动ollama ollama create #从模型文件创建模型 ollama show #显示模型信息 ollama run #运行模型 ollama pull #从注册表中拉取模型 ollama push #将模型推送到注册表 ollama list #列出模型 ollama cp #复制模型 ollama rm #删除模型 ollama help #获取有关任何命令的帮助信息
下载&运行DeepSeek模型
在模型库https://ollama.com/library中,找到deepseek-r1模型
这里选择8b模型来调试
打开命令行工具,运行 ollama run deepseek-r1:8b
Ollama 没有图形界面,在后台运行
打开浏览器,访问 http://localhost:11434, 显示Ollama is running,表示正常运行。
配置可视化图形界面
ChatBox
下载并按照Chatbox,https://chatboxai.app/zh
打开Chatbox界面,在“选择并配置AI模型提供方”中,选择“使用自己的API Key或本地模型”
模型提供方选择“OLLAMA API”
模型选择:deepseek-r1:8b
然后就可以在chatbox图形界面输入问题
CherryStudio
下载并安装Cherry Studio,https://cherry-ai.com/
设置->模型服务->选择Ollama,
API地址输入:http://localhost:11434
模型选择:deepseek-r1:8b
Page Assist
Page Assist是一个Chrome浏览器的扩展程序;
https://github.com/n4ze3m/page-assist
https://chromewebstore.google.com/detail/page-assist-%E6%9C%AC%E5%9C%B0-ai-%E6%A8%A1%E5%9E%8B%E7%9A%84-web/jfgfiigpkhlkbnfnbobbkinehhfdhndo
后台运行DeepSeek
windows 可以创建个BAT后缀的文件,文件内容如下:
@echo off mode con cols=80 lines=25 title Ollama is Running localhost:11434 REM 运行 Ollama DeepSeek 模型 ollama run deepseek-r1:latest pause
DeepSeek文档
DeepSeek Prompt Library 提示库:https://api-docs.deepseek.com/zh-cn/prompt-library/
原创文章,转载请注明:转载自Web开发笔记 | DeepSeek的本地部署
本文链接地址:https://www.magentonotes.com/deepseek-local-deploy.html