一、在Ubuntu服务器上部署DeepSeek模型
要在Ubuntu上通过Ollama安装和使用DeepSeek模型,可以按照以下步骤操作:
安装Ollama
1、使用命令安装Ollama
curl -sSfL https://ollama.com/install.sh | sh
2、验证安装是否成功
安装完之后,您可以通过以下命令验证Ollama是否安装成功
ollama --version
下载DeepSeek模型
ollama pull deepseek-r1:14b
运行模型
ollama run deepseek-r1:14b
远程访问:
sudo vi /etc/systemd/system/ollama.service
增加
Environment="OLLAMA_HOST=0.0.0.0"
Environment="OLLAMA_ORIGINS=*"
[Unit]
Description=Ollama Service
After=network-online.target
[Service]
ExecStart=/usr/local/bin/ollama serve
User=ollama
Group=ollama
Restart=always
RestartSec=3
#Environment="PATH=/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/sbin:/bin:/usr/games:/usr/local/games:/snap/bin"
#EnVironment="OLTAMA_HOST=0.0.0.0:11434"
Environment="OLLAMA_HOST=0.0.0.0"
Environment="OLLAMA_ORIGINS=*"
[Install]
#WantedBy=default.target
WantedBy=multi-user.target
重启服务
systemctl daemon-reload
systemctl restart ollama
验证Ollama服务是否正常运行
sudo netstat -tulpn | grep ollama
如图所示,则为正常。

测试远程访问
curl http://192.168.2.150:11434
返回
Ollama is running
则正常
要在Ubuntu上通过Ollama安装和使用DeepSeek模型,可以按照以下步骤操作:
安装Ollama
1、使用命令安装Ollama
curl -sSfL https://ollama.com/install.sh | sh
2、验证安装是否成功
安装完之后,您可以通过以下命令验证Ollama是否安装成功
ollama --version
下载DeepSeek模型
ollama pull deepseek-r1:14b
运行模型
ollama run deepseek-r1:14b
远程访问:
sudo vi /etc/systemd/system/ollama.service
增加
Environment="OLLAMA_HOST=0.0.0.0"
Environment="OLLAMA_ORIGINS=*"
[Unit]
Description=Ollama Service
After=network-online.target
[Service]
ExecStart=/usr/local/bin/ollama serve
User=ollama
Group=ollama
Restart=always
RestartSec=3
#Environment="PATH=/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/sbin:/bin:/usr/games:/usr/local/games:/snap/bin"
#EnVironment="OLTAMA_HOST=0.0.0.0:11434"
Environment="OLLAMA_HOST=0.0.0.0"
Environment="OLLAMA_ORIGINS=*"
[Install]
#WantedBy=default.target
WantedBy=multi-user.target
重启服务
systemctl daemon-reload
systemctl restart ollama
验证Ollama服务是否正常运行
sudo netstat -tulpn | grep ollama
如图所示,则为正常。
测试远程访问
curl http://192.168.2.150:11434
返回
Ollama is running
则正常