在Ubuntu服务器上部署DeepSeek模型 不指定

jed , 2025-2-17 16:40 , 服务器技术 , 评论(0) , 阅读(158) , Via 本站原创 | |
一、在Ubuntu服务器上部署DeepSeek模型
要在Ubuntu上通过Ollama安装和使用DeepSeek模型,可以按照以下步骤操作:

安装Ollama
1、使用命令安装Ollama

curl -sSfL https://ollama.com/install.sh | sh

2、验证安装是否成功
安装完之后,您可以通过以下命令验证Ollama是否安装成功

ollama --version


下载DeepSeek模型

ollama pull deepseek-r1:14b


运行模型

ollama run deepseek-r1:14b


远程访问:


sudo vi /etc/systemd/system/ollama.service

增加

Environment="OLLAMA_HOST=0.0.0.0"
Environment="OLLAMA_ORIGINS=*"



[Unit]
Description=Ollama Service
After=network-online.target

[Service]
ExecStart=/usr/local/bin/ollama serve
User=ollama
Group=ollama
Restart=always
RestartSec=3
#Environment="PATH=/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/sbin:/bin:/usr/games:/usr/local/games:/snap/bin"
#EnVironment="OLTAMA_HOST=0.0.0.0:11434"
Environment="OLLAMA_HOST=0.0.0.0"
Environment="OLLAMA_ORIGINS=*"
[Install]
#WantedBy=default.target
WantedBy=multi-user.target



重启服务

systemctl daemon-reload
systemctl restart ollama


验证Ollama服务是否正常运行

sudo netstat -tulpn | grep ollama


如图所示,则为正常。

点击在新窗口中浏览此图片

测试远程访问

curl http://192.168.2.150:11434


返回

Ollama is running


则正常
发表评论

昵称

网址

电邮

打开HTML 打开UBB 打开表情 隐藏 记住我 [登入] [注册]