搭建本地AI大模型备忘(ollama+qwen)一
以Linux为例:
- 安装Ollama:curl -fsSL https://ollama.com/install.sh | sh
- 修改环境变量: - 通过调用 systemctl edit ollama.service编辑systemd服务。这将打开一个编辑器。 
 或者创建 /etc/systemd/system/ollama.service.d/environment.conf配置文件- [Service] Environment="OLLAMA_HOST=0.0.0.0"- 并重启 - systemctl daemon-reload systemctl restart ollama
- 部署模型 - 仓库: https://ollama.com/search 
 运行: ollama run 模型名:版本号
