极速下载
Ollama官网提供的是Github下载地址,由于Github无法打开或打开很慢,导致下载速度很慢,本站通过对官网的下载地址进行加速,提供更为快速稳定的下载体验
Ollama官网提供的是Github下载地址,由于Github无法打开或打开很慢,导致下载速度很慢,本站通过对官网的下载地址进行加速,提供更为快速稳定的下载体验
本站仅对官网的下载地址进行加速下载,因此,您下载下来的安装包是和官网一致的。你也可以前往Ollama的Github主页获取Ollama下载地址,然后通过Github加速工具自行下载
在终端输入命令:ollama run deepseek-r1
默认是7B版本(4.7GB),如果你的设备配置高,可以尝试70B版本(需要24GB+显存)。下载完成后,直接输入:ollama run deepseek-r1 运行DeepSeek R1,然后就可以开始和AI对话啦!
1. 启动Ollama服务: ollama serve
2. 从模型文件创建模型: ollama create
3. 显示模型信息: ollama show
4. 运行模型: ollama run 模型名称
5. 从注册表中拉去模型: ollama pull 模型名称
6. 将模型推送到注册表: ollama push
7. 列出模型: ollama list
8. 复制模型: ollama cp
9. 删除模型: ollama rm 模型名称
10. 获取有关Ollama任何命令的帮助信息: ollama help
1. 查看支持的指令:使用命令 /?
2. 退出对话模型:使用命令 /bye
3. 显示模型信息:使用命令 /show
4. 设置对话参数:使用命令 /set 参数名 参数值,例如设置温度(temperature)或top_k值
5. 清理上下文:使用命令 /clear
6. 动态切换模型:使用命令 /load 模型名称
7. 存储模型:使用命令 /save 模型名称
8. 查看快捷键:使用命令 /?shortcuts
如果你觉得命令行不够友好,可以搭配Open Web UI、AnythingLLM等使用!
以Open Web UI为例,安装Docker后,运行命令:docker run -d -p 3000:8080 --name open-webui --restart always ghcr.io/open-webui/open-webui:main
打开浏览器,访问http://localhost:3000,选择DeepSeek R1模型,就能在可视化界面中愉快地聊天啦!