跳转至

Windows安装

下载Ollama

安装Ollama

双击打开下载好的 OllamaSetup.exe ,然后点击 install ,等待安装完成会自动关闭窗口。

下载Model(模型)

在安装好Ollama之后,打开命令行窗口运行以下命令下载Model:

提示1:

Windows系统打开命令行,可以使用 Windows键 + r 打开运行,然后输入 cmd 后回车打开。

Windows键 就是 微软图标那个按键, 字形状,通常在 Ctrl 键旁边。

提示2:

以下是筛选的比较流行且体验不错的Model。

系统可以运行那个Model,要看当前系统剩余空闲内存大小 要大于 要运行的Model大小

例子: 系统剩余5G可用内存,最大可运行3G左右的Model,因为要预留最少2G,否则电脑会卡死。

如果电脑有显卡,则显存大小 要大于 Model大小

例子: 显存大小6G,Model小于6G即可,最好不要太接近,因为硬件生产空间计算是: 1G等于1000M,不是按1024M计算。

提示3:

在下载模型的时候,可能会越来越慢,可以使用快捷键 Ctrl + c 中断下载,然后重新执行命令继续下载,前提条件是不可以关闭窗口。

提示4:

如果要在命令行对话,启动Model命令为 ollama run <model_name>,比如 ollama run deepseek-r1:8b

  • deepseek-r1:7b 大小:4.7G
Bash
ollama pull deepseek-r1:7b
  • deepseek-r1:8b 大小:4.9G
Bash
ollama pull deepseek-r1:8b
  • deepseek-r1:14b 大小:9.0G
Bash
ollama pull deepseek-r1:14b
  • deepseek-r1:32b 大小:20G
Bash
ollama pull deepseek-r1:32b
  • deepseek-r1:70b 大小:43G
Bash
ollama pull deepseek-r1:70b
  • llama3.3 大小:43G
Bash
ollama pull llama3.3
  • llama3.2 大小:2.0G
Bash
ollama pull llama3.2
  • phi4 大小:9.1G
Bash
ollama pull phi4
  • llama3.1 大小:4.9G
Bash
ollama pull llama3.1
  • llama3.1:70b 大小:43G
Bash
ollama pull llama3.1:70b

提示:

也可以自己打开官网Model列表查看选择想下载的Model。 Models地址: https://ollama.com/search


对话图形界面安装

  • 打开Msty官网https://msty.app根据系统类型选择下载安装包(速度非常慢)。
  • 点击这里可极速下载Msty,打开页面根据系统类型选择下载安装包