Windows安装
下载Ollama
- 打开Ollama官网https://ollama.com根据系统类型选择下载安装包(速度非常慢)。
- 点击这里极速下载Ollama,打开页面后点击
OllamaSetup.exe
安装Ollama
双击打开下载好的 OllamaSetup.exe
,然后点击 install
,等待安装完成会自动关闭窗口。
下载Model(模型)
在安装好Ollama之后,打开命令行窗口运行以下命令下载Model:
提示1:
Windows系统打开命令行,可以使用
Windows键 + r
打开运行
,然后输入cmd
后回车打开。
Windows键
就是 微软图标那个按键,田
字形状,通常在Ctrl
键旁边。提示2:
以下是筛选的比较流行且体验不错的Model。
系统可以运行那个Model,要看
当前系统剩余空闲内存大小
要大于 要运行的Model大小
。例子: 系统剩余5G可用内存,最大可运行3G左右的Model,因为要预留最少2G,否则电脑会卡死。
如果电脑有显卡,则
显存大小
要大于Model大小
。例子: 显存大小6G,Model小于6G即可,最好不要太接近,因为硬件生产空间计算是: 1G等于1000M,不是按1024M计算。
提示3:
在下载模型的时候,可能会越来越慢,可以使用快捷键
Ctrl + c
中断下载,然后重新执行命令继续下载,前提条件是不可以关闭窗口。提示4:
如果要在命令行对话,启动Model命令为
ollama run <model_name>
,比如ollama run deepseek-r1:8b
- deepseek-r1:7b 大小:4.7G
Bash | |
---|---|
- deepseek-r1:8b 大小:4.9G
Bash | |
---|---|
- deepseek-r1:14b 大小:9.0G
Bash | |
---|---|
- deepseek-r1:32b 大小:20G
Bash | |
---|---|
- deepseek-r1:70b 大小:43G
Bash | |
---|---|
- llama3.3 大小:43G
Bash | |
---|---|
- llama3.2 大小:2.0G
Bash | |
---|---|
- phi4 大小:9.1G
Bash | |
---|---|
- llama3.1 大小:4.9G
Bash | |
---|---|
- llama3.1:70b 大小:43G
Bash | |
---|---|
提示:
也可以自己打开官网Model列表查看选择想下载的Model。 Models地址: https://ollama.com/search
对话图形界面安装
- 打开Msty官网https://msty.app根据系统类型选择下载安装包(速度非常慢)。
- 点击这里可极速下载Msty,打开页面根据系统类型选择下载安装包