前两天发了一个关于Ollama 项目的介绍的文章,今天就接着说一下通过几行代码在本地部署DeepSeek,当然如果你是windows系统也是差不多的步骤,都是控制台运行,之所以在这边都是推荐直接跑控制台是因为这样占用系统内容更少,减轻跑ai时候的系统压力。

打开ollama软件之后,在控制台运行指令: ollama run deepseek-r1:8b
在此之前你需要先安装Ollama,这个比较简单,只需在官网下载(https://ollama.com/ ),运行即可。
随后控制台输入下面指令,运行 deepseek-r1:8b 版的大模型,如果未下载,会直接进行下载。

下图中使用的这个版本的模型较为小巧,也够日常使用,在ai思考的时候,我看下了gpu的内存占用情况,峰值大概接近90%左右。

目前我的Mac mini配置为 M4/24g/1T 版,运行起来没有卡顿,并且不影响其他工作,如果你也有类似需求,可以无痛部署一个本地ai ❤️。
下面欣赏下8b小模型生成的文章:
