简单3步,80岁老奶奶也会本地部署DeepSeek(建议偷偷学)
DeepSeek能干事情越来越多,但是也常常面临无法联网,或者拥堵的糟糕体验。
如果能将DeepSeek部署在自己电脑里面,那就可以训练自己的专属AI资料库,想干啥就干啥,那岂不是很爽!
理想很美好,现实太骨感!不少朋友都无法跑通全链路,更有粉丝过来求助。
所以,我花了一天的时间研究了超简单的3步骤方案,现在免费分享给大家,看完你也能部署DeepSeek最强模型(就凭这一点,都值得你点赞转发给朋友)
可能还有人丈二和尚摸不着头脑,为啥要部署在本地呢?
我来告诉你,在本地运行 AI 模型具有以下优势:
🌟隐私:数据保留在你的设备上 — — 不存在共享敏感信息的风险;
🌟成本: DeepSeek R1 可免费使用,无需订阅费或使用费;
🌟控制:无需外部依赖即可进行微调和实验。
话不多说,直接上教程,只需3步即可完成✅
第一步,下载⬇️安装Ollama
在本地运行DeepSeek R1,你要使用到Ollama。
这是一种专门为用户在自己的设备上运行AI模型而设计的工具。
https://ollama.com/download

第二步,获取 DeepSeek R1 模型
Ollama 支持 DeepSeek R1 的几乎所有版本。
模型所需GPU越大越智能,根据你电脑设备的GPU选择即可
目前DeepSeek R1版本:
🔹1.5B(最小最高效)
🔹8B
🔹14B
🔹32B
🔹70B(最大、最智能,最耗设备GPU)
建议选择运行1.5B模型即可

⚠️打开你的终端(下面以Mac系统为例)
🌟windows电脑:
使用Win + R,在运行对话框中输入“cmd”;
🌟MAC电脑:
使用 command + space(空格),输入terminal 打开终端;
运行以下指令:ollama run deepseek-r1:1.5b
如果报错,可以使用以下指令:ollama run deepseek-r1
使用上述指令后,系统会自动下载。根据网速,一般10分钟左右搞定。
完成下载后,模型即可运行。

第三步,安装聊天框
前两步部署完成后,此时你已经在电脑部署好了DeepSeek,可以通过终端与DeepSeek R1进行交互。
但如果想要一个更哇塞流程的体验,可以使用GUI。
一般使用Chatbox与本地模型集成,这是一个免费且注重隐私的桌面客户端。
Chatbox下载: https://chatboxai.app/en# (选择中文版)
安装完成后,在选择配置API模型那里选择“Ollama API”;
API主机设置为:http://127.0.0.1:11434
选择 DeepSeek R1 作为活动模型
保存

这是大功告成后的最终结果。
如何学习大模型 AI ?
由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。
但是具体到个人,只能说是:
“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。
这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。
我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。
我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。