震惊, 我用 DeepSeek R1 部署了一个应用,效果真香!!!
一、背景
2025年1月20日,杭州深度求索人工智能基础技术研究有限公司发布了高性能AI推理模型 DeepSeek R1,标志着国产AI技术的重大突破。该模型在数学、代码和自然语言推理等任务上表现出色,性能与OpenAI的o1正式版相当,且以开源形式向全球开发者开放,遵循MIT协议,支持免费商用。
二、DeepSeek R1的核心优势
强化学习驱动的推理能力:R1在后训练阶段应用强化学习技术,无需大量监督微调数据,显著提升推理能力,降低训练成本。
长链推理与模型蒸馏:采用长链推理技术,逐步分解复杂问题,支持模型蒸馏,可将推理能力迁移到小型模型中,满足特定场景需求。
开源与灵活的许可证:遵循MIT License开源协议,允许自由使用、修改和商用,推动AI技术普及与创新。
三、性能评测对比
3.1 DeepSeek-R1-Evaluation
对于所有模型,最大生成长度均设置为32,768个标记。对于需要采样的基准测试,我们使用0.6的温度值、0.95的top-p值,并针对每个查询生成64个响应以估算pass@1。
| Category | Benchmark (Metric) | Claude-3.5-Sonnet-1022 | GPT-4o 0513 | DeepSeek V3 | OpenAI o1-mini | OpenAI o1-1217 | DeepSeek R1 |
|---|---|---|---|---|---|---|---|
| Architecture | - | - | MoE | - | - | MoE | |
| # Activated Params | - | - | 37B | - | - | 37B | |
| # Total Params | - | - | 671B | - | - | 671B | |
| English | MMLU (Pass@1) | 88.3 | 87.2 | 88.5 | 85.2 | 91.8 | 90.8 |
| MMLU-Redux (EM) | 88.9 | 88.0 | 89.1 | 86.7 | - | 92.9 | |
| MMLU-Pro (EM) | 78.0 | 72.6 | 75.9 | 80.3 | - | 84.0 | |
| DROP (3-shot F1) | 88.3 | 83.7 | 91.6 | 83.9 | 90.2 | 92.2 | |
| IF-Eval (Prompt Strict) | 86.5 | 84.3 | 86.1 | 84.8 | - | 83.3 | |
| GPQA-Diamond (Pass@1) | 65.0 | 49.9 | 59.1 | 60.0 | 75.7 | 71.5 | |
| SimpleQA (Correct) | 28.4 | 38.2 | 24.9 | 7.0 | 47.0 | 30.1 | |
| FRAMES (Acc.) | 72.5 | 80.5 | 73.3 | 76.9 | - | 82.5 | |
| AlpacaEval2.0 (LC-winrate) | 52.0 | 51.1 | 70.0 | 57.8 | - | 87.6 | |
| ArenaHard (GPT-4-1106) | 85.2 | 80.4 | 85.5 | 92.0 | - | 92.3 | |
| Code | LiveCodeBench (Pass@1-COT) | 33.8 | 34.2 | - | 53.8 | 63.4 | 65.9 |
| Codeforces (Percentile) | 20.3 | 23.6 | 58.7 | 93.4 | 96.6 | 96.3 | |
| Codeforces (Rating) | 717 | 759 | 1134 | 1820 | 2061 | 2029 | |
| SWE Verified (Resolved) | 50.8 | 38.8 | 42.0 | 41.6 | 48.9 | 49.2 | |
| Aider-Polyglot (Acc.) | 45.3 | 16.0 | 49.6 | 32.9 | 61.7 | 53.3 | |
| Math | AIME 2024 (Pass@1) | 16.0 | 9.3 | 39.2 | 63.6 | 79.2 | 79.8 |
| MATH-500 (Pass@1) | 78.3 | 74.6 | 90.2 | 90.0 | 96.4 | 97.3 | |
| CNMO 2024 (Pass@1) | 13.1 | 10.8 | 43.2 | 67.6 | - | 78.8 | |
| Chinese | CLUEWSC (EM) | 85.4 | 87.9 | 90.9 | 89.9 | - | 92.8 |
| C-Eval (EM) | 76.7 | 76.0 | 86.5 | 68.9 | - | 91.8 | |
| C-SimpleQA (Correct) | 55.4 | 58.7 | 68.0 | 40.3 | - | 63.7 |
3.2 Distilled Model Evaluation
DeepSeek此次发布了R1-Zero、R1以及多个蒸馏后的小模型,以下是它们的性能对比:
| Model | AIME 2024 pass@1 | AIME 2024 cons@64 | MATH-500 pass@1 | GPQA Diamond pass@1 | LiveCodeBench pass@1 | CodeForces rating |
|---|---|---|---|---|---|---|
| GPT-4o-0513 | 9.3 | 13.4 | 74.6 | 49.9 | 32.9 | 759 |
| Claude-3.5-Sonnet-1022 | 16.0 | 26.7 | 78.3 | 65.0 | 38.9 | 717 |
| o1-mini | 63.6 | 80.0 | 90.0 | 60.0 | 53.8 | 1820 |
| QwQ-32B-Preview | 44.0 | 60.0 | 90.6 | 54.5 | 41.9 | 1316 |
| DeepSeek-R1-Distill-Qwen-1.5B | 28.9 | 52.7 | 83.9 | 33.8 | 16.9 | 954 |
| DeepSeek-R1-Distill-Qwen-7B | 55.5 | 83.3 | 92.8 | 49.1 | 37.6 | 1189 |
| DeepSeek-R1-Distill-Qwen-14B | 69.7 | 80.0 | 93.9 | 59.1 | 53.1 | 1481 |
| DeepSeek-R1-Distill-Qwen-32B | 72.6 | 83.3 | 94.3 | 62.1 | 57.2 | 1691 |
| DeepSeek-R1-Distill-Llama-8B | 50.4 | 80.0 | 89.1 | 49.0 | 39.6 | 1205 |
| DeepSeek-R1-Distill-Llama-70B | 70.0 | 86.7 | 94.5 | 65.2 | 57.5 | 1633 |
从表中可以看出,R1蒸馏后的小模型在推理能力上显著超越了原始的Qwen2.5和Llama模型,展现了R1推理模式的高效迁移性。
四、DeepSeek R1 模型的本地部署
DeepSeek R1蒸馏出的1.5B、7B、8B、14B等小模型非常适合在本地部署,尤其适合资源有限的中小企业和开发者。以下是常用的部署工具和方法:
4.1 工具推荐
Ollama:一个开源的大型语言模型服务工具,支持多GPU配置、热加载模型和与OpenAI兼容的API接口,适合快速部署和运行大规模预训练语言模型。
vLLM:支持FP8和BF16推理模式,适合高吞吐量的推理任务。
LMDeploy:支持本地和云部署,提供高效的FP8和BF16推理支持。
TensorRT-LLM:支持INT4/8量化,适合需要极致性能的场景。
SGLang:完全支持BF16和FP8推理模式,适合多令牌预测任务。
注:本文章主要使用 Ollama 部署 DeepSeek R1。
4.2 安装Ollama
首先,我们需要让 Ollama 在您的计算机上启动并运行。方法如下:访问 Ollama 网站 (ollama.com) 并下载与您的操作系统匹配的版本。下载后,运行安装程序并按照提示操作。

`$ curl -fsSL https://ollama.com/install.sh | sh`
4.3 验证 Ollama 安装
在我们继续之前,让我们确保 Ollama 已正确安装。打开终端或命令提示符并输入:
`$ ollama --version`
注:如果您看到弹出版本号,那么您就成功了!如果没有,请仔细检查您是否正确遵循了安装步骤。
4.4 下载Deepseek R1
Ollama 让下载 Deepseek R1 变得轻而易举。只需在终端中运行以下命令:
`$ ollama run deepseek-r1`
这可能需要一段时间,具体取决于您的互联网速度。
4.5 运行 Deepseek R1
下载完成后,您就可以启动 Deepseek R1。使用这个命令:
`# Default 7B model (4.7GB - ideal for consumer GPUs) $ ollama run deepseek-r1 # Larger 70B model (requires 24GB+ VRAM) $ ollama run deepseek-r1:70b # Actual DeepSeek-R1 (requires 336GB+ VRAM for 4-bit quantization) $ ollama run deepseek-r1:671b`
设置 Open Web UI(私有接口)。确保你的机器上安装了 docker,然后通过在终端上运行来安装 Open Web UI:
docker run -d -p 3000:8080 \ --add-host=host.docker.internal:host-gateway \ -v open-webui:/app/backend/data \ --name open-webui \ --restart always \ ghcr.io/open-webui/open-webui:main
访问 http://localhost:3000 并选择 deepseek-r1:latest。所有数据都保留在你的机器上 - 没有云跟踪或数据泄露。
五、试用一下 Deepseek R1
让我们尝试让模型创建一个贪吃蛇游戏。如下图所示,模型执行了所有思路以获得最佳响应。确实,它所花费的时间不是很好,但至少我们得到了模型更高效的响应。

它做得很不错,但花了将近 3 分钟!

六、将 DeepSeek-R1 集成到你的项目中
有两种集成方法。第一种是使用 DeepSeek-R1 本地部署(如上一节所示),第二种是使用 DeepSeek 服务器的云 API(可用于生产)。
6.1 本地部署(隐私优先)
使用你的 Ollama 实例作为 OpenAI 兼容端点:
import openai # Connect to your local Ollama instance client = openai.Client( base_url="http://localhost:11434/v1", api_key="ollama" # Authentication-free private access ) response = client.chat.completions.create( model="deepseek-r1:XXb", # change the "XX" by the distilled model you choose messages=[{"role": "user", "content": "Explain blockchain security"}], temperature=0.7 # Controls creativity vs precision )
6.2 使用官方 DeepSeek-R1 云 API
对于可扩展的应用程序,请使用 DeepSeek 的官方 API,你可以在此处通过创建帐户并生成一个密钥来获取 DeepSeek API 密钥:
import openai from dotenv import load_dotenv import os load_dotenv() client = openai.OpenAI( base_url="https://api.deepseek.com/v1", api_key=os.getenv("DEEPSEEK_API_KEY") ) response = client.chat.completions.create( model="deepseek-reasoner", messages=[{"role": "user", "content": "Write web scraping code with error handling"}], max_tokens=1000 # Limit costs for long responses )
七、总结
DeepSeek R1的发布标志着国产AI技术的又一次重大突破。其强大的推理能力、开源生态以及高性价比的API服务,为全球开发者和企业提供了全新的选择。随着R1及其蒸馏版本的广泛应用,AI技术的普及与创新将迎来新的高潮。

如何学习AI大模型?
我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。
我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

第一阶段: 从大模型系统设计入手,讲解大模型的主要方法;
第二阶段: 在通过大模型提示词工程从Prompts角度入手更好发挥模型的作用;
第三阶段: 大模型平台应用开发借助阿里云PAI平台构建电商领域虚拟试衣系统;
第四阶段: 大模型知识库应用开发以LangChain框架为例,构建物流行业咨询智能问答系统;
第五阶段: 大模型微调开发借助以大健康、新零售、新媒体领域构建适合当前领域大模型;
第六阶段: 以SD多模态大模型为主,搭建了文生图小程序案例;
第七阶段: 以大模型平台应用与开发为主,通过星火大模型,文心大模型等成熟大模型构建大模型行业应用。

👉学会后的收获:👈
• 基于大模型全栈工程实现(前端、后端、产品经理、设计、数据分析等),通过这门课可获得不同能力;
• 能够利用大模型解决相关实际项目需求: 大数据时代,越来越多的企业和机构需要处理海量数据,利用大模型技术可以更好地处理这些数据,提高数据分析和决策的准确性。因此,掌握大模型应用开发技能,可以让程序员更好地应对实际项目需求;
• 基于大模型和企业数据AI应用开发,实现大模型理论、掌握GPU算力、硬件、LangChain开发框架和项目实战技能, 学会Fine-tuning垂直训练大模型(数据准备、数据蒸馏、大模型部署)一站式掌握;
• 能够完成时下热门大模型垂直领域模型训练能力,提高程序员的编码能力: 大模型应用开发需要掌握机器学习算法、深度学习框架等技术,这些技术的掌握可以提高程序员的编码能力和分析能力,让程序员更加熟练地编写高质量的代码。

1.AI大模型学习路线图
2.100套AI大模型商业化落地方案
3.100集大模型视频教程
4.200本大模型PDF书籍
5.LLM面试题合集
6.AI产品经理资源合集
👉获取方式:
😝有需要的小伙伴,可以保存图片到wx扫描二v码免费领取【保证100%免费】🆓
