震惊, 我用 DeepSeek R1 部署了一个应用,效果真香!!!

震惊, 我用 DeepSeek R1 部署了一个应用,效果真香!!!

一、背景

2025年1月20日,杭州深度求索人工智能基础技术研究有限公司发布了高性能AI推理模型 DeepSeek R1,标志着国产AI技术的重大突破。该模型在数学、代码和自然语言推理等任务上表现出色,性能与OpenAI的o1正式版相当,且以开源形式向全球开发者开放,遵循MIT协议,支持免费商用。

二、DeepSeek R1的核心优势

强化学习驱动的推理能力:R1在后训练阶段应用强化学习技术,无需大量监督微调数据,显著提升推理能力,降低训练成本。

长链推理与模型蒸馏:采用长链推理技术,逐步分解复杂问题,支持模型蒸馏,可将推理能力迁移到小型模型中,满足特定场景需求。

开源与灵活的许可证:遵循MIT License开源协议,允许自由使用、修改和商用,推动AI技术普及与创新。

三、性能评测对比

3.1 DeepSeek-R1-Evaluation

对于所有模型,最大生成长度均设置为32,768个标记。对于需要采样的基准测试,我们使用0.6的温度值、0.95的top-p值,并针对每个查询生成64个响应以估算pass@1。

CategoryBenchmark (Metric)Claude-3.5-Sonnet-1022GPT-4o 0513DeepSeek V3OpenAI o1-miniOpenAI o1-1217DeepSeek R1
Architecture--MoE--MoE
# Activated Params--37B--37B
# Total Params--671B--671B
EnglishMMLU (Pass@1)88.387.288.585.291.890.8
MMLU-Redux (EM)88.988.089.186.7-92.9
MMLU-Pro (EM)78.072.675.980.3-84.0
DROP (3-shot F1)88.383.791.683.990.292.2
IF-Eval (Prompt Strict)86.584.386.184.8-83.3
GPQA-Diamond (Pass@1)65.049.959.160.075.771.5
SimpleQA (Correct)28.438.224.97.047.030.1
FRAMES (Acc.)72.580.573.376.9-82.5
AlpacaEval2.0 (LC-winrate)52.051.170.057.8-87.6
ArenaHard (GPT-4-1106)85.280.485.592.0-92.3
CodeLiveCodeBench (Pass@1-COT)33.834.2-53.863.465.9
Codeforces (Percentile)20.323.658.793.496.696.3
Codeforces (Rating)7177591134182020612029
SWE Verified (Resolved)50.838.842.041.648.949.2
Aider-Polyglot (Acc.)45.316.049.632.961.753.3
MathAIME 2024 (Pass@1)16.09.339.263.679.279.8
MATH-500 (Pass@1)78.374.690.290.096.497.3
CNMO 2024 (Pass@1)13.110.843.267.6-78.8
ChineseCLUEWSC (EM)85.487.990.989.9-92.8
C-Eval (EM)76.776.086.568.9-91.8
C-SimpleQA (Correct)55.458.768.040.3-63.7

3.2 Distilled Model Evaluation

DeepSeek此次发布了R1-Zero、R1以及多个蒸馏后的小模型,以下是它们的性能对比:

ModelAIME 2024 pass@1AIME 2024 cons@64MATH-500 pass@1GPQA Diamond pass@1LiveCodeBench pass@1CodeForces rating
GPT-4o-05139.313.474.649.932.9759
Claude-3.5-Sonnet-102216.026.778.365.038.9717
o1-mini63.680.090.060.053.81820
QwQ-32B-Preview44.060.090.654.541.91316
DeepSeek-R1-Distill-Qwen-1.5B28.952.783.933.816.9954
DeepSeek-R1-Distill-Qwen-7B55.583.392.849.137.61189
DeepSeek-R1-Distill-Qwen-14B69.780.093.959.153.11481
DeepSeek-R1-Distill-Qwen-32B72.683.394.362.157.21691
DeepSeek-R1-Distill-Llama-8B50.480.089.149.039.61205
DeepSeek-R1-Distill-Llama-70B70.086.794.565.257.51633

从表中可以看出,R1蒸馏后的小模型在推理能力上显著超越了原始的Qwen2.5和Llama模型,展现了R1推理模式的高效迁移性。

四、DeepSeek R1 模型的本地部署

DeepSeek R1蒸馏出的1.5B、7B、8B、14B等小模型非常适合在本地部署,尤其适合资源有限的中小企业和开发者。以下是常用的部署工具和方法:

4.1 工具推荐

Ollama:一个开源的大型语言模型服务工具,支持多GPU配置、热加载模型和与OpenAI兼容的API接口,适合快速部署和运行大规模预训练语言模型。

vLLM:支持FP8和BF16推理模式,适合高吞吐量的推理任务。

LMDeploy:支持本地和云部署,提供高效的FP8和BF16推理支持。

TensorRT-LLM:支持INT4/8量化,适合需要极致性能的场景。

SGLang:完全支持BF16和FP8推理模式,适合多令牌预测任务。

注:本文章主要使用 Ollama 部署 DeepSeek R1。

4.2 安装Ollama

首先,我们需要让 Ollama 在您的计算机上启动并运行。方法如下:访问 Ollama 网站 (ollama.com) 并下载与您的操作系统匹配的版本。下载后,运行安装程序并按照提示操作。

www.zeeklog.com  - 震惊, 我用 DeepSeek R1 部署了一个应用,效果真香!!!
    `$ curl -fsSL https://ollama.com/install.sh | sh`

4.3 验证 Ollama 安装

在我们继续之前,让我们确保 Ollama 已正确安装。打开终端或命令提示符并输入:

    `$ ollama --version`
注:如果您看到弹出版本号,那么您就成功了!如果没有,请仔细检查您是否正确遵循了安装步骤。

4.4 下载Deepseek R1

Ollama 让下载 Deepseek R1 变得轻而易举。只需在终端中运行以下命令:

    `$ ollama run deepseek-r1`
这可能需要一段时间,具体取决于您的互联网速度。

4.5 运行 Deepseek R1

下载完成后,您就可以启动 Deepseek R1。使用这个命令:

    `# Default 7B model (4.7GB - ideal for consumer GPUs)       $ ollama run deepseek-r1          # Larger 70B model (requires 24GB+ VRAM)       $ ollama run deepseek-r1:70b          # Actual DeepSeek-R1 (requires 336GB+ VRAM for 4-bit quantization)        $ ollama run deepseek-r1:671b`

设置 Open Web UI(私有接口)。确保你的机器上安装了 docker,然后通过在终端上运行来安装 Open Web UI:

docker run -d -p 3000:8080 \     --add-host=host.docker.internal:host-gateway \     -v open-webui:/app/backend/data \     --name open-webui \     --restart always \     ghcr.io/open-webui/open-webui:main   

访问 http://localhost:3000 并选择 deepseek-r1:latest。所有数据都保留在你的机器上 - 没有云跟踪或数据泄露。

五、试用一下 Deepseek R1

让我们尝试让模型创建一个贪吃蛇游戏。如下图所示,模型执行了所有思路以获得最佳响应。确实,它所花费的时间不是很好,但至少我们得到了模型更高效的响应。

www.zeeklog.com  - 震惊, 我用 DeepSeek R1 部署了一个应用,效果真香!!!

它做得很不错,但花了将近 3 分钟!

www.zeeklog.com  - 震惊, 我用 DeepSeek R1 部署了一个应用,效果真香!!!

六、将 DeepSeek-R1 集成到你的项目中

有两种集成方法。第一种是使用 DeepSeek-R1 本地部署(如上一节所示),第二种是使用 DeepSeek 服务器的云 API(可用于生产)。

6.1 本地部署(隐私优先)

使用你的 Ollama 实例作为 OpenAI 兼容端点:

import openai      # Connect to your local Ollama instance   client = openai.Client(       base_url="http://localhost:11434/v1",       api_key="ollama"  # Authentication-free private access   )      response = client.chat.completions.create(       model="deepseek-r1:XXb", # change the "XX" by the distilled model you choose       messages=[{"role": "user", "content": "Explain blockchain security"}],       temperature=0.7  # Controls creativity vs precision   )   

6.2 使用官方 DeepSeek-R1 云 API

对于可扩展的应用程序,请使用 DeepSeek 的官方 API,你可以在此处通过创建帐户并生成一个密钥来获取 DeepSeek API 密钥:

import openai   from dotenv import load_dotenv   import os      load_dotenv()   client = openai.OpenAI(       base_url="https://api.deepseek.com/v1",       api_key=os.getenv("DEEPSEEK_API_KEY")   )      response = client.chat.completions.create(       model="deepseek-reasoner",       messages=[{"role": "user", "content": "Write web scraping code with error handling"}],       max_tokens=1000  # Limit costs for long responses   )   

七、总结

DeepSeek R1的发布标志着国产AI技术的又一次重大突破。其强大的推理能力、开源生态以及高性价比的API服务,为全球开发者和企业提供了全新的选择。随着R1及其蒸馏版本的广泛应用,AI技术的普及与创新将迎来新的高潮。

www.zeeklog.com  - 震惊, 我用 DeepSeek R1 部署了一个应用,效果真香!!!

如何学习AI大模型?

我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。

我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

www.zeeklog.com  - 震惊, 我用 DeepSeek R1 部署了一个应用,效果真香!!!

第一阶段: 从大模型系统设计入手,讲解大模型的主要方法;

第二阶段: 在通过大模型提示词工程从Prompts角度入手更好发挥模型的作用;

第三阶段: 大模型平台应用开发借助阿里云PAI平台构建电商领域虚拟试衣系统;

第四阶段: 大模型知识库应用开发以LangChain框架为例,构建物流行业咨询智能问答系统;

第五阶段: 大模型微调开发借助以大健康、新零售、新媒体领域构建适合当前领域大模型;

第六阶段: 以SD多模态大模型为主,搭建了文生图小程序案例;

第七阶段: 以大模型平台应用与开发为主,通过星火大模型,文心大模型等成熟大模型构建大模型行业应用。

www.zeeklog.com  - 震惊, 我用 DeepSeek R1 部署了一个应用,效果真香!!!

👉学会后的收获:👈
• 基于大模型全栈工程实现(前端、后端、产品经理、设计、数据分析等),通过这门课可获得不同能力;

• 能够利用大模型解决相关实际项目需求: 大数据时代,越来越多的企业和机构需要处理海量数据,利用大模型技术可以更好地处理这些数据,提高数据分析和决策的准确性。因此,掌握大模型应用开发技能,可以让程序员更好地应对实际项目需求;

• 基于大模型和企业数据AI应用开发,实现大模型理论、掌握GPU算力、硬件、LangChain开发框架和项目实战技能, 学会Fine-tuning垂直训练大模型(数据准备、数据蒸馏、大模型部署)一站式掌握;

• 能够完成时下热门大模型垂直领域模型训练能力,提高程序员的编码能力: 大模型应用开发需要掌握机器学习算法、深度学习框架等技术,这些技术的掌握可以提高程序员的编码能力和分析能力,让程序员更加熟练地编写高质量的代码。

www.zeeklog.com  - 震惊, 我用 DeepSeek R1 部署了一个应用,效果真香!!!
1.AI大模型学习路线图
2.100套AI大模型商业化落地方案
3.100集大模型视频教程
4.200本大模型PDF书籍
5.LLM面试题合集
6.AI产品经理资源合集

👉获取方式:
😝有需要的小伙伴,可以保存图片到wx扫描二v码免费领取【保证100%免费】🆓

www.zeeklog.com  - 震惊, 我用 DeepSeek R1 部署了一个应用,效果真香!!!

Read more

前端防范 XSS(跨站脚本攻击)

目录 一、防范措施 1.layui util  核心转义的特殊字符 示例 2.js-xss.js库 安装 1. Node.js 环境(npm/yarn) 2. 浏览器环境 核心 API 基础使用 1. 基础过滤(默认规则) 2. 自定义过滤规则 (1)允许特定标签 (2)允许特定属性 (3)自定义标签处理 (4)自定义属性处理 (5)转义特定字符 常见场景示例 1. 过滤用户输入的评论内容 2. 允许特定富文本标签(如富文本编辑器内容) 注意事项 更多配置 XSS(跨站脚本攻击)是一种常见的网络攻击手段,它允许攻击者将恶意脚本注入到其他用户的浏览器中。

详细教程:如何从前端查看调用接口、传参及返回结果(附带图片案例)

详细教程:如何从前端查看调用接口、传参及返回结果(附带图片案例)

目录 1. 打开浏览器开发者工具 2. 使用 Network 面板 3. 查看具体的API请求 a. Headers b. Payload c. Response d. Preview e. Timing 4. 实际操作步骤 5. 常见问题及解决方法 a. 无法看到API请求 b. 请求失败 c. 跨域问题(CORS) 作为一名后端工程师,理解前端如何调用接口、传递参数以及接收返回值是非常重要的。下面将详细介绍如何通过浏览器开发者工具(F12)查看和分析这些信息,并附带图片案例帮助你更好地理解。 1. 打开浏览器开发者工具 按下 F12 或右键点击页面选择“检查”可以打开浏览器的开发者工具。常用的浏览器如Chrome、Firefox等都内置了开发者工具。下面是我选择我的一篇文章,打开开发者工具进行演示。 2. 使用

Cursor+Codex隐藏技巧:用截图秒修前端Bug的保姆级教程(React/Chakra UI案例)

Cursor+Codex隐藏技巧:用截图秒修前端Bug的保姆级教程(React/Chakra UI案例) 前端开发中最令人头疼的莫过于那些难以定位的UI问题——元素错位、样式冲突、响应式失效...传统调试方式往往需要反复修改代码、刷新页面、检查元素。现在,通过Cursor编辑器集成的Codex功能,你可以直接用截图交互快速定位和修复这些问题。本文将带你从零开始,掌握这套革命性的调试工作流。 1. 环境准备与基础配置 在开始之前,确保你已经具备以下环境: * Cursor编辑器最新版(v2.5+) * Node.js 18.x及以上版本 * React 18项目(本文以Chakra UI 2.x为例) 首先在Cursor中安装Codex插件: 1. 点击左侧扩展图标 2. 搜索"Codex"并安装 3. 登录你的OpenAI账户(需要ChatGPT Plus订阅) 关键配置项: // 在项目根目录创建.