AI大模型本地离线部署全攻略:三种方案及安装教程详解

AI大模型本地离线部署全攻略:三种方案及安装教程详解
www.zeeklog.com  - AI大模型本地离线部署全攻略:三种方案及安装教程详解

1.为什么要本地离线部署Ai大模型?

离线部署AI大模型有多个重要原因,涵盖了安全性、隐私、成本、控制性和可靠性等方面。以下是一些主要的原因和详细解释:

1.1. 数据隐私和安全
  • 敏感数据保护:某些应用需要处理高度敏感的个人或商业数据,如医疗记录、金融信息或知识产权数据。离线部署可以确保这些数据不离开本地环境,减少泄露的风险。
  • 合规性:一些行业和地区对数据保护有严格的法规和要求(如GDPR),要求数据必须在本地存储和处理。
1.2. 成本控制
  • 长期成本降低:虽然初期的硬件投资较高,但长期使用本地部署可能比持续支付云服务的使用费用更为经济,特别是在处理大量数据或频繁使用时。
  • 避免云计算费用波动:使用云服务时,费用可能会因使用量波动而不可预测。离线部署能够提供更稳定的成本控制。
1.3. 性能和延迟
  • 低延迟:本地部署可以提供更低的延迟,特别适合需要实时响应的应用,如自动驾驶、工业控制和实时通信。
  • 高性能:在本地部署中,硬件资源专用于特定任务,可以进行更好的性能优化。
1.4. 控制和定制化
  • 完全控制:本地部署允许你对硬件和软件环境进行完全控制,可以根据需要进行优化和定制,而无需依赖第三方提供商。
  • 深度定制:你可以根据具体需求对模型和系统进行深度定制,而不受云服务提供商的限制。
1.5. 可靠性和可用性
  • 避免网络依赖:本地部署可以在没有互联网连接的情况下工作,适合在网络连接不稳定或不可用的环境中使用,如远程或边缘设备。
  • 减少停机时间:依赖云服务可能会遇到服务中断或限制,本地部署可以提供更高的可用性和可靠性。
1.6. 数据带宽和传输
  • 减少数据传输需求:处理大量数据时,数据传输到云端可能需要大量带宽并且耗时。本地处理可以避免这些问题,提高处理效率。
1.7. 技术和创新
  • 创新空间:在本地部署中,你可以自由地实验新的技术和方法,而不受云服务提供商的限制。这对前沿研究和开发特别重要。
当然也适用于有些工作环境只能使用内网的情况!!!

2.方案一:GPT4All

一个免费使用、本地运行、具有隐私意识的聊天机器人,无需 GPU 或互联网。

www.zeeklog.com  - AI大模型本地离线部署全攻略:三种方案及安装教程详解
以下是GPT4All支持的Ai大模型!

GPT4All-J 6B v1.0 GPT4All-J v1.1-breezy GPT4All-J v1.2-jazzy GPT4All-J v1.3-groovy GPT4All-J Lora 6B GPT4All LLaMa Lora 7B GPT4All 13B snoozy GPT4All Falcon Nous-Hermes Nous-Hermes2 Nous-Puffin Dolly 6B Dolly 12B Alpaca 7B Alpaca Lora 7B GPT-J 6.7B LLama 7B LLama 13B Pythia 6.7B Pythia 12B Fastchat T5 Fastchat Vicuña 7B Fastchat Vicuña 13B StableVicuña RLHF StableLM Tuned StableLM Base Koala 13B Open Assistant Pythia 12B Mosaic MPT7B Mosaic mpt-instruct Mosaic mpt-chat Wizard 7B Wizard 7B Uncensored Wizard 13B Uncensored GPT4-x-Vicuna-13b Falcon 7b Falcon 7b instruct text-davinci-003

2.1.安装教程(以Window系统为例)
2.1.1.双击exe文件
www.zeeklog.com  - AI大模型本地离线部署全攻略:三种方案及安装教程详解
2.1.2.点击下一步
www.zeeklog.com  - AI大模型本地离线部署全攻略:三种方案及安装教程详解
2.1.3.选择安装目录,点击下一步
www.zeeklog.com  - AI大模型本地离线部署全攻略:三种方案及安装教程详解
2.1.4.点击下一步
www.zeeklog.com  - AI大模型本地离线部署全攻略:三种方案及安装教程详解
2.1.5.勾选“我接受许可”,点击下一步
www.zeeklog.com  - AI大模型本地离线部署全攻略:三种方案及安装教程详解
2.1.6.点击下一步
www.zeeklog.com  - AI大模型本地离线部署全攻略:三种方案及安装教程详解
2.1.7.点击安装
www.zeeklog.com  - AI大模型本地离线部署全攻略:三种方案及安装教程详解
2.1.8.等待安装
www.zeeklog.com  - AI大模型本地离线部署全攻略:三种方案及安装教程详解
2.1.9.安装完成,点击下一步,点击完成即可
www.zeeklog.com  - AI大模型本地离线部署全攻略:三种方案及安装教程详解
2.2.使用教程
2.2.1.桌面上找到GPT4All,双击打开
www.zeeklog.com  - AI大模型本地离线部署全攻略:三种方案及安装教程详解
2.2.2.下载我们想要的模型,这里以目前在开源大模型领域,最强的Llama3为例!
www.zeeklog.com  - AI大模型本地离线部署全攻略:三种方案及安装教程详解
www.zeeklog.com  - AI大模型本地离线部署全攻略:三种方案及安装教程详解
2.2.3.选择下载的模型进行对话
www.zeeklog.com  - AI大模型本地离线部署全攻略:三种方案及安装教程详解

3.方案二:LMstudio

LM Studio 是一个桌面应用程序,用于在计算机上运行本地 Ai大模型LLMs 。发现、下载并运行本地 LLMs!

支持常见的Ai大模型
www.zeeklog.com  - AI大模型本地离线部署全攻略:三种方案及安装教程详解

Llama 3

Phi 3

Falcon

Mistral

StarCoder

Gemma

3.1.安装教程(以window为例)
3.1.1.双击exe文件
www.zeeklog.com  - AI大模型本地离线部署全攻略:三种方案及安装教程详解
3.1.2.点击仍要运行
www.zeeklog.com  - AI大模型本地离线部署全攻略:三种方案及安装教程详解
3.1.3.自动安装完成
www.zeeklog.com  - AI大模型本地离线部署全攻略:三种方案及安装教程详解
www.zeeklog.com  - AI大模型本地离线部署全攻略:三种方案及安装教程详解
3.2.使用教程
3.2.1.桌面上找到LMstudio,双击运行
www.zeeklog.com  - AI大模型本地离线部署全攻略:三种方案及安装教程详解
3.2.2.下载我们需要的模型(国内的小伙伴可能无法下载模型,我准备了一个模型)

以Llama 3为例演示!把我们的模型放到对应的文件夹中

www.zeeklog.com  - AI大模型本地离线部署全攻略:三种方案及安装教程详解
www.zeeklog.com  - AI大模型本地离线部署全攻略:三种方案及安装教程详解

注意:要在models下新建两级文件夹Publisher、Repository,模型文件放到Repository中

www.zeeklog.com  - AI大模型本地离线部署全攻略:三种方案及安装教程详解
3.2.3.选择模型,开始对话
www.zeeklog.com  - AI大模型本地离线部署全攻略:三种方案及安装教程详解
www.zeeklog.com  - AI大模型本地离线部署全攻略:三种方案及安装教程详解

4.方案三:Ollama

本地启动并运行大型语言模型。支持运行 Llama 3、Phi 3、Mistral、Gemma 和其他模型。定制和创建您自己的模型。

www.zeeklog.com  - AI大模型本地离线部署全攻略:三种方案及安装教程详解
4.1.安装教程
4.1.1.双击exe文件
www.zeeklog.com  - AI大模型本地离线部署全攻略:三种方案及安装教程详解
4.1.2.点击“Install”即可自动安装
www.zeeklog.com  - AI大模型本地离线部署全攻略:三种方案及安装教程详解
www.zeeklog.com  - AI大模型本地离线部署全攻略:三种方案及安装教程详解
4.1.3.安装完成
www.zeeklog.com  - AI大模型本地离线部署全攻略:三种方案及安装教程详解
4.1.4.安装Docker
  • 双击exe文件
www.zeeklog.com  - AI大模型本地离线部署全攻略:三种方案及安装教程详解
  • 点击ok等待安装完成
www.zeeklog.com  - AI大模型本地离线部署全攻略:三种方案及安装教程详解
www.zeeklog.com  - AI大模型本地离线部署全攻略:三种方案及安装教程详解
  • 重启电脑
www.zeeklog.com  - AI大模型本地离线部署全攻略:三种方案及安装教程详解
  • 点击Accept
www.zeeklog.com  - AI大模型本地离线部署全攻略:三种方案及安装教程详解
  • 点击Finish
www.zeeklog.com  - AI大模型本地离线部署全攻略:三种方案及安装教程详解
4.1.5.本地安装webUI
在CMD中安装,win+r,输入CMD即可
在CPU下运行:docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
在GPU下运行:docker run -d -p 3000:8080 --gpus=all -v ollama:/root/.ollama -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:ollama
www.zeeklog.com  - AI大模型本地离线部署全攻略:三种方案及安装教程详解
安装完成通过本地地址:http://127.0.0.1:3000 进行访问,看到下方页面说明安装成功!
www.zeeklog.com  - AI大模型本地离线部署全攻略:三种方案及安装教程详解
4.2.使用教程
4.2.1.点击Sign up注册账号即可使用
www.zeeklog.com  - AI大模型本地离线部署全攻略:三种方案及安装教程详解
4.2.2.下载我们想要的模型
www.zeeklog.com  - AI大模型本地离线部署全攻略:三种方案及安装教程详解
www.zeeklog.com  - AI大模型本地离线部署全攻略:三种方案及安装教程详解
www.zeeklog.com  - AI大模型本地离线部署全攻略:三种方案及安装教程详解
4.2.3.选择下载的模型,进行对话
www.zeeklog.com  - AI大模型本地离线部署全攻略:三种方案及安装教程详解

如何学习AI大模型?

作为一名热心肠的互联网老兵,我决定把宝贵的AI知识分享给大家。 至于能学习到多少就看你的学习毅力和能力了 。我已将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

Read more

前端防范 XSS(跨站脚本攻击)

目录 一、防范措施 1.layui util  核心转义的特殊字符 示例 2.js-xss.js库 安装 1. Node.js 环境(npm/yarn) 2. 浏览器环境 核心 API 基础使用 1. 基础过滤(默认规则) 2. 自定义过滤规则 (1)允许特定标签 (2)允许特定属性 (3)自定义标签处理 (4)自定义属性处理 (5)转义特定字符 常见场景示例 1. 过滤用户输入的评论内容 2. 允许特定富文本标签(如富文本编辑器内容) 注意事项 更多配置 XSS(跨站脚本攻击)是一种常见的网络攻击手段,它允许攻击者将恶意脚本注入到其他用户的浏览器中。

详细教程:如何从前端查看调用接口、传参及返回结果(附带图片案例)

详细教程:如何从前端查看调用接口、传参及返回结果(附带图片案例)

目录 1. 打开浏览器开发者工具 2. 使用 Network 面板 3. 查看具体的API请求 a. Headers b. Payload c. Response d. Preview e. Timing 4. 实际操作步骤 5. 常见问题及解决方法 a. 无法看到API请求 b. 请求失败 c. 跨域问题(CORS) 作为一名后端工程师,理解前端如何调用接口、传递参数以及接收返回值是非常重要的。下面将详细介绍如何通过浏览器开发者工具(F12)查看和分析这些信息,并附带图片案例帮助你更好地理解。 1. 打开浏览器开发者工具 按下 F12 或右键点击页面选择“检查”可以打开浏览器的开发者工具。常用的浏览器如Chrome、Firefox等都内置了开发者工具。下面是我选择我的一篇文章,打开开发者工具进行演示。 2. 使用

Cursor+Codex隐藏技巧:用截图秒修前端Bug的保姆级教程(React/Chakra UI案例)

Cursor+Codex隐藏技巧:用截图秒修前端Bug的保姆级教程(React/Chakra UI案例) 前端开发中最令人头疼的莫过于那些难以定位的UI问题——元素错位、样式冲突、响应式失效...传统调试方式往往需要反复修改代码、刷新页面、检查元素。现在,通过Cursor编辑器集成的Codex功能,你可以直接用截图交互快速定位和修复这些问题。本文将带你从零开始,掌握这套革命性的调试工作流。 1. 环境准备与基础配置 在开始之前,确保你已经具备以下环境: * Cursor编辑器最新版(v2.5+) * Node.js 18.x及以上版本 * React 18项目(本文以Chakra UI 2.x为例) 首先在Cursor中安装Codex插件: 1. 点击左侧扩展图标 2. 搜索"Codex"并安装 3. 登录你的OpenAI账户(需要ChatGPT Plus订阅) 关键配置项: // 在项目根目录创建.