三步完成本地部署构建AI专属个人知识库

三步完成本地部署构建AI专属个人知识库

一、引言

本文会手把手教你如何部署本地大模型以及搭建个人知识库,使用到的工具和软件有

  • Ollama
  • Open WebUI
  • Docker
  • AnythingLLM

本文主要分享三点

  • 如何用Ollama在本地运行大模型
  • 使用现代Web UI和本地大模型"聊天"
  • 如何打造完全本地化的知识库:Local RAG

读完本文,你会学习到

  • 如何使用最好用的软件Ollama部署本地大模型
  • 通过搭建本地的聊天软件,了解ChatGPT的信息是如何流转的
  • RAG的概念以及所用到的一些核心技术
  • 如何通过AnythingLLM这款软件搭建完全本地化的数据库

二、ollama的安装以及大模型下载

2.1 安装ollama

官方下载地址:

www.zeeklog.com  - 三步完成本地部署构建AI专属个人知识库
www.zeeklog.com  - 三步完成本地部署构建AI专属个人知识库

当安ollama之后,我们可以通过访问如下链接来判断ollama是否安装成功

arduino
复制代码
http://127.0.0.1:11434/
www.zeeklog.com  - 三步完成本地部署构建AI专属个人知识库

2.2 使用ollama运行本地大模型

当安装完成ollama之后,我们就可以在命令行中运行如下命令既可以

arduino
复制代码
ollama run [model name]

其中[model name]就是你想运行的本地大模型的名称,如果你不知道应该选择哪个模型,可以通过进行查看。这里我们选择llama2大模型:

考虑到我机器的配置以及不同版本的内存要求,我这里选择7b参数的模型

www.zeeklog.com  - 三步完成本地部署构建AI专属个人知识库
www.zeeklog.com  - 三步完成本地部署构建AI专属个人知识库
www.zeeklog.com  - 三步完成本地部署构建AI专属个人知识库

当我们运行大模型的时候,ollama会自动帮我们下载大模型到我们本地。

www.zeeklog.com  - 三步完成本地部署构建AI专属个人知识库

三、通过Open WebUI使用大模型

在默认的情况下,我们需要在终端中跟大模型进行交互,但是这种方法太古老了。就跟我们基本不会使用终端命令跟Mysql打交道,而是使用Navcat等客户端和Mysql进行交互。大模型也有其交互客户端,这就是Open WebUI

3.1 安装Open WebUI

是github上的一个开源项目,这里我们参考其进行下载和安装。

  1. 在安装之前,我们需要先安装Docker,安装说明如下:

如果是Win或者Mac系统,参考文档::

  • 注意:要下载跟自己的电脑系统适配的版本
  • 例如目前的最新版本的Docker仅支持Mac OS12.0以后的系统

如果Linux系统,请自己上网找教程(日常都可以使用Linux系统了,安装Docker小Case!)

  1. 在官方文档中我们会看到两种安装Open WebUI的方式:
  • ollama和open webui一起安装
  • 仅仅安装open webui

由于我们已经安装了ollama,因此我们只需要安装open webui即可,复制如下命令:

kotlin
复制代码
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
www.zeeklog.com  - 三步完成本地部署构建AI专属个人知识库

当Open WebUI安装下载完成之后,我们就可以愉快的玩耍啦!

3.2 使用Open WebUI

  1. 首先访问如下网址
bash
复制代码
http://localhost:3000/auth/

当你打开这个页面的时候,会让你登陆,这个时候我们随便使用一个邮箱注册一个账号即可

www.zeeklog.com  - 三步完成本地部署构建AI专属个人知识库
  1. 和本地大模型进行对话

登陆成功之后,如果你已经使用过ChatGPT等类似的大模型对话网站,我相信你对这个页面并不陌生。

Open WebUI一般有两种使用方式

  • 第一种是聊天对话
www.zeeklog.com  - 三步完成本地部署构建AI专属个人知识库
  • 第二种是RAG能力,也就是可以让模型根据文档内容来回答问题。这种能力就是构建知识库的基础之一
www.zeeklog.com  - 三步完成本地部署构建AI专属个人知识库

如果你的要求不高的话,我们已经搭建了一个本地大模型了,并且通过Web UI实现了和大模型进行对话的功能。

相信通过这么一通折腾,你就理解了ChatGPT的信息流,至于为什么ChatGPT的访问速度比我们自己的要快,而且回答效果要好,就两个原因

  • 快:是因为GPT大模型部署的服务器配置高
  • 好:是因为GPT大模型的训练参数多,数据更优以及训练算法更好

如果你想要更加灵活的掌握你的知识库,请接着往下看

四、RAG是什么

在进行本地知识库的搭建实操之前,我们需要先对RAG有一个大概的了解。

因为利用 大模型 的能力搭建知识库本身就是一个RAG技术的应用

以下内容会有些干,我会尽量用通俗易懂的描述进行讲解。

我们都知道大模型的训练数据是有截止日期的,那当我们需要依靠不包含在大模型训练集中的数据时,我们该怎么做呢?实现这一点的主要方法就是通过检索增强生成RAG(Retrieval Augmented Generation)。在这个过程中,首先检索外部数据,然后在生成步骤中将这些数据传递给LLM。

我们可以将一个RAG的应用抽象为下图的5个过程:

www.zeeklog.com  - 三步完成本地部署构建AI专属个人知识库

文档加载(Document Loading) :从多种不同来源加载文档。LangChain提供了100多种不同的文档加载器,包括PDF在内的非结构化的数据、SQL在内的结构化的数据,以及Python、Java之类的代码等

文本分割(Splitting) :文本分割器把Documents 切分为指定大小的块,我把它们称为“文档块”或者“文档片”

存储(Storage): 存储涉及到两个环节,分别是:

  • 将切分好的文档块进行嵌入(Embedding)转换成向量的形式
  • 将Embedding后的向量数据存储到向量数据库

检索(Retrieval) :一旦数据进入向量数据库,我们仍然需要将数据检索出来,我们会通过某种检索算法找到与输入问题相似的嵌入片

Output (输出) :把问题以及检索出来的嵌入片一起提交给LLM,LLM会通过问题和检索出来的提示一起来生成更加合理的答案

4.1 文本加载器(Document Loaders)

文本加载器就是将用户提供的文本加载到内存中,便于进行后续的处理

4.2 文本切割器(Text Splitters)

文本分割器把Documents 切分为指定大小的块,我把它们称为“文档块”或者“文档片”

文本切割通常有以下几个原因

  • 为了更好的进行文本嵌入以及向量数据库的存储
  • 通常大语言模型都有上下文的限制,如果不进行切割,文本在传递给大模型的时候可能超出上下文限制导致大模型随机丢失信息

文本切割器的概念是非常容易理解的,这里我们简单了解下文本切割器的工作流程

  1. 将文本切割成小的,语义上有意义的块(通常是句子)
  2. 开始将这些小块组成一个较大的块,直到达到某个块的大小(这个会通过某种函数测量)
  3. 一旦达到该大小,就将该块作为自己的文本片段,并开始创建一个新的文本块,同时保留一些重叠(以保持块之间的上下文)。

4.3 文本嵌入模型(Text Embedding models)

文本嵌入模型是用来将文本转换成数值向量的工具,这些向量能够捕捉文本的语义信息,使得相似的文本在向量空间中彼此接近。这对于各种自然语言处理任务,如文本相似性比较、聚类和检索等,都是非常有用的。下面是一段对嵌入的解释

词嵌入(Word Embedding)是自然语言处理和机器学习中的一个概念,它将文字或词语转换为一系列数字,通常是一个向量。简单地说,词嵌入就是一个为每个词分配的数字列表。这些数字不是随机的,而是捕获了这个词的含义和它在文本中的上下文。因此,语义上相似或相关的词在这个数字空间中会比较接近。

举个例子,通过某种词嵌入技术,我们可能会得到:
“国王” -> [1.2, 0.5, 3.1, …]
“皇帝” -> [1.3, 0.6, 2.9, …]
“苹果” -> [0.9, -1.2, 0.3, …]
从这些向量中,我们可以看到“国王”和“皇帝”这两个词的向量在某种程度上是相似的,而与“苹果”这个词相比,它们的向量则相差很大,因为这两个概念在语义上是不同的。
词嵌入的优点是,它提供了一种将文本数据转化为计算机可以理解和处理的形式,同时保留了词语之间的语义关系。这在许多自然语言处理任务中都是非常有用的,比如文本分类、机器翻译和情感分析等。

4.4 向量数据库(Vector Stores)

www.zeeklog.com  - 三步完成本地部署构建AI专属个人知识库

向量存储(Vector stores)是用于存储和检索文本嵌入向量的工具。这些向量是文本数据的数值表示,它们使得计算机能够理解和处理自然语言。向量存储对于支持复杂的搜索和检索任务至关重要,尤其是在处理大量文本数据时。

向量存储的主要功能包括:

  • 高效地存储大量的文本向量
  • 快速检索与给定向量最相似的文本向量
  • 支持复杂的查询操作,如范围搜索和最近邻搜索

4.5 文本检索

一旦数据进入向量数据库,我们仍然需要将数据检索出来,我们会通过某种检索算法找到与输入问题相似的嵌入片。这里主要利用了大模型的能力

五、本地知识库进阶

如果想要对知识库进行更加灵活的掌控,我们需要一个额外的软件:AnythingLLM,这个软件包含了所有Open WebUI的能力,并且额外支持了以下能力

  • 选择文本嵌入模型
  • 选择向量数据库

5.1 AnythingLLM安装和配置

安装地址:

当我们安装完成之后,会进入到其配置页面,这里面主要分为三步

  1. 第一步:选择大模型
www.zeeklog.com  - 三步完成本地部署构建AI专属个人知识库
  1. 第二步:选择文本嵌入模型
www.zeeklog.com  - 三步完成本地部署构建AI专属个人知识库
  1. 第三步:选择向量数据库
www.zeeklog.com  - 三步完成本地部署构建AI专属个人知识库

5.2 构建本地知识库

AnythingLLM中有一个Workspace的概念,我们可以创建自己独有的Workspace跟其他的项目数据进行隔离。

  1. 首先创建一个工作空间
www.zeeklog.com  - 三步完成本地部署构建AI专属个人知识库
  1. 上传文档并且在工作空间中进行文本嵌入
www.zeeklog.com  - 三步完成本地部署构建AI专属个人知识库
  1. 选择对话模式

AnythingLLM提供了两种对话模式:

  • Chat模式:大模型会根据自己的训练数据和我们上传的文档数据综合给出答案
  • Query模式:大模型仅仅会依靠文档中的数据给出答案
www.zeeklog.com  - 三步完成本地部署构建AI专属个人知识库
  1. 测试对话

当上述配置完成之后,我们就可以跟大模型进行对话了

www.zeeklog.com  - 三步完成本地部署构建AI专属个人知识库

六、总结

虽然对于大多数人来讲,由于我们的电脑配置等原因,部署本地大模型并且达到很好的效果是很奢侈的一件事情。

但是这并不妨碍我们对其中的流程和原理进行详细的了解

如何系统的去学习大模型LLM ?

大模型时代,火爆出圈的LLM大模型让程序员们开始重新评估自己的本领。 “AI会取代那些行业?”“谁的饭碗又将不保了?”等问题热议不断。

事实上,抢你饭碗的不是AI,而是会利用AI的人。

科大讯飞、阿里、华为等巨头公司发布AI产品后,很多中小企业也陆续进场!超高年薪,挖掘AI大模型人才! 如今大厂老板们,也更倾向于会AI的人,普通程序员,还有应对的机会吗?

与其焦虑……

不如成为「掌握AI工具的技术人」,毕竟AI时代,谁先尝试,谁就能占得先机!

但是LLM相关的内容很多,现在网上的老课程老教材关于LLM又太少。所以现在小白入门就只能靠自学,学习成本和门槛很高。

针对所有自学遇到困难的同学们,我帮大家系统梳理大模型学习脉络,将这份 LLM大模型资料 分享出来:包括LLM大模型书籍、640套大模型行业报告、LLM大模型学习视频、LLM大模型学习路线、开源大模型学习教程等, 😝有需要的小伙伴,可以 扫描下方二维码领取🆓↓↓↓

👉👈

www.zeeklog.com  - 三步完成本地部署构建AI专属个人知识库

一、LLM大模型经典书籍

AI大模型已经成为了当今科技领域的一大热点,那以下这些大模型书籍就是非常不错的学习资源。

www.zeeklog.com  - 三步完成本地部署构建AI专属个人知识库

二、640套LLM大模型报告合集

这套包含640份报告的合集,涵盖了大模型的理论研究、技术实现、行业应用等多个方面。无论您是科研人员、工程师,还是对AI大模型感兴趣的爱好者,这套报告合集都将为您提供宝贵的信息和启示。(几乎涵盖所有行业)

www.zeeklog.com  - 三步完成本地部署构建AI专属个人知识库

三、LLM大模型系列视频教程

www.zeeklog.com  - 三步完成本地部署构建AI专属个人知识库

四、LLM大模型开源教程(LLaLA/Meta/chatglm/chatgpt)

www.zeeklog.com  - 三步完成本地部署构建AI专属个人知识库

LLM大模型学习路线

阶段1:AI大模型时代的基础理解

目标:了解AI大模型的基本概念、发展历程和核心原理。

内容

  • L1.1 人工智能简述与大模型起源
  • L1.2 大模型与通用人工智能
  • L1.3 GPT模型的发展历程
  • L1.4 模型工程
  • L1.4.1 知识大模型
  • L1.4.2 生产大模型
  • L1.4.3 模型工程方法论
  • L1.4.4 模型工程实践
  • L1.5 GPT应用案例

阶段2:AI大模型API应用开发工程

目标:掌握AI大模型API的使用和开发,以及相关的编程技能。

内容

  • L2.1 API接口
  • L2.1.1 OpenAI API接口
  • L2.1.2 Python接口接入
  • L2.1.3 BOT工具类框架
  • L2.1.4 代码示例
  • L2.2 Prompt框架
  • L2.3 流水线工程
  • L2.4 总结与展望

阶段3:AI大模型应用架构实践

目标:深入理解AI大模型的应用架构,并能够进行私有化部署。

内容

  • L3.1 Agent模型框架
  • L3.2 MetaGPT
  • L3.3 ChatGLM
  • L3.4 LLAMA
  • L3.5 其他大模型介绍

阶段4:AI大模型私有化部署

目标:掌握多种AI大模型的私有化部署,包括多模态和特定领域模型。

内容

  • L4.1 模型私有化部署概述
  • L4.2 模型私有化部署的关键技术
  • L4.3 模型私有化部署的实施步骤
  • L4.4 模型私有化部署的应用场景

这份 LLM大模型资料 包括LLM大模型书籍、640套大模型行业报告、LLM大模型学习视频、LLM大模型学习路线、开源大模型学习教程等, 😝有需要的小伙伴,可以 扫描下方二维码领取🆓↓↓↓

👉👈

www.zeeklog.com  - 三步完成本地部署构建AI专属个人知识库

Read more

前端防范 XSS(跨站脚本攻击)

目录 一、防范措施 1.layui util  核心转义的特殊字符 示例 2.js-xss.js库 安装 1. Node.js 环境(npm/yarn) 2. 浏览器环境 核心 API 基础使用 1. 基础过滤(默认规则) 2. 自定义过滤规则 (1)允许特定标签 (2)允许特定属性 (3)自定义标签处理 (4)自定义属性处理 (5)转义特定字符 常见场景示例 1. 过滤用户输入的评论内容 2. 允许特定富文本标签(如富文本编辑器内容) 注意事项 更多配置 XSS(跨站脚本攻击)是一种常见的网络攻击手段,它允许攻击者将恶意脚本注入到其他用户的浏览器中。

详细教程:如何从前端查看调用接口、传参及返回结果(附带图片案例)

详细教程:如何从前端查看调用接口、传参及返回结果(附带图片案例)

目录 1. 打开浏览器开发者工具 2. 使用 Network 面板 3. 查看具体的API请求 a. Headers b. Payload c. Response d. Preview e. Timing 4. 实际操作步骤 5. 常见问题及解决方法 a. 无法看到API请求 b. 请求失败 c. 跨域问题(CORS) 作为一名后端工程师,理解前端如何调用接口、传递参数以及接收返回值是非常重要的。下面将详细介绍如何通过浏览器开发者工具(F12)查看和分析这些信息,并附带图片案例帮助你更好地理解。 1. 打开浏览器开发者工具 按下 F12 或右键点击页面选择“检查”可以打开浏览器的开发者工具。常用的浏览器如Chrome、Firefox等都内置了开发者工具。下面是我选择我的一篇文章,打开开发者工具进行演示。 2. 使用

Cursor+Codex隐藏技巧:用截图秒修前端Bug的保姆级教程(React/Chakra UI案例)

Cursor+Codex隐藏技巧:用截图秒修前端Bug的保姆级教程(React/Chakra UI案例) 前端开发中最令人头疼的莫过于那些难以定位的UI问题——元素错位、样式冲突、响应式失效...传统调试方式往往需要反复修改代码、刷新页面、检查元素。现在,通过Cursor编辑器集成的Codex功能,你可以直接用截图交互快速定位和修复这些问题。本文将带你从零开始,掌握这套革命性的调试工作流。 1. 环境准备与基础配置 在开始之前,确保你已经具备以下环境: * Cursor编辑器最新版(v2.5+) * Node.js 18.x及以上版本 * React 18项目(本文以Chakra UI 2.x为例) 首先在Cursor中安装Codex插件: 1. 点击左侧扩展图标 2. 搜索"Codex"并安装 3. 登录你的OpenAI账户(需要ChatGPT Plus订阅) 关键配置项: // 在项目根目录创建.