如何快速构建个人 AI 知识库?
—1—
如何搭建个人 AI 知识库?
分享我的整体思考过程。我认为具体方法因人而异,因为每个人的需求和情况都各不相同——唯有思路是可以互相借鉴的。
以下是出发点及其解决策略:
首先,面对信息过载,我们无法逐一细致地吸收。因此,需要人工智能的辅助,通过总结和提炼,帮助我们快速、大致地把握信息。
其次,人脑不适合用于记忆,而更适合进行创造性思考。因此,我们需要一个“第二大脑”来存储信息,并依赖AI进行基于语义的检索(除了关键词检索,语义检索能使得工具更加完善)。
再次,记笔记是对信息的一种预处理。记笔记的目的是为了支持未来的自己。因此,我们需要对信息进行层层筛选,最终用自己的话记录下那些值得记下的内容,而不是简单复制他人的表述。
基于以上三点,我设计了以下两套子系统,正如我在视频中展示的:
1. 外部信息处理系统。以 AnythingLLM 和大模型为核心。
我将日常遇到的、认为有价值的信息输入到 AnythingLLM 中,利用大模型这把“解剖刀”对信息进行“剖析”,以便我能够理解它们的“整体结构”以及哪些“部分”具有价值。
我会将这些有价值的内容手动整理到笔记中——这一步骤必须亲自完成,因为没有经过自己思考和亲手输入的内容,是不会真正成为自己的知识的。
当然,对于特定类型的信息,我还会使用其他工具。例如,对于AI相关的论文,我会使用txyz.ai来处理,这个网站/工具非常专业,非常适合处理这类文献。
2. 笔记生成系统。以 Obsidian 和各种插件为核心。
正如视频中所述,我根据PAFP的逻辑创建了四个文件夹,并在其中建立子文件夹来存放相应的笔记。
Obsidian 在处理笔记之间的逻辑关系方面做得非常出色。文件夹构成了一种关联逻辑。每条笔记都可以添加标签,这样就可以跨越文件夹建立另一种关联逻辑。更强大的是,一条笔记可以链接到另一条笔记,形成知识图谱的关联逻辑。通过这三种关联,我们可以将笔记系统性地组织起来,形成一张网络,而不是零散的点。
在这张网络的基础上,无论是查询还是搜索,效率都会大大提高。

我就是按照这样的思路和方法,不断地将外部信息转化为自己的知识。这种逐步积累和内化的过程,令人感到非常愉悦。
—2—
Ollama和 LM Studio 有哪些区别?
Ollama 和LM Studio 都是本地运行开源大型模型的工具。它们之间最明显的区别在于,Ollama 通过命令行操作,而 LM Studio 则提供图形化界面。因此,对于初学者来说,LM Studio 可能更加友好和易于掌握。
仅仅让大模型在后台运行是不够的,还需要一个前端交互界面。
在这方面,LM Studio 表现突出。正如我之前提到的,它的集成度非常高,从模型的搜索和下载,到加载和对话,所有功能都集中在一个包内。
相比之下,Ollama 在终端中进行对话,界面看起来相对简陋。因此,出现了像Open WebUI 这样的项目,为 Ollama 提供了一个更加现代化的界面,类似于ChatGPT 的风格。此外,Open WebUI 还内置了 RAG,可以用来构建知识库,并且具备账号管理功能,便于多人共用。
以上所述的都是 Ollama 和L M Studio 的【客户端】模式。这两种工具还提供了【服务器】模式。简单来说,这种模式就是将它们作为大模型在本地运行的工具或容器,然后开放一个通道或端口,供其他应用程序使用。这就像发电机一样,接出一根电线,为各种电器供电。

—3—
如何提升 AnythingLLM 精确度?
要优化 RAG(Retrieval-Augmented Generation)的原理和流程,无论是自己手动实现还是使用现有工具,都需要先理解其工作原理。RAG 的过程可以概括为以下几个步骤:
RAG = 文档预处理 + 查询理解 + 文档检索 + LLM 生成。
如果你选择使用 AnythingLLM 这类现成的工具,以下是一些设置时需要特别注意的要点:
首先,要考虑嵌入模型的语言兼容性。例如,如果你的资料中包含中英文,可以选择 Cohere Embed v3 - Multilingual,因为它支持多种语言。
其次,要注意嵌入模型的上下文窗口大小。例如,Cohere Embed v3 - Multilingual的上下文窗口为512个tokens。在使用 Ollama或LM Studio 时,需要填写最大嵌入块长度(Max embedding chunk length),不要随意填写。
第三,文本切块的大小(Chunk Size)和重叠部分(Overlap)的设置。
在设置切块大小时,需要考虑两个因素:一是不要超过嵌入模型的上限;二是根据资料的类型来调整。如果资料主要由短句或片段组成,如单条简短笔记,较小的切块尺寸可以避免一个块中包含过多不相关内容,减少对大模型理解的干扰。相反,如果资料是完整的文章,具有较强的连贯逻辑,则应尽量增大切块尺寸,以避免将一个连贯的段落切割得支离破碎,影响上下文的连贯性。
—4—
如何学习?
为了帮助同学们彻底掌握大模型 RAG、微调、Agent 等应用的深层原理,在企业中的应用实践,今天我给同学们深度剖析,请同学们点击以下方式。

AI大模型报告合集
这套包含640份报告的合集,涵盖了AI大模型的理论研究、技术实现、行业应用等多个方面。无论您是科研人员、工程师,还是对AI大模型感兴趣的爱好者,这套报告合集都将为您提供宝贵的信息和启示。

AI大模型经典PDF籍
随着人工智能技术的飞速发展,AI大模型已经成为了当今科技领域的一大热点。这些大型预训练模型,如GPT-3、BERT、XLNet等,以其强大的语言理解和生成能力,正在改变我们对人工智能的认识。 那以下这些PDF籍就是非常不错的学习资源。

AI大模型商业化落地方案

第一阶段(10天):初阶应用
该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。
大模型 AI 能干什么?
大模型是怎样获得「智能」的?
用好 AI 的核心心法
大模型应用业务架构
大模型应用技术架构
代码示例:向 GPT-3.5 灌入新知识
提示工程的意义和核心思想
Prompt 典型构成
指令调优方法论
思维链和思维树
Prompt 攻击和防范
…
第二阶段(30天):高阶应用
该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。
为什么要做 RAG
搭建一个简单的 ChatPDF
检索的基础概念
什么是向量表示(Embeddings)
向量数据库与向量检索
基于向量检索的 RAG
搭建 RAG 系统的扩展知识
混合检索与 RAG-Fusion 简介
向量模型本地部署
…
第三阶段(30天):模型训练
恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。
到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?
为什么要做 RAG
什么是模型
什么是模型训练
求解器 & 损失函数简介
小实验2:手写一个简单的神经网络并训练它
什么是训练/预训练/微调/轻量化微调
Transformer结构简介
轻量化微调
实验数据集的构建
…
第四阶段(20天):商业闭环
对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。
硬件选型
带你了解全球大模型
使用国产大模型服务
搭建 OpenAI 代理
热身:基于阿里云 PAI 部署 Stable Diffusion
在本地计算机运行大模型
大模型的私有化部署
基于 vLLM 部署大模型
案例:如何优雅地在阿里云私有部署开源大模型
部署一套开源 LLM 项目
内容安全
互联网信息服务算法备案
…
学习是一个过程,只要学习就会有挑战。天道酬勤,你越努力,就会成为越优秀的自己。
如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名大模型 AI 的正确特征了。