构建本地AI客服:利用FastGPT与Ollama打造智能助手

构建本地AI客服:利用FastGPT与Ollama打造智能助手

最近找工作,微信上hr问我做一个AI客服聊天这么个东西,所以最近几天就研究了一下这方面,还真给我捣鼓了点成果出来:一个能在本地运行的AI小助手,可以对接自己喜欢的大模型,还能导入知识库(比如员工手册,商品手册,论文等),然后让AI根据知识库来回答自己的问题,成果如下图,知识库是自己随手写的一个文具店商铺的txt文件。在这里写一篇文章给大家分享一下搭建过程。

www.zeeklog.com  - 构建本地AI客服:利用FastGPT与Ollama打造智能助手

一. 准备工作: 需要准备好linux环境并安装docker-compose

(这一步是给使用windows的同学看的,linux环境的同学可以跳过,记得安装一下docker-compose就行)

下载docker-desktop并安装 ,这样自己的电脑就有dokcer和docker-compose了,命令行里输入docker-compose -v可以查看版本。

开启windows的wsl功能,开启后在powershell中输入wsl -l可以查看版本,说明开启成功

www.zeeklog.com  - 构建本地AI客服:利用FastGPT与Ollama打造智能助手

在powershell中输入wsl --set-default-version 2,将WSL2设置为安装新linux发行版时的默认版本

在应用商店搜索ubuntu,随便挑一个安装,我下载的是22.04.3LTS版本

www.zeeklog.com  - 构建本地AI客服:利用FastGPT与Ollama打造智能助手

安装完毕后,打开开始菜单搜索ubuntu就能看到刚刚安装的那个ubuntu了,点击就能进入到linux系统的命令行

二. 安装ollama大模型框架

ollama是一个AI大模型框架,我们可以通过ollama下载市面上的开源大模型到本地,并且可以运行模型,和AI对话,详细可以看官网。下面介绍一下安装和使用步骤:

在linux系统的命令行中输入curl -fsSL  | sh 就能自动下载并安装好ollama,安装完成后输入ollama list可以查看已经下载的大模型列表,一开始应该是空的

通过ollama下载自己喜欢的大模型,可以在官网右上方的models里面看到大模型列表和安装命令,我这里是安装了千问大模型,安装命令是 ollama run qwen2:7b

www.zeeklog.com  - 构建本地AI客服:利用FastGPT与Ollama打造智能助手

安装完之后这一步就结束了,这时你的本地已经有一个大模型了,你可以在命令行里面和大模型对话,问一些问题。

三. 通过docker-compose运行启动oneapi和fastgpt

创建fastgpt文件夹,把fastgpt的docker-compose.yml文件和config.json文件放进去。这两份文件的下载链接可以去fastgpt的官方部署文档里找到,如图所示:

www.zeeklog.com  - 构建本地AI客服:利用FastGPT与Ollama打造智能助手


文件下载好后直接放到fastgpt目录下即可,如图所示,在此电脑的左侧下面可以进入到linux系统,然后进入到root目录,里面有个fastgpt文件夹,把下载好的文件复制进去就行。

运行docker-compose pull拉取镜像,这一步需要梯子。如果没有梯子的话,在docker-compose.yml文件里会看到每一个image镜像下面都有个被注释的阿里云镜像,把所有阿里云镜像的注释放开,之前的镜像注释掉,就可以不用梯子下载好镜像了。

www.zeeklog.com  - 构建本地AI客服:利用FastGPT与Ollama打造智能助手

安装好后运行docker-compose up -d,就把oneapi和fastgpt启动起来了

安装M3E向量模型,运行docker run -d -p 6008:6008 --name=m3e-large-api registry.cn-hangzhou.aliyuncs.com/fastgpt_docker/m3e-large-api:latest

访问localhost:3001进入到oneapi页面,点击上方的渠道,页面里会看到"添加新的渠道按钮",在这里我们需要把刚刚安装好的千问大模型和M3E向量模型都添加进去。具体的表单填法如图所示: 这张图是添加千问大模型的,11434是ollama对外暴露的端口,ollama会帮我们去调用大模型

www.zeeklog.com  - 构建本地AI客服:利用FastGPT与Ollama打造智能助手


这张图是添加M3E向量模型的,这个6008端口就是刚刚安装M3E的docker对外暴露的端口

添加好模型后,在页面上方有个令牌,点击进入到令牌页面,点击"添加新的令牌",名字随便起,里面选择永不过期和设为无限额度,然后保存。保存完毕返回,在列表页可以看到自己刚刚添加好的令牌,右边有个复制按钮,点击复制,就把这个令牌复制到粘贴板了。

www.zeeklog.com  - 构建本地AI客服:利用FastGPT与Ollama打造智能助手

带着复制的令牌,打开fastgpt目录下的docker-compose文件,用编辑器打开,在里面找到CHAT_API_KEY,把等号后面的值换成刚刚复制下来的令牌:

www.zeeklog.com  - 构建本地AI客服:利用FastGPT与Ollama打造智能助手

打开fastgpt目录下的config.json文件,用编辑器打开,然后在文件里的llmModels下面把千问大模型添加进去。文件里有一些其他模型的配置,复制一个配置然后把model和name修改为qwen2:7b即可

www.zeeklog.com  - 构建本地AI客服:利用FastGPT与Ollama打造智能助手


文件里面还有个vectorModels,把M3E模型的配置信息填写进去

www.zeeklog.com  - 构建本地AI客服:利用FastGPT与Ollama打造智能助手

到这里,配置方面就结束了,运行docker-compose down,docker-compose up -d重启容器加载更新后的配置文件

四. 在fastgpt页面创建自己的知识库,并关联知识库创建AI应用

访问localhost:3000,进入到fastgpt页面

左侧点击知识库,右上角新建知识库,名字随便起,文件模型选择千问(这些都是我们刚刚在config.json里配置好的,在这里都显示出来了)

www.zeeklog.com  - 构建本地AI客服:利用FastGPT与Ollama打造智能助手

右上角新建数据源,选择本地文件,然后自己上传一个知识库文件进去,比如员工手册,我是自己随便编了个电商介绍的txt文件丢进去了。

知识库创建完毕后,左侧点击工作台,右上角新建简单应用,选择知识库+对话引导,名字随便填

www.zeeklog.com  - 构建本地AI客服:利用FastGPT与Ollama打造智能助手

进入到创建应用的界面,左侧点击关联知识库,把自己刚刚创建的知识库选上,然后就可以和AI聊天了,可以看到AI的对话里会显示引用了自己创建的知识库。大功告成!

www.zeeklog.com  - 构建本地AI客服:利用FastGPT与Ollama打造智能助手

搭建好的应用可以通过链接分享给他人使用,也可以调用api接口访问。在应用上方的"发布渠道"按钮里点开就可以看到。api访问需要在页面里生成一个api密钥,调用接口时放在请求头里,具体可以在api访问的页面里有文档链接

www.zeeklog.com  - 构建本地AI客服:利用FastGPT与Ollama打造智能助手
www.zeeklog.com  - 构建本地AI客服:利用FastGPT与Ollama打造智能助手

如何学习AI大模型?

我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。

我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

www.zeeklog.com  - 构建本地AI客服:利用FastGPT与Ollama打造智能助手

第一阶段: 从大模型系统设计入手,讲解大模型的主要方法;

第二阶段: 在通过大模型提示词工程从Prompts角度入手更好发挥模型的作用;

第三阶段: 大模型平台应用开发借助阿里云PAI平台构建电商领域虚拟试衣系统;

第四阶段: 大模型知识库应用开发以LangChain框架为例,构建物流行业咨询智能问答系统;

第五阶段: 大模型微调开发借助以大健康、新零售、新媒体领域构建适合当前领域大模型;

第六阶段: 以SD多模态大模型为主,搭建了文生图小程序案例;

第七阶段: 以大模型平台应用与开发为主,通过星火大模型,文心大模型等成熟大模型构建大模型行业应用。

www.zeeklog.com  - 构建本地AI客服:利用FastGPT与Ollama打造智能助手

👉学会后的收获:👈
• 基于大模型全栈工程实现(前端、后端、产品经理、设计、数据分析等),通过这门课可获得不同能力;

• 能够利用大模型解决相关实际项目需求: 大数据时代,越来越多的企业和机构需要处理海量数据,利用大模型技术可以更好地处理这些数据,提高数据分析和决策的准确性。因此,掌握大模型应用开发技能,可以让程序员更好地应对实际项目需求;

• 基于大模型和企业数据AI应用开发,实现大模型理论、掌握GPU算力、硬件、LangChain开发框架和项目实战技能, 学会Fine-tuning垂直训练大模型(数据准备、数据蒸馏、大模型部署)一站式掌握;

• 能够完成时下热门大模型垂直领域模型训练能力,提高程序员的编码能力: 大模型应用开发需要掌握机器学习算法、深度学习框架等技术,这些技术的掌握可以提高程序员的编码能力和分析能力,让程序员更加熟练地编写高质量的代码。

www.zeeklog.com  - 构建本地AI客服:利用FastGPT与Ollama打造智能助手
1.AI大模型学习路线图
2.100套AI大模型商业化落地方案
3.100集大模型视频教程
4.200本大模型PDF书籍
5.LLM面试题合集
6.AI产品经理资源合集

👉获取方式:
😝有需要的小伙伴,可以保存图片到wx扫描二v码免费领取【保证100%免费】🆓

www.zeeklog.com  - 构建本地AI客服:利用FastGPT与Ollama打造智能助手

Read more

前端防范 XSS(跨站脚本攻击)

目录 一、防范措施 1.layui util  核心转义的特殊字符 示例 2.js-xss.js库 安装 1. Node.js 环境(npm/yarn) 2. 浏览器环境 核心 API 基础使用 1. 基础过滤(默认规则) 2. 自定义过滤规则 (1)允许特定标签 (2)允许特定属性 (3)自定义标签处理 (4)自定义属性处理 (5)转义特定字符 常见场景示例 1. 过滤用户输入的评论内容 2. 允许特定富文本标签(如富文本编辑器内容) 注意事项 更多配置 XSS(跨站脚本攻击)是一种常见的网络攻击手段,它允许攻击者将恶意脚本注入到其他用户的浏览器中。

详细教程:如何从前端查看调用接口、传参及返回结果(附带图片案例)

详细教程:如何从前端查看调用接口、传参及返回结果(附带图片案例)

目录 1. 打开浏览器开发者工具 2. 使用 Network 面板 3. 查看具体的API请求 a. Headers b. Payload c. Response d. Preview e. Timing 4. 实际操作步骤 5. 常见问题及解决方法 a. 无法看到API请求 b. 请求失败 c. 跨域问题(CORS) 作为一名后端工程师,理解前端如何调用接口、传递参数以及接收返回值是非常重要的。下面将详细介绍如何通过浏览器开发者工具(F12)查看和分析这些信息,并附带图片案例帮助你更好地理解。 1. 打开浏览器开发者工具 按下 F12 或右键点击页面选择“检查”可以打开浏览器的开发者工具。常用的浏览器如Chrome、Firefox等都内置了开发者工具。下面是我选择我的一篇文章,打开开发者工具进行演示。 2. 使用

Cursor+Codex隐藏技巧:用截图秒修前端Bug的保姆级教程(React/Chakra UI案例)

Cursor+Codex隐藏技巧:用截图秒修前端Bug的保姆级教程(React/Chakra UI案例) 前端开发中最令人头疼的莫过于那些难以定位的UI问题——元素错位、样式冲突、响应式失效...传统调试方式往往需要反复修改代码、刷新页面、检查元素。现在,通过Cursor编辑器集成的Codex功能,你可以直接用截图交互快速定位和修复这些问题。本文将带你从零开始,掌握这套革命性的调试工作流。 1. 环境准备与基础配置 在开始之前,确保你已经具备以下环境: * Cursor编辑器最新版(v2.5+) * Node.js 18.x及以上版本 * React 18项目(本文以Chakra UI 2.x为例) 首先在Cursor中安装Codex插件: 1. 点击左侧扩展图标 2. 搜索"Codex"并安装 3. 登录你的OpenAI账户(需要ChatGPT Plus订阅) 关键配置项: // 在项目根目录创建.