大模型

您将深入了解大规模语言模型(如GPT、BERT等)的最新技术与应用。我们提供详细的技术解析、模型训练方法、优化技巧及行业应用案例,帮助您掌握大模型的开发与部署。无论您是AI领域的新手还是专业从业者,这里都能为您提供丰富的学习资源和实践经验,助力您在大模型技术的前沿领域获得竞争优势,推动人工智能的创新应用。

LibreChat 集成 Stripe 支付的奶妈级教程

大模型

LibreChat 集成 Stripe 支付的奶妈级教程

我们假设你已经熟悉基本的 React 和 Node.js 开发,并且正在使用 LibreChat 的默认技术栈(React 前端、Node.js 后端、Vite 构建工具,可能还有 Electron 桌面应用)。教程会特别考虑 Electron 环境下的适配问题(例如 macOS 中文路径或路由错误)。“奶妈级”带你从零开始实现支付功能(包括一次性支付和添加高级会员订阅) 教程目标 * 在 LibreChat 中添加支付页面,支持用户通过信用卡付款。 * 实现 Stripe 的一次性支付功能。 * (可选)扩展到订阅功能,管理高级会员状态。 * 解决 Electron 环境下的常见问题(如路由和路径解析)。 * 生成可公开推送的 Markdown 教程,方便社区参考。 前提条件 在开始之前,请确保你已准备好以下内容:

编程助手 Roo Code 新技能秀,与 Cline 比拼新功能

编程助手 Roo Code 新技能秀,与 Cline 比拼新功能

编程助手 Roo Code 新技能秀,与 Cline 比拼新功能 2025年02月13日 08:03 中国香港 Cline 是目前最好用的AI编程工具之一,在Open Router的日排行、周排行和月排行中,Cline都是调用模型最多的工具。它支持多种模型,包括OpenAI、Ollama等,并且可以免费使用。 Roo Code(前身为Roo Cline,是 Cline 一个强大的分支)作为一款功能强大的AI编程助手,通过其全面的功能和灵活的定制能力,为开发者提供了全新的开发体验,堪称Cline的升级版本。 Roo Code 提供而 Cline 尚未提供的功能: * 新任务工具:在现有任务内创建新任务,允许自动上下文延续,包括自动批准选项。(01/24/30) * 自定义模式:创建无限量的自定义模式,每个模式都有自己的提示、模型选择和工具集。 * 智能模式切换:模式现在可以在需要时智能地请求切换到其他模式,

ollama轻松部署本地GraphRAG(避雷篇)

ollama轻松部署本地GraphRAG(避雷篇)

本篇文章主要介绍如何使用ollama本地部署微软的Graph RAG,,Graph RAG成为RAG一种新范式,对于全局总结性问题表现突出,当开始的技术路线是Qwen2+vllm+fastchat本地部署Grapg RAG,但是embedding 的openai服务怎么都跑不起来,只好更换技术路线,由ollama一站式解决。但是中间也出现非常多的问题,比如Columns must be same length as key。跟着本篇文章使用ollama+mistral-nemo+mxbai-embed-large实现本地的GraphRAG的部署,再也不用担心tokens花费不起啦! 文章目录 * * 一、前沿知识 1. GraphRAG Graph RAG是一种基于知识图谱的检索增强技术。通过构建图模型的知识表达,将实体和关系之间的联系用图的形式展示出来,然后利用大语言模型(LLM)进行检索增强。这种方法将知识图谱视为一个超大规模的词汇表,实体和关系则对应于单词,从而在检索时能够将实体和关系作为单元进行联合建模。 本项目目的即为在本地实现GraphRAG部署

ollama本地部署LightRAG(已跑通)

ollama本地部署LightRAG(已跑通)

之前有用ollama本地部署过graphrag,这次尝试部署一下香港大学的LightRAG,更轻量更便捷! 一、环境配置 首先需要将LightRAG的项目拉到本地,具体可以参考github的项目, git clone https://github.com/HKUDS/LightRAG.git 安装LightRAG所需要的依赖: cd LightRAG pip install -e . 安装ollama,ollama官网提供的方法速度比较慢,经常容易出现中断的现象。这里推荐修改安装脚本的方法进行安装,首先下载安装脚本并修改权限: # 下载安装脚本 curl -fsSL https://ollama.com/install.sh -o ollama_install.sh # 给脚本添加执行权限 chmod +x ollama_install.sh 修改下载源,打开ollama_install.sh,找到以下两个下载地址: https:

使用LlamaIndex,Qdrant,Ollama和FastAPI构建本地RAG api

使用LlamaIndex,Qdrant,Ollama和FastAPI构建本地RAG api

介绍 ChatGPT已经改变了我们与AI的互动方式。人们现在将这些大型语言模型(LLMs)作为主要的个人助手来进行写作、头脑风暴甚至咨询。然而,这些LLMs的问题在于,它们的表现只能和它们接受的训练数据一样好。 例如,如果一家公司想要向ChatGPT查询一份内部文件,ChatGPT可能无法理解它。此外,它的知识可能不是最新的,而且容易产生幻觉。 为了解决这个问题,我们可以在我们的数据上对这些LLMs进行微调,使它们能够从中回答问题。然而,这种方法可能非常昂贵。要使它们与新信息保持更新,需要不断的重新训练。 此外,幻觉的问题仍然存在,而且很难验证他们答案的来源。 更好的方法是利用强大的LLMs,可以访问我们的数据,而无需进行微调。我们如何实现这个目标呢?多亏了一种最近出现的方法,叫做检索增强生成(RAG),我们可以检索与用户查询相关的文档,并将它们作为额外的上下文输入到LLM中以生成答案。(更多细节将在接下来的部分中讨论。) 来源:原始论文 动机 互联网上有大量关于如何构建RAG管道的教程,问题在于,大多数都依赖于在线服务和云工具,特别是在生成部分,许多教程都主张使用O

基于JSON的Ollama和LangChain agent

基于JSON的Ollama和LangChain agent

到目前为止,我们都可能意识到,通过为LLMs提供额外的工具,我们可以显著增强它们的功能。 例如,即使是ChatGPT在付费版本中也可以直接使用Bing搜索和Python解释器。OpenAI更进一步,为工具使用提供了经过优化的LLM模型,您可以将可用的工具和提示一起传递给API端点。 然后LLM决定是否可以直接提供回答,或者是否应该首先使用任何可用的工具。 请注意,这些工具不仅仅用于获取额外的信息;它们可以是任何东西,甚至可以让LLMs预订晚餐。我之前实施过一个项目,允许LLM通过一组预定义的工具与图数据库进行交互,我称之为语义层。 一个与图数据库交互的代理LLM。图片由作者提供。 本质上,这些工具通过提供动态、实时的信息访问、通过记忆进行个性化以及通过知识图谱对关系进行复杂的理解,来增强像GPT-4这样的LLM。 它们共同使LLM能够提供更准确的推荐,随着时间的推移了解用户的偏好,并获得更广泛的最新信息,从而实现更具互动性和适应性的用户体验。 正如提到的那样,除了在查询时能够检索到额外的信息外,它们还给LLM提供了一种影响他们环境的选择,例如在日历中预订会议。 虽然Op

GraphRAG 本地 Ollama - 知识图谱

GraphRAG 本地 Ollama - 知识图谱

欢迎来到GraphRAG Local Ollama!这个存储库是对微软的的激动人心的改编,旨在支持使用 Ollama 下载的本地模型。告别昂贵的 OpenAPI 模型,拥抱使用 Ollama 进行高效、具有成本效益的本地推理! 📄 研究论文 有关 GraphRAG 实现的更多详细信息,请参阅。 论文摘要 使用检索增强生成(RAG)从外部知识源中检索相关信息,使大型语言模型(LLMs)能够回答关于私人和/或以前未见过的文档集合的问题。然而,RAG 在针对整个文本语料库的全局问题上失败,比如“数据集中的主题是什么?”,因为这本质上是一个查询聚焦摘要(QFS)任务,而不是一个明确的检索任务。与此同时,先前的 QFS 方法无法扩展到 typica lRAG 系统索引的文本数量。为了结合这些对比方法的优势,我们提出了一种图形 RAG 方法,用于回答关于私人文本语料库的问题,该方法随着用户问题的普遍性和要索引的源文本数量而扩展。我们的方法使用一个LLM在两个阶段构建基于图形的文本索引:

如何快速构建个人 AI 知识库?

如何快速构建个人 AI 知识库?

—1— 如何搭建个人 AI 知识库? 分享我的整体思考过程。我认为具体方法因人而异,因为每个人的需求和情况都各不相同——唯有思路是可以互相借鉴的。 以下是出发点及其解决策略: 首先,面对信息过载,我们无法逐一细致地吸收。因此,需要人工智能的辅助,通过总结和提炼,帮助我们快速、大致地把握信息。 其次,人脑不适合用于记忆,而更适合进行创造性思考。因此,我们需要一个“第二大脑”来存储信息,并依赖AI进行基于语义的检索(除了关键词检索,语义检索能使得工具更加完善)。 再次,记笔记是对信息的一种预处理。记笔记的目的是为了支持未来的自己。因此,我们需要对信息进行层层筛选,最终用自己的话记录下那些值得记下的内容,而不是简单复制他人的表述。 基于以上三点,我设计了以下两套子系统,正如我在视频中展示的: 1. 外部信息处理系统。以 AnythingLLM 和大模型为核心。 我将日常遇到的、认为有价值的信息输入到 AnythingLLM 中,利用大模型这把“解剖刀”对信息进行“剖析”

LangChain进阶之LLM

LangChain进阶之LLM

01 Model介绍 任何语言模型应用程序的核心元素都是…模型(Model)。LangChain 提供了与任何语言模型进行交互的构建块(building blocks)。 LangChain 的 Model I/O 组件包括:两种不同类型的模型 - LLM 和 Chat model;格式化模型输入 Prompt;输出解析器 Output parser。 本文将重点介绍:Model I/O子组件—>LLM 02 LLM介绍 LangChain中的LLM是指纯文本完成模型(text completion models.)。这些模型通常都是接收一个字符串输入并返回一个字符串输出。 大型语言模型 (LLM) 是 LangChain 的核心组件。LangChain没有自己的LLM,而是提供了一个标准接口,用于与许多不同的LLM进行交互。 一句话解释:使用纯文本作为输入和输出的语言模型的接口。 LLM

打造本地大模型地基,PVE 配置显卡直通

打造本地大模型地基,PVE 配置显卡直通

本文将详细介绍如何在虚拟化平台 Proxmox Virtual Environment(PVE)配置显卡直通,将宿主机上的物理显卡直接分配给 AI 虚拟机使用。 1. 环境介绍 1.1 硬件环境 * 服务器: 科脑 X99-D4、2*32G DDR4 内存、Intel E5-2683 v4 * 显卡:NVIDIA P104-100 * BIOS:开启 VT-x/VT-d 类似的虚拟化扩展 本文选择纯矿卡 NVIDIA P104-100 作为演示,配置方法同样适用于其他型号显卡。 1.2 软件环境 * 虚拟化平台:Proxmox Virtual Environment 8.0.4 * AI 虚拟机: ubuntu

大模型llm:Ollama部署llama3学习入门llm

大模型llm:Ollama部署llama3学习入门llm

一、llama3简介 Llama 3 是一个自回归语言模型(an auto-regressive language),它使用优化的 transformer 架构。调整后的版本使用监督微调 (SFT) 和带有人类反馈的强化学习 (RLHF),以符合人类对有用性和安全性的偏好。 相关参数 训练数据参数量上下文长度分组查询注意力 (GQA)预训练数据知识截至日期Llama 3公开在线数据集8B8K是15T+2023 年 3 月Llama 370B8K是15T+2023 年 12 月 Llama3这个模型是在Meta新建的两座数据中心集群中训练的,包括超4.9万张英伟达H100GPU。 Llama3大型模型则达到400B,仍在训练中,目标是实现多模态、多语言的功能,预计效果将与GPT 4/GPT 4V相当。 二、Ollama安装 1、Ollama简介 Ollama 是一个开源的大型语言模型(LLM)服务工具,它允许用户在本地机器上运行和部署大型语言模型。

LLM大模型RAG入门及实践

LLM大模型RAG入门及实践

前言 在大语言模型(LLM)飞速发展的今天,LLMs 正不断地充实和改进我们周边的各种工具和应用。如果说现在基于 LLM 最火热的应用技术是什么,检索增强生成(RAG,Retrieval Augmented Generation)技术必占据重要的一席。RAG 最初是为了解决 LLM 的各类问题的产生的,但后面大家发现在现阶段的很多企业痛点上,使用RAG好像是更好的解决方案。在介绍 RAG 之前,我们先来看一下现在LLM存在的问题。 LLM的问题 尽管LLM拥有令人印象深刻的能力,但是它们还面临着一些问题和挑战: * 幻觉问题:大模型的底层原理是基于概率,在没有答案的情况下经常会胡说八道,提供虚假信息。 * 时效性问题:规模越大(参数越多、tokens 越多),大模型训练的成本越高。类似 ChatGPT3.5,起初训练数据是截止到 2021 年的,对于之后的事情就不知道了。而且对于一些高时效性的事情,大模型更加无能为力,比如帮我看看今天晚上有什么电影值得去看?这种任务是需要去淘票票、猫眼等网站先去获取最新电影信息的,