大模型

您将深入了解大规模语言模型(如GPT、BERT等)的最新技术与应用。我们提供详细的技术解析、模型训练方法、优化技巧及行业应用案例,帮助您掌握大模型的开发与部署。无论您是AI领域的新手还是专业从业者,这里都能为您提供丰富的学习资源和实践经验,助力您在大模型技术的前沿领域获得竞争优势,推动人工智能的创新应用。

基于 DeepSeek R1 和 Ollama 开发 RAG 系统(含代码)

基于 DeepSeek R1 和 Ollama 开发 RAG 系统(含代码)

DeepSeek R1:RAG 系统的卓越之选 DeepSeek R1 ([DeepSeek R1:开启 AI 推理新时代的开源先锋])在 RAG 系统构建领域脱颖而出,有着诸多令人瞩目的优势,堪称开发者的得力助手。与 OpenAI 的 o1 模型相比,DeepSeek R1 在性能表现上毫不逊色,但其成本却大幅降低,仅为 o1 的 5%,这使得更多开发者和企业能够轻松负担,加速了 RAG 技术的广泛应用。 在检索环节,DeepSeek R1 展现出了极高的专注度。它在生成答案时,仅需使用 3 个文档块,就能精准地提取关键信息,避免了无关信息的干扰,显著提升了检索效率和回答的针对性。这一特性使得系统在处理大规模文档时,依然能够快速定位核心内容,为用户提供简洁而有效的答案。 在应对复杂问题或缺乏明确答案的情况时,DeepSeek R1

Ollama —— 在本地启动并运行大语言模型

Ollama —— 在本地启动并运行大语言模型

Ollama () 是一款命令行工具,可在 macOS 、 Linux 、Windows 上本地运行 Llama 2、Code Llama 、Gemma 等模型。 Ollama 目前支持近二十多个语言模型系列(),每个模型系列都有许多可用的 “tags”。Tags 是模型的变体,这些模型使用不同的微调方法以不同的规模进行训练,并以不同的级别进行量化,以便在本地良好运行。 下面以我的15年的MacBook Pro来跑Gemma模型(),下载Ollama对应版本后,直接放入应用目录,然后命令行执行。 ollama run gemma:2b Gemma 有 2B 与 7B 两个版本,我这里用低的这个版本。上面这个命令会自动下载对应的模型。 Gemma 2B效果: 写诗 写一首关于计算机的诗,用中文。 码头思绪,硬件原理, 逻辑思索,软件原理。 硬件硬件,软件软件,

37.4k 的 Dify,一款小白也可以轻松上手的大模型开发平台(二):使用本地大模型

37.4k 的 Dify,一款小白也可以轻松上手的大模型开发平台(二):使用本地大模型

上一篇文章《37.4k 的 Dify,一款小白也可以轻松上手的大模型开发平台(一):部署及基础使用》我们介绍了 Dify 的部署及基础使用,今天我们来介绍一下如何为 Dify 接入 Ollama。 使用 Ollama 还是在设置的弹窗中选择「模型供应商」,这次我们选择 Ollama,以 qwen2:7b 模型为例: * 模型名称我们填入 qwen2:7b * 基础 URL 填入 http://host.docker.internal:11434 * 其他选项可以根据自己的需求进行配置,或者也可以保持默认 * 然后保存即可 回到创建的应用中,在编排页面的右上角切换大模型为 qwen2:7b: 可以看到的,由于是本地大模型,所以响应速度非常快! 知识库配置嵌入模型 因为咱们本次使用 Ollama 来作为

Ollama:一键本地部署、运行LLM大型语言模型的工具

Ollama:一键本地部署、运行LLM大型语言模型的工具

Ollama部署、运行大型语言模型 概述 Ollama是一个专为在本地机器上便捷部署和运行大型语言模型(LLM)而设计的工具。 官方网站:https://ollama.com/ Github:https://github.com/ollama/ollama 安装 Ollama支持macOS、Linux和Windows多个平台运行 macOS: Windows: Docker:可在Docker Hub上找到 Linux:因为使用服务器,这里便以Linux操作系统使用为例记录说明 其中Linux通过命令直接安装如下: python root@master:~/work# curl -fsSL https://ollama.com/install.sh | sh >>> Downloading ollama... ######################################################################## 100.0%##O#-#

大模型部署:LLAMA3.1 8B 本地部署并配合Obsidian建立本地AI知识管理系统

大模型部署:LLAMA3.1 8B 本地部署并配合Obsidian建立本地AI知识管理系统

目前,LLAMA3.1模型分为8B、70B、405B三个版本,其中70B和405B对于显存的要求均已超过了一般家用电脑的配置(或者换个说法,用一张4090也是带不起来的),所以运行8B即可。LLAMA3.1 8B的性能约相当于ChatGPT3.5。 经过我的测试4080、2080、intel ultra 9 185H(无独立显卡,其能力约相当于1060)都是可以带得动8B模型的,当然显卡越好,响应的速度越快。 1、安装Ollama Ollama是专门为本地化运行大模型设计的软件,可以简便运行很多开源大模型 去官网下载Ollama软件: 代码语言:txt https://ollama.com/ 2、设置环境变量 可以直接在CMD中通过set命令设置 代码语言:txt set OLLAMA_HOST=127.0.0.1 set OLLAMA_MODELS=d:

本地知识库部署:AnythingLLM一键AI私有知识库! 支持多种大模型、RAG 和 AI Agents!

大模型

本地知识库部署:AnythingLLM一键AI私有知识库! 支持多种大模型、RAG 和 AI Agents!

大家好,今天介绍一个神奇的AI应用~ AnythingLLM是一个全栈AI应用程序,可以将任何文档、资源(如网址链接、音频、视频)输入大语言模型(LLM),与大模型互动。 基本介绍 利用AnythingLLM,您可以使用现成的商业大语言模型或流行的开源大语言模型,再结合向量数据库解决方案构建一个私有ChatGPT:您可以本地运行,也可以远程托管,并能够与您提供的任何文档智能聊天。 AnythingLLM将您的文档划分为称为workspaces (工作区)的对象。工作区的功能类似于线程,同时增加了文档的容器化,。工作区可以共享文档,但工作区之间的内容不会互相干扰或污染,因此您可以保持每个工作区的上下文清晰。 AnythingLLM的一些酷炫特性: * 多用户实例支持和权限管理 * 工作区内的智能体Agent(浏览网页、运行代码等) * 为您的网站定制的可嵌入聊天窗口 * 支持多种文档类型(PDF、TXT、DOCX等) * 通过简单的用户界面管理向量数据库中的文档 * 两种对话模式:聊天和查询。聊天模式保留先前的对话记录。查询模式则

一步步教你如何构建属于自己的个性化人工智能知识库

一步步教你如何构建属于自己的个性化人工智能知识库

如何搭建个人AI知识库? 分享一下我的整体思路。我觉得方法都是次要的,因为每个人的需求、情况都不同——唯有思路可以借鉴。 出发点和对应解法: 第一,信息过载,无法逐一细细消化。所以需要AI辅助,通过总结、提炼等方式帮助我们先快速、大致掌握。 第二,人脑不适合用来记东西,而应该用来做创造性的工作。所以需要“第二大脑 / Second Brain”来存储,需要AI根据语义进行检索(所有工具都有关键词检索,再加上语义检索就齐全了)。 第三,记笔记是对信息做预处理。记笔记的目的,是增援未来的自己。所以需要把信息层层筛选,最后挑选出来的、值得记下来的内容,用自己的话来记,而非复制别人的表述。 基于上面这三点,我设计了两套子系统,就像我在视频里介绍的: 外部信息处理。以AnythingLLM + 大模型为核心。 就像屠宰场一样,我把日常看到的、觉得有价值的信息都放到AnythingLLM里,用大模型这把“刀”,对所有信息作“肢解”,让我明白它们的“全身构造”,以及有哪些“

Llama3:8b大模型微调:手把手教你如何在本地部署自己私有化大模型

Llama3:8b大模型微调:手把手教你如何在本地部署自己私有化大模型

一、为什么需要本地部署属于自己的大模型? 1. 趋势:我们正处于AI人工智能时代,各行各业的公司和产品都在向AI靠拢。打造垂直领域的AI模型将成为每个公司未来的发展趋势。 2. 数据安全:在无法掌握核心算法的情况下,许多公司选择使用大公司的成熟方案。然而,这涉及到数据安全的问题。训练垂直定制化的大模型需要大量数据,而数据是公司的核心资产和基石。没有公司愿意将这些关键数据上传到外部服务器,这是公司的命脉所在。 3. 本地部署的重要性:因此,本地部署和训练自有或定制化的大模型显得尤为重要。这不仅是未来的发展趋势,也是程序员必须掌握的关键流程和解决方案。 二、如何拥有属于自己的本地大模型呢? 经过博主深入评估和多次测试,为您推荐以下解决方案: * 使用 Llama3:8b 作为模型 * 通过 Ollama 部署 * 利用 Llama.cpp 进行量化优化 * 采用 Unsloth 进行模型训练和微调 三、为什么要选择这个方案? 1、Llama3:8b * 低算力需求和成本:Llama3:8b 对计算资源的需求较小,

Ollama+AnythingLLM 实现本地私有知识库系统

Ollama+AnythingLLM 实现本地私有知识库系统

传统LLM应用的弊端 1 知识的局限性:模型自身的知识完全源于它的训练数据,而现有的主流大模型的训练集基本都是构建于网络公开的数据,对于一些实时性的、非公开的或离线的数据是无法获取到的,这部分知识也就无从具备。 2 幻觉问题:所有的AI模型的底层原理都是基于数学概率,其模型输出实质上是一系列数值运算,大模型自身不擅长的场景。而这种幻觉问题的区分是比较困难的,因为它要求使用者自身具备相应领域的知识。 3 数据安全性:对于企业来说,数据安全至关重要,没有企业愿意承担数据泄露的风险,将自身的私域数据上传第三方平台进行训练。 检索增强生成原理 索增强生成(Retrieval-Augmented Generation,RAG),是一种使用外部知识库来补充大语言模型的上下文并生成响应的技术 RAG结合了LLM中的参数化知识和非参数化外部知识,缓解了幻觉问题,通过检索技术识别及时的信息,并增强了响应的准确性 此外,通过引用来源,RAG增加了模型输出的透明度和用户信任度。 RAG还可以通过索引相关文本语料库进行定制以适应特定领域 原理图 # 完整的RAG应用流程主要包含数据准备和应用两个阶

使用 ollama 在本地试玩 LLM

使用 ollama 在本地试玩 LLM

在 chatGPT 的推动下。LLM 简直火出天际,各行各业都在蹭。听说最近 meta 开源的 llama3 模型可以轻松在普通 PC 上运行,这让我也忍不住来蹭一层。以下是使用 ollama 试玩 llama3 的一些记录。 什么是 llama LLaMA(Large Language Model Meta AI)是Meta开发的大规模预训练语言模型,基于Transformer架构,具有强大的自然语言处理能力。它在文本生成、问答系统、机器翻译等任务中表现出色。LLaMA模型有多个规模,从几亿到上千亿参数,适用于不同的应用场景。用户可以通过开源平台如Hugging Face获取LLaMA模型,并根据需要进行微调。LLaMA的灵活性和可扩展性使其在自然语言处理领域具有广泛的应用前景。 什么是 ollama Ollama是一款用于本地安装和管理大规模预训练语言模型的工具。它简化了模型的下载、安装和使用流程,支持多种流行的模型如GPT-4和llama。Ollama通过易于使用的命令行界面和API,帮助用户快速部署和运行自然语言处理任务。它还支持多GPU配置和模型微调,适应各种计算

给 Ollama 穿上 GPT 的外衣

给 Ollama 穿上 GPT 的外衣

上一篇我们介绍了如何在本地部署 ollama 运行 llama3 大模型。过程是相当简单的。但是现在给大模型交流只能在命令行窗口进行。这样的话就只能你自己玩了。独乐乐不如众乐乐嘛。我们接下来说一下如何部署 open-webui 给 ollama 加一个 webui,这样用户就可以通过浏览器访问我们的本地大模型了,体验非常类似 chatGPT。 Open-WebUI Open-WebUI 是一个开源的用户界面框架,旨在提供简便的工具和接口,帮助用户轻松地访问和管理各种深度学习模型,尤其是大规模预训练语言模型。以下是对Open-WebUI的简要介绍: * 开源框架: Open-WebUI 是一个开源项目,提供了灵活且可定制的用户界面,用于与各种深度学习模型进行交互。 * 模型管理: 通过 Open-WebUI,用户可以方便地加载、配置和管理多个深度学习模型,包括 GPT-4、BERT 等大规模预训练模型。 * 用户友好: 它提供了直观的界面,简化了模型使用过程,使非技术用户也能轻松上手进行自然语言处理任务。 * 集成支持: Open-WebUI 支持与

构建本地知识库(上): langchain+ollama构建本地大模型应用

大模型

构建本地知识库(上): langchain+ollama构建本地大模型应用

目标 在本地个人电脑上搭建一个基于大模型的本地知识库。在这个过程中能够实践并学习: 1. 如何在本地部署运行大模型 2. 如何基于大模型开发应用程序 3. 如何利用RAG构建本地知识库 资源准备 要实现这个目标,需要考虑几个问题: 1. 如何在本地设备上部署大模型?能部署哪些大模型? 2. 应该如何基于大模型构建应用? 3. 如何构建RAG应用? 对于问题1,我们需要一个大模型,这个大模型相对于正常大模型而言比较小,以满足能在我们本地设备上跑起起来的需求(CPU only),同时我们需要寻找一个工具,这个功能最好是能够帮助我们快速的下载,部署运行大模型。对于问题2,3我们应当寻找一个AI应用构建的框架,来帮我们快速集成大模型,构建应用。 LLaMA LLaMA(英语:Large Language Model Meta AI)是于2023年2月发布的。它训练了各种模型,这些模型的参数从70亿到650亿不等。LLaMA的开发人员报告说,LLaMA运行的130亿参数模型在大多数中的性能超过了更大的、具有1750亿参数的提供的模型,且LLaMA的模型可以与和等最