大模型

您将深入了解大规模语言模型(如GPT、BERT等)的最新技术与应用。我们提供详细的技术解析、模型训练方法、优化技巧及行业应用案例,帮助您掌握大模型的开发与部署。无论您是AI领域的新手还是专业从业者,这里都能为您提供丰富的学习资源和实践经验,助力您在大模型技术的前沿领域获得竞争优势,推动人工智能的创新应用。

使用ollama + AnythingLLM快速且简单的在本地部署llama3

使用ollama + AnythingLLM快速且简单的在本地部署llama3

不多说,直接开始 一、安装ollama ollama官网: 下载地址: 打开以后注册并下载即可 安装没有什么好说的,找到自己的系统安装即可,因为我的电脑没有搞虚拟机,所以就直接安装Windows的版本了 二、下载模型并运行ollama 安装ollama以后,通过管理员打开powershell 输入ollama,只要出现下面这些,说明安装成功了 打开ollama的模型的网页: 我们以llm3为例,双击进入 常用的命令有 serve Start ollama create Create a model from a Modelfile show Show information for a model run Run a model pull Pull a model from a registry push

Maxkb——无需代码,快速构建自己的AI助手(附教程)

Maxkb——无需代码,快速构建自己的AI助手(附教程)

随着ChatGPT在国内的爆火,越来越多的厂商开始投入AI大模型中去,几乎所有的网站都内嵌了一个AI对话窗口,电商、娱乐、社区。。。等等,可以看出,AI大模型已经是互联网发展的大趋势,那么,如何为自己的网站或者企业构建一个AI大模型呢?Maxkb就是一个开源免费的训练大模型工具,非常nice。 1、maxkb的介绍 它是飞致云开源免费的一款基于 LLM 大语言模型的开源知识库问答系统,旨在成为企业的最强大脑。 * 开箱即用 支持直接上传文档、自动爬取在线文档,支持文本自动拆分、向量化、RAG(检索增强生成),智能问答交互体验好; * 无缝嵌入 支持零编码快速嵌入到第三方业务系统,让已有系统快速拥有智能问答能力,提高用户满意度; * 灵活编排 内置强大的工作流引擎,支持编排 AI 工作流程,满足复杂业务场景下的需求; * 模型中立 支持对接各种大语言模型,包括本地私有大模型(Llama 3 / Qwen 2 等)、国内公共大模型(通义千问 / 智谱 AI / 百度千帆

本地知识库快速部署,FastGPT + Dify框架太好用了

本地知识库快速部署,FastGPT + Dify框架太好用了

本文主要内容 1. 本地部署 Dify、FastGPT、Ollama 2. Dify、FastGPT 对接一些目前免费的 LLM 大语言 AI 模型 3. Dify、FastGPT 对接 Ollama 本地模型 大家好,我是一名喜欢在家折腾本地部署的开发者,这次我来分享如何在本地运行 Ollama,并将它与 FastGPT 和 Dify 两个知识库对接。看起来复杂,但其实步骤并不难。我会尽量把内容讲得清楚易懂,加上一些幽默,让整个过程更有趣。 第一步:本地部署 Dify 和 FastGPT 💻 首先,我想找个知识库应用,结果在网上看上了 Dify 和 FastGPT。说实话,起初看了半天文档也分不出哪个更好用,就像在咖啡 ☕️ 和茶 🫖 之间犹豫不决,

如何在离线的Linux服务器上部署 Ollama,并运行 Qwen 大模型(附教程)

如何在离线的Linux服务器上部署 Ollama,并运行 Qwen 大模型(附教程)

手动安装 Ollama 根据Linux的版本下载对应版本的 Ollama, * 查看Linux CPU型号,使用下面的命令 #查看Linux版本号 cat /proc/version #查看cpu架构 lscpu * x86_64 CPU选择下载ollama-linux-amd64;aarch64|arm64 CPU选择下载ollama-linux-arm64 安装和运行 * 在有网络的环境下载好tgz安装包,并上传到离线 Linux 服务器 * 安装,使用下面的命令: sudo tar -C /usr -xzf ollama-linux-amd64.tgz * 启动 Ollama,使用下面的命令: ollama serve * 另外启动一个终端验证是否运行成功,使用下面的命令: #查看所有下载的模型 ollama list 这样 Ollama 就算安装完成了。之所以下载 Ollama,是因为 Ollama

linux 安装 Ollama 框架(附教程)

linux 安装 Ollama 框架(附教程)

概述 Ollama 是一款旨在简化大语言模型(LLM)本地部署的工具,支持 Windows、Linux 和 MacOS 系统。它提供了一个用户友好的环境,让开发者可以轻松地运行和调优如 Qwen、Llama 等超过1700种的大语言模型。 核心优势 * 多平台兼容性:无缝适配主流操作系统。 * 丰富的模型库:内置了大量预训练模型,直接从官网下载即可使用。 * 个性化配置:通过 modelfile 文件调整模型参数,实现对生成内容的精细控制。 * 自定义模型支持:允许导入第三方 ggml 格式的模型,或转换其他格式的模型至 ggml。 * 高性能推理:优化了多GPU环境下的并行处理能力,提升推理速度。 Ollama 的设计降低了大语言模型的使用门槛,特别适合希望快速构建 AI 应用或针对特定任务进行模型优化的开发者。 官方资源 * 下载页面: * 官方网站: * 源代码仓库: 快速安装指南 对于 Linux 用户,Ollama

LangChain : LLM (大语言模型)编程框架

大模型

LangChain : LLM (大语言模型)编程框架

概述:LangChain : LLM (大语言模型)编程框架 基本介绍:LangChain * LangChain 就是一个 LLM (大语言模型)编程框架 你想开发一个基于 LLM 应用,需要什么组件它都有,直接使用就行; 甚至针对常规的应用流程,它利用链(LangChain中Chain的由来)这个概念已经内置标准化方案了。 本文我们从新兴的大语言模型(LLM)技术栈的角度来看看为何它的理念这么受欢迎。 * 其官方的定义 LangChain是一个基于语言模型(LLM)开发应用程序的框架。它可以实现以下应用程序: * 数据感知:将语言模型连接到其他数据源 * 自主性:允许语言模型与其环境进行交互 * LangChain 简化了 LLM 应用程序【生命周期】的每个阶段: * 开发:使用 LangChain 的开源组件和第三方集成构建应用程序。 使用 LangGraph 构建具有一流流式处理和人机回圈支持的有状态代理。 * 产品化:使用 LangSmith 检查、

GraphRAG + GPT-4o mini 低成本构建 AI 图谱知识库(附教程)

GraphRAG + GPT-4o mini 低成本构建 AI 图谱知识库(附教程)

更好的效果,更低的价格,听起来是不是像梦呓? 限制 首先,让我们来介绍一个词:RAG。 简单来说,RAG(Retrieval-Augmented Generation,检索增强生成) 的工作原理是将大型文档分割成多个小段落或片段。主要原因是,大语言模型的上下文窗口长度有限,无法一次处理超过上下文窗口长度的信息。 当我提出一个问题时,RAG 技术可以先从这些片段中检索相关信息,根据我提问的内容与这些片段的相似度,找出若干个与问题相关的片段,组合成一个上下文,然后将这些信息,连同我的提问一起输入到大语言模型中,然后期待大语言模型「更为精准」的回答。 然而,我们需要考虑一些潜在的局限性。对于一个足够长的文档和一个非常复杂的问题,单靠这几个(仅仅是疑似相关的)片段可能是不够的。真正的答案,也许根本就不在里面。 我们之前讨论了很多关于私有知识库。例如 Quivr, Elephas, GPTs, Obsidian Copilot …… 用久了你会发现,私有知识库提供的回答结果与通过数据微调模型获得的结果可能差异很大 —— 微调后的模型往往能够依据私有数据回答非常复杂的问题,而 RAG

有手就会,5分钟完成DeepSeek-r1本地部署的喂饭机教程来了!

有手就会,5分钟完成DeepSeek-r1本地部署的喂饭机教程来了!

本地部署DeepSeek 如果你也遇到DeepSeek各种卡顿问题,可以按照我这个教程安装一个专属自己的“DeepSeek”。 下载安装 👉首先需要两个工具才能完成DeepSeek-r1的本地部署: 💾Ollama下载: **Ollama:**https://ollama.com/ 👇下载太慢的话直接点这里,我直接上传到飞书了。👇 https://yw55ojhusnq.feishu.cn/wiki/SDnUwigbZipvZHkQn74cJIXUnfc?from=from_copylink ✔访问网站点击Download➡️选择Windows版本继续选择Download➡️下载完成直接安装 考虑到性能问题,推荐Windows运行。本教程也是Windows本地部署教程 💿deepseek-r1模型下载: **Ollama:**https://ollama.com/ 👇下载太慢的话直接点这里,我直接上传到飞书了。👇 https://yw55ojhusnq.feishu.cn/wiki/SDnUwigbZipvZHkQn74cJIXUnfc?f

开工特辑!DeepSeek-R1本地部署指南!

开工特辑!DeepSeek-R1本地部署指南!

开工大吉!春节期间DeepSeek火出了圈,但由于访问人数过多经常频繁出现反应迟缓,幸好DeepSeek 是一个开源的大模型,我们可以通过本地部署在自己的电脑上随时使用,而且部署到本地后无需联网即可直接使用。今天小弹特出一版DeepSeek:deepseek-r1本地部署篇教程。 这需要用到我们的老朋友:Ollama ,小弹在之前的文章中已经介绍过几次! 安装Ollama 访问 https://ollama.com 进入 Ollama 官网下载 Ollama。 下载你的系统版本即可。 安装完成后win+R 打开CMD,输入ollama ,查看软件是否安装成功 下载并且部署DeepSeek大模型 访问:https://ollama.com/library/deepseek-r1 ,模型从1.5b,7b 到671b大小不等。 可以看到,deepseek模型都是基于大模型二次提炼而来,有千问、羊驼 安装模型:打开命令提示符(按win+r,输入cmd) 粘贴对应的模型代码,所有版本代码如下: DeepSeek-R1-Distill-Qwen-1.

教你用最优雅的方式把玩大模型

教你用最优雅的方式把玩大模型

人工智能(Artificial Intelligence)几乎与计算机科学一样古老,在二十世纪50年代被首次提出,在60年代就已经形成比较成熟的理论。但受制于算力和数据,直到二十一世纪第一个10年后才有了重大突破(深度学习和CNN),并在第二个10年正式爆发(大模型)。2022年秋OpenAI的ChatGPT 3横空出世,让AI第一次达到「类人」层次,大语言模型(Large Language Model, LLM)也正式进入了公众的视野。自此,大模型开始刷屏和霸榜,人们言必之大模型。如果不折腾折腾大模型,似乎就是原始人,跟别人聊天都插不上话。痛定思痛,今天就来好好研究下大模型以跟上步伐。 注意:常说的大模型是大语言模型的一种不严谨的简称,更为好的说法是大语言模型(Large Langauge Model)或者用其英文简写LLM,本文可能会混着用。 要了解一个东西最好的方式就先学会使用它,所以我们先从使用大模型开始。 在本地部署LLM 体验大模型的方式有很多种,最方便的就是直接使用各大AI大厂提供的聊天机器人如ChatGPT或者ChatGLM。确实很有趣,可以发现LLM与以往的

如何让本地大模型用起来更舒服

如何让本地大模型用起来更舒服

今天分享如何在个人电脑上部署一个比chatgpt交互界面更炫酷且实用的本地大模型,自带AI智能体和丰富插件库,支持文字、语音、图片的多模态交互。 理想的本地AI大模型是什么样 如果一个本地大模型,拥有以下强大功能,而且不需要任何费用,你会心动吗? 重点:一个比GPT3.5还好用的本地AI。 01、AI神组合LobeChat+Ollama** 1.插件库 LobeChat的插件生态系统是其核心功能的关键扩展,这些插件不仅限于新闻聚合,还能扩展到其他实用功能,如快速检索文档、生成图片、获取 Bilibili 和 Steam 等平台的数据,并与各种第三方服务进行交互。 2.智能体助手 LobeChat的助手市场,创作者们会发现一个充满活力和创新的社区。这里汇集了众多精心设计的AI助手。 3.支持多模型服务商 LobeChat 支持的模型包括: GPT3.5,GPT4.0,Claude3, LLama3,Gemini Pro,智谱ChatGLM,Moonshot AI (月之暗面)

AI届的新宠:小语言模型(SLM)?

大模型

AI届的新宠:小语言模型(SLM)?

大语言模型(LLM)在过去几年产生了巨大影响,特别是随着OpenAI的ChatGPT的出现,各种大语言模型如雨后春笋般出现,国内如KimiChat、通义千问、文心一言和智谱清言等。 然而,大语言模型通常拥有庞大的参数,从数十亿到数千亿,甚至到数万亿。比如通义千问发布的开源模型就包含了70亿、140亿和720亿等多个规模的版本;而最近发布的Llama3大模型则是有80亿和700亿两个版本;而广为人知的ChatGPT3最大的一个模型参数则达到了1750亿! 大模型的参数越多,一般意味着它能够捕捉和处理更丰富的信息和更复杂的模式,也就是回答的效果会更好,但是它们对于个人电脑、智能手机和其他智能设备等设备来说计算量却太大(尽管出现了量化等技术)。 由于上述原因,人们对小语言模型(SLM)的兴趣日益浓厚,并且在最近也出现了几款比较出名的小语言模型,请允许我娓娓道来。 1、Phi-3 模型 Phi-3是微软最近发布的一系列开放式 AI 模型,并且也是现有功能最强大、最具成本效益的小语言模型。 目前只提供了 mini 版本,即 Phi-3-mini ,这个版本拥有38亿个参数(也就是3.