大模型

您将深入了解大规模语言模型(如GPT、BERT等)的最新技术与应用。我们提供详细的技术解析、模型训练方法、优化技巧及行业应用案例,帮助您掌握大模型的开发与部署。无论您是AI领域的新手还是专业从业者,这里都能为您提供丰富的学习资源和实践经验,助力您在大模型技术的前沿领域获得竞争优势,推动人工智能的创新应用。

当 AI 遇上爬虫:让数据提取变得前所未有地简单!

当 AI 遇上爬虫:让数据提取变得前所未有地简单!

转自:AI真好玩 你是否曾想过,如果有一个工具,能够理解你的意图并自动执行复杂的网络数据抓取任务,那会怎样?ScrapeGraphAI[1] 就是这样一个工具,它利用最新的人工智能技术,让数据提取变得前所未有地简单。 ScrapeGraphAI 是一个用于网络抓取 Python 库,它使用大语言模型(LLM)和直接图为网站、文档和 XML 文件创建抓取管道。只需说出您想要提取哪些信息,它就会为您完成! 工具特点 * 简单易用:只需输入 API 密钥,您就可以在几秒钟内抓取数千个网页! * 开发便捷:你只需要实现几行代码,工作就完成了。 * 专注业务:有了这个库,您可以节省数小时的时间,因为您只需要设置项目,人工智能就会为您完成一切。 快速开始 在线示例 1.官方 Streamlit https://scrapegraph-ai-demo.streamlit.app/ 2.Google Colab https:

前端拥抱AI:LangChain.js 入门遇山开路之PromptTemplate

前端拥抱AI:LangChain.js 入门遇山开路之PromptTemplate

PromptTemplate是什么 PromptTemplate是一个可重复使用的模板,用于生成引导模型生成特定输出的文本。与Prompt的区别: PromptTemplate相对于普通Prompt的优势,即其灵活性和可定制性。 简单了解PromptTemplate后,咱们就来聊聊LangChain里的PromptTemplate—让聊天变得像搭积木一样简单的神奇工具,我们知道通过提供不同的Prompt,AI模型能够生成风格迥异的答案。明确的Prompt能引导模型生成高质量的文本内容。 首先,咱们得明白,prompt就是那根能撬动大模型智慧的杠杆。在没有template时,需要自己一字一句地构造问题。但现在,有了PromptTemplate,就像有了个私人定制的工厂,想要什么都行! 无输入变量的模板 新手村第一站,从最基础的开始——无变量Template,就是“hello world”级别的问候。但它却是理解PromptTemplate世界的敲门砖。 引用langchain的prompts模块提供的PromptTemplate 方法传入 inputVariables 和 t

无需GPU!三步实现DeepSeek开源模型本地化部署。

无需GPU!三步实现DeepSeek开源模型本地化部署。

deepseek和chatGpt最大的区别就在于,它是开源的模型,并且训练成本更低,这使得我们普通人也能够在自己的电脑部署大语言模型,训练自己的AI智能体。我们需要谨记的就是,AI是工具,是为了提高我们的效率,它能够给我们提供更精确,更具逻辑的回答,你再根据自身的需求进行修改和采用。 最近Deepseek访问量剧增,导致App时常访问不了,但是不用担心,官方给我们提供了本地部署大模型的方案。 一、本地部署 vs APP/网页端访问 最近Deepseek访问量剧增,导致App时常访问不了,但是不用担心,官方给我们提供了本地部署大模型的方案。 这里做一下简单的说明,本地部署Deepseek r1大模型和使用App/网页访问的区别。 本地部署:使用个人电脑,部署大模型,需要一定技术背景 * 优点:隐私保护性强,更安全,可以训练专属智能体。 * 缺点:性能差,跟官方的服务器差距很大,成本更高,对电脑显卡有要求。【相当于单机模式,本地运行】 App/网页使用:开箱即用,使用简单跟微信聊天一样,无需技术背景,性能更高,因为官方的服务器后面是成百上千张卡进行

deepseek满血版本地最强部署教程!从此告别系统繁忙!

deepseek满血版本地最强部署教程!从此告别系统繁忙!

哈喽,大家好,要说当今社会什么东西最火那绝对是AI,在AI界最火的当属deepseek,然而所谓树大招风,由于它太优秀导致被各种攻击,所以就会导致使用是经常系统繁忙,实在影响使用心情,今天就教大家怎么在自己电脑本地部署DeepSeek R1 来解决这个问题。 deepseek本地部署教程 【适用平台】Windows/Mac 【具体步骤】 第一步: 下载Ollama 下载地址:https://ollama.com/download 可以看到Ollama 支持超级多的模型 第二步: 如果你感觉下载速度有点慢,可以把链接复制到迅雷里进行下载; 第三步: 下载完成后安装 ollamaSetup.exe 文件; 第四步: 安装完成后,运行 Ollama ; 第五步: 然后在开始菜单搜索框搜索 cmd 命令运行工具; 第六步: DeepSeek模型版本有许多:比如1.5b、7b、8b、14b、32b、70b

零代码本地搭建AI大模型,详细教程!普通电脑也能流畅运行,中文回答速度快,回答质量高

零代码本地搭建AI大模型,详细教程!普通电脑也能流畅运行,中文回答速度快,回答质量高

这篇教程主要解决: 1). 有些读者朋友,电脑配置不高,比如电脑没有配置GPU显卡,还想在本地使用AI; 2). Llama3回答中文问题欠佳,想安装一个回答中文问题更强的AI大模型。 3). 想成为AI开发者,开发一款AI大模型的应用和产品,如何选择API的问题。 我相信,大家平时主要还是以中文问答为主,安装一个中文回答更强的AI,就显得更很有必要。 这篇教程主要解决上面两个问题。 1 通义千问大模型的优势 近日阿里云正式发布通义千问2.5,模型性能全面赶超GPT-4 Turbo,成为地表最强中文大模型。 从初代模型升级至2.5版本,2.5版模型的理解能力、逻辑推理、代码能力分别提升9%、16%、10%,中文能力更是持续领先业界。 通义千问2.5相对于前代版本还有以下几方面的重大升级: 1. 文档处理能力增强:通义千问2.5能够处理单次长达1000万字、100个文档的大量数据,支持包括PDF、Word、Excel在内的多种文件格式,并能解析标题、段落、图表等多种数据结构。 1. 音视频理解能力提升:融合了语音、

教程 |终于,我在本地跑起了开源的 AI 模型

大模型

教程 |终于,我在本地跑起了开源的 AI 模型

01 就像西方不能没有耶路撒冷一样,我们也不能没有开源的 AI 模型。只要这个开源的小模型是免费的、够好用、够小,它就是个好模型。 没错,就是 Llama3,相信大家都很熟悉了,羊驼家族的明星。 https://ollama.com/library/llama3 首先我们需要进入Llama3的官方网站,下载一个软件,可以简单理解为启动器,看见这个可爱的羊驼,点击右上角的下载即可: 下载好后直接双击安装即可。 安装完毕后,点击运行弹窗,来到当前这个界面: 如果不小心退出了,可以通过 Win + R,输入 cmd ,打开终端。 输入 ollama -v 即可查看版本 ollama version is 0.1.39 没问题之后,可以先输入指令查看本地的模型(此时还没有安装,输出列表为空的),指令:

如何在不微调的情况下提高 RAG 的准确性?

如何在不微调的情况下提高 RAG 的准确性?

今天,我们要尝试使用langchain完成一个最简单的任务: 基于一个大语言模型(LLM),使用代码的方式完成对话(chat) 为了实现这个目标,我们需要先进行如下的准备,然后才能开始进行代码的编写: 1、使用ollama,在本地配置一个LLM; 2、配置好PyCharm的环境; 3、langchain等依赖库的安装。 先大体的介绍一下思路: langchain是一套AI编程框架,将基础的功能已经整合进来封装,减少我们的工作量。但langchain本身并不是LLM,需要我们安装好LLM,或使用在线api。我们选择了自己部署,而自己部署的一个工具就是Ollama,它可以在本地部署好我们的LLM,如llama\qwen等,Ollama是这些LLM的运行环境。 串连起来说就是:用langchain提供的函数进行快捷编程,langchain的函数调用Ollama的接口,Ollama再调用部署在其中的LLM,实现对LLM功能的调用,完成我们的任务。 什么是Ollama? 用通俗的语言解释,Ollama是大模型的运行环境,LLM并不是一个可执行文件,需要依托于一个运行环境才可

实测Meta最新开源模型——LLaMA 3.1,能力惊人!

实测Meta最新开源模型——LLaMA 3.1,能力惊人!

Meta最近发布了开源模型——LLaMA 3.1。这个模型有三个参数版本,分别是8B、70B和405B。其中,405B的性能号称可以直逼GPT-4。我们先来看看它到底有多强大。 下载与安装LLaMA 3.1 首先,我下载了8B模型到我的电脑。这个模型的大小是4.7G,虽然参数最小,但可以通过实际测试来看看它的表现。下载和安装其实非常简单。只需要到Ollama的官网上下载安装包,像正常安装一个软件一样,安装完成后,在PowerShell中输入`ollama run llama3.1:8b`即可运行。 如果你本地没有这个模型,它会自动下载,非常方便。 实际测试LLaMA 3.1:8B的能力 为了全面了解LLaMA 3.1:8B的能力,我准备了五个问题,分别涉及中文、英文、数字、推理和代码能力。让我们看看它的表现如何: 1. **问题:9.

基于大模型构建企业私有智能知识库落地的简单实践

基于大模型构建企业私有智能知识库落地的简单实践

随着人工智能技术的飞速发展,大模型在企业知识管理中的应用日益广泛。下文是作者围绕如何基于大模型技术构建企业私有知识库,以提升企业的知识管理效率和创新能力的一些思考和简单实践。 本文对企业知识库的落地场景暂不作广泛的展开,主要记录作者基于大模型构建企业私有知识库的一些技术实践。 一、私有知识库的应用场景 各行各业中有很多场景需要基于企业知识库进行搜索和问答: \1. 构建装备维护知识库和问答系统:使用历史维保记录和维修手册构建企业知识库,维修人员可依靠该知识库,快速地进行问题定位和维修。 \2. 构建 IT/HR 系统智能问答系统:使用企业内部 IT/HR 使用手册构建企业知识库,企业内部员工可通过该知识库快速解决在 IT/HR 上遇到的问题。 \3. 构建电商平台的搜索和问答系统:使用商品信息构建商品数据库,消费者可通过检索+问答的方式快速了解商品的详细信息。 \4. 构建游戏社区自动问答系统:使用游戏的信息(例如游戏介绍,游戏攻略等)构建社区知识库,可根据该知识库自动回复社区成员提供的问题。 \5. 构建智能客户聊天机器人系统:通过与呼叫中心/聊天机器人服务结合,可

掌握 Llama 3.1:轻松本地部署与远程使用的全攻略

掌握 Llama 3.1:轻松本地部署与远程使用的全攻略

前言: Llama 3.1 是 Meta(Facebook 的母公司)发布的一系列最先进的开源大语言模型。Llama 3.1 系列包括 8B(80 亿参数)、70B(700 亿参数)和 405B(4050 亿参数)模型。其中,405B 是 Meta 迄今为止最大的模型。 本地部署的硬件要求,请确认您的硬件是否能够正常运行,以免浪费时间 Windows:3060以上显卡+8G以上显存+16G内存,硬盘空间至少20G Mac:M1或M2芯片 16G内存,20G以上硬盘空间 具体模型的显卡需求: * llama3.1-8b,至少需要8G的显存 * llama3.1-70b,至少需要大约 70-75 GB

本地部署私人知识库的大模型!Llama 3 + RAG!

本地部署私人知识库的大模型!Llama 3 + RAG!

在今天的的教程中,我们将打造更加个性化的大模型,可以定制搭载私人知识库的本地大模型! 我们探讨Meta AI 的尖端 Llama 3 语言模型构建强大的检索增强生成 (RAG) 来实现。通过利用 Llama 3 和 RAG 技术的功能,我们将创建一个应用程序,允许用户与网页进行交互式对话,检索定制化、私人知识库的相关信息并生成对用户查询的准确响应。在本教程中,我们将深入探讨设置开发环境、加载和处理网页数据、创建嵌入和向量存储以及实现 RAG 链以提供卓越用户体验的分步过程。 什么是Llama 3? Llama 3 是由 Meta AI 开发的最先进的语言模型,擅长理解和生成类似人类的文本。 * 凭借其令人印象深刻的自然语言处理能力,Llama 3 可以理解复杂的查询、提供准确的响应并参与与上下文相关的对话。 * 它能够处理广泛的主题和处理效率,使其成为构建智能应用程序的理想选择。 * 想测试Llama 3的威力吗?立即与 Anakin AI 聊天!(它支持任何可用的

开源必看!50 多个本地运行 LLM 的开源选项

大模型

开源必看!50 多个本地运行 LLM 的开源选项

在我之前的文章中,我讨论了使用本地托管的开源权重 LLM 的好处,例如数据隐私和成本节约。通过主要使用免费模型并偶尔切换到 GPT-4,我的月度开支从 20 美元降至 0.50 美元。设置端口转发到本地 LLM 服务器是移动访问的免费解决方案。 有许多开源工具可以在本地托管开源权重 LLM 进行推理,从命令行工具(CLI)到完整的 GUI 桌面应用程序。这里,我将概述一些流行选项并提供我的推荐。我将这篇文章分为以下几个部分: \1. 便于访问的全能桌面解决方案2. 通过 CLI 和后端 API 服务器进行 LLM 推理3. 用于连接 LLM 后端的前端 UI 每个部分都包括相关开源 LLM GitHub 仓库的表格,以评估其受欢迎程度和活跃度。点击这里[1]查看完整表格,点击这里[2]