自建本地AI回答大模型 ollama-openwebui

自建本地AI回答大模型 ollama-openwebui

ollama-openwebui

ollama是一个开源项目,它提供了一个平台和工具集,用于部署和运行各种大型语言模型。

ollama官网:https://ollama.com/

ollama下载地址:https://ollama.com/download

GitHub地址:https://github.com/ollama/ollama

ollama 介绍

ollama部署

我们这里选择直接部署docker,简单方便,docker部署忽略

docker镜像地址: https://hub.docker.com/r/ollama/ollama

# 拉取docker镜像

docker pull ollama/ollama:latest



# AMD显卡

docker run -d   -v /mnt/c/ubuntu-wsl/data/ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama:rocm 

# 英伟达显卡

docker run -d --gpus=all -v ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama

# cpu only 

docker run -d -v ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama

ollama模型

下面是一些受欢迎的模型:

| Model | Tag | Parameters | Size | Download |

|:------------------😐:-----------😐:------------😐:-------😐-------------------------------------|

| llama3 | - | 70b | 40GB | ollama run llama3:70b |

| llama3 | - | 8b | 4.7GB | ollama run llama3:8b |

| gemma | - | 7b | 5.0GB | ollama run gemma:7b |

| gemma | - | 2b | 1.7GB | ollama run gemma:2b |

| mistral | - | 7b | 4.1GB | ollama run mistral:7b |

| qwen | - | 110b | 63GB | ollama run qwen:110b |

| phi3 | - | 3.8b | 2.2GB | ollama run phi3:3.8b |

| llama2 | - | 7b | 3.8GB | ollama run llama2:7b |

| codellama | Code | 70b | 39GB | ollama run codellama:70b |

| llama3.1 | - | 405b | 231GB | ollama run llama3.1:405b |

| gemma2 | - | 27b | 16GB | ollama run gemma2:27b |

| qwen2 | - | 72b | 41GB | ollama run qwen2:72b |

| llava | Vision | 7b | 4.7GB | ollama run llava:7b |

| nomic-embed-text | Embedding | v1.5 | 274MB | ollama pull nomic-embed-text:v1.5 |

本地模型启动

启动本地大模型,这个步骤会下载llama3模型,根据个人带宽网速预估时间

docker exec -it ollama ollama run llama3

交互对话

执行完毕后,会进入交互模式,输入内容,就可以在线对话了,我们用docker安装的,所以通过docker命令启动对话

root@DESKTOP-CK75KU2:~# docker exec -it ollama ollama run  llama3

>>> 请介绍一下你自己

I'm just an AI, I don't have a personal identity or individual characteristics like humans do. However, I can introduce

myself and explain what I am and what I can do.



My name is LLaMA, and I'm a large language model trained by Meta AI. I was created to assist users in generating

human-like text based on the input they provide me.

openweb ui 介绍

openweb ui参考仓库地址:https://github.com/ollama-webui/ollama-webui-lite

使用docker部署

docker run -d -p 8186:8080 --add-host=host.docker.internal:host-gateway -v /mnt/c/ubuntu-wsl/data/openwebui:/app/backend

之后点击端口访问,如下图所示。也可以直接在浏览器输入 http://localhost:8186/ ,打开后会出现登录到 Open WebUI,只需要邮箱注册一下就好了

www.zeeklog.com  - 自建本地AI回答大模型 ollama-openwebui

选择模型

选型我们刚刚安装的模型,就可以发起对话了

www.zeeklog.com  - 自建本地AI回答大模型 ollama-openwebui

对话演示

这里我们选择 ollama3 模型,进行对话,然后发现都是英文回复,后面我们在讲一下怎么中文

www.zeeklog.com  - 自建本地AI回答大模型 ollama-openwebui

如果想探索更多功能可参考:https://github.com/open-webui/open-webui

cpu使用率

可以看出回答问题的时候占用的是我们本地的CPU内存资源,当他结束后CPU瞬间得到释放

www.zeeklog.com  - 自建本地AI回答大模型 ollama-openwebui

调试中文模型

第一种要求中文回复

只需要在我们问的时候,要求回复的时候,加上,请用中文回复

www.zeeklog.com  - 自建本地AI回答大模型 ollama-openwebui

自定义模型配置

我们可以使用Ollama提供的创建新模型的方式,基于LLama 3 8b创建一个我们自己的模型。在创建时,把System信息写入进去。这样每次调用模型时就会自动生效了。

我们把把配置放到volume共享目录下面,这样子docker命令启动才会引用到这个文件


from llama3



PARAMETER temperature 1

PARAMETER num_ctx 6000

PARAMETER top_k 50

PARAMETER top_p 0.95

SYSTEM """

尽你的最大可能和能力回答用户的问题。不要重复回答问题。不要说车轱辘话。语言要通顺流畅。不要出现刚说一句话,过一会又重复一遍的愚蠢行为。



RULES:



- Be precise, do not reply emoji.

- Always response in Simplified Chinese, not English. or Grandma will be  very angry.

"""

然后执行命令:ollama create cusllama3 -f Modelfile。构建我们自己的模型

ollama create bdsllama3 -f Modelfile

我们在openweb ui选一下这个模型

www.zeeklog.com  - 自建本地AI回答大模型 ollama-openwebui

我们看到最后的中文效果就是舒服多了

如何学习AI大模型?

作为一名热心肠的互联网老兵,我决定把宝贵的AI知识分享给大家。 至于能学习到多少就看你的学习毅力和能力了 。我已将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

Read more

前端防范 XSS(跨站脚本攻击)

目录 一、防范措施 1.layui util  核心转义的特殊字符 示例 2.js-xss.js库 安装 1. Node.js 环境(npm/yarn) 2. 浏览器环境 核心 API 基础使用 1. 基础过滤(默认规则) 2. 自定义过滤规则 (1)允许特定标签 (2)允许特定属性 (3)自定义标签处理 (4)自定义属性处理 (5)转义特定字符 常见场景示例 1. 过滤用户输入的评论内容 2. 允许特定富文本标签(如富文本编辑器内容) 注意事项 更多配置 XSS(跨站脚本攻击)是一种常见的网络攻击手段,它允许攻击者将恶意脚本注入到其他用户的浏览器中。

详细教程:如何从前端查看调用接口、传参及返回结果(附带图片案例)

详细教程:如何从前端查看调用接口、传参及返回结果(附带图片案例)

目录 1. 打开浏览器开发者工具 2. 使用 Network 面板 3. 查看具体的API请求 a. Headers b. Payload c. Response d. Preview e. Timing 4. 实际操作步骤 5. 常见问题及解决方法 a. 无法看到API请求 b. 请求失败 c. 跨域问题(CORS) 作为一名后端工程师,理解前端如何调用接口、传递参数以及接收返回值是非常重要的。下面将详细介绍如何通过浏览器开发者工具(F12)查看和分析这些信息,并附带图片案例帮助你更好地理解。 1. 打开浏览器开发者工具 按下 F12 或右键点击页面选择“检查”可以打开浏览器的开发者工具。常用的浏览器如Chrome、Firefox等都内置了开发者工具。下面是我选择我的一篇文章,打开开发者工具进行演示。 2. 使用

Cursor+Codex隐藏技巧:用截图秒修前端Bug的保姆级教程(React/Chakra UI案例)

Cursor+Codex隐藏技巧:用截图秒修前端Bug的保姆级教程(React/Chakra UI案例) 前端开发中最令人头疼的莫过于那些难以定位的UI问题——元素错位、样式冲突、响应式失效...传统调试方式往往需要反复修改代码、刷新页面、检查元素。现在,通过Cursor编辑器集成的Codex功能,你可以直接用截图交互快速定位和修复这些问题。本文将带你从零开始,掌握这套革命性的调试工作流。 1. 环境准备与基础配置 在开始之前,确保你已经具备以下环境: * Cursor编辑器最新版(v2.5+) * Node.js 18.x及以上版本 * React 18项目(本文以Chakra UI 2.x为例) 首先在Cursor中安装Codex插件: 1. 点击左侧扩展图标 2. 搜索"Codex"并安装 3. 登录你的OpenAI账户(需要ChatGPT Plus订阅) 关键配置项: // 在项目根目录创建.