使用ollama+llama3.1+open-webui搭一个本地的模型
1、先安装我们的ollama 1.1、官网地址:https://ollama.com/ 选择合适的版本,我的是window版本,点击下载,不用填邮箱。 1.2、开始安装,选择默认就可以 1.3、安装完毕:cmd输入:ollama 2、安装模型:llama3.1 2.1:找到模型 2.2复制下载 2.3、命令行下载: 2.4、下载完毕就进入对话界面了: 到这本地模型已经搭建起来了,加个页面的话openweb-ui会看着舒服点 3、使用pip命令安装openweb-ui 由于我的电脑是win10家庭版,安装不了docker,看了好多方式是使用docker安装openwenb-ui,不过通过pip命令安装也是一样的 不过要保证python命令在3.11.0到3.12.0之间的版本 3.