教你如何使用 ollama 部署本地模型,保姆及教程,一看就会!
一、什么是 ollama? 在本地启动并运行大型语言模型。运行Llama 2,Code Llama和其他模型。自定义并创建您自己的。 二、why ollama? * 能直接运行大模型,与大模型进行对话。 * ollama 命令具有管理大模型的能力。 * 利用 cpu 运行大模型。 * 本地大模型安全可靠。 * 终端直接开始聊天。 * 社区提供了支持 web api 方式访问 WebUI。 如果你还没有尝试过在本地部署过大模型,那么 ollama 非常适合你。 三、准备工作 为了方便起见,先聊设备需求和辅助软件吧。部署大模型硬件还是要尽可能的高一些,因为文件比较大,虽然本地大模型对配置要求已经比较低了。 * docker 为了方便部署软件。 * 存储空间充足的机器,一般来说参数越大,需要配置越好。 * 良好的网络环境。 四、安装 ollama? 进入 下载页面,选择自己的系统版本的下载并安装即可。 4.