Claude 快速接入 MiniMax AI大模型

文章目录

1 前言

最近AI是一个大时代的进步,下班的地铁路上,都能听到路人聊天在谈论AI Agent,之前是查询AI,然后人工再去执行,现在随着AI Agent成熟,可以自己搜寻解决方案,并且自己执行,这里笔者也把 如何在 Claude 快速接入 MiniMax AI大模型,做一个总结吧!

2 Claude环境准备

2.1 安装 Claude

Windows CMD:

curl-fsSL https://claude.ai/install.cmd -o install.cmd && install.cmd && del install.cmd 

Windows PowerShell:

irm https://claude.ai/install.ps1 | iex 或者 winget install Anthropic.ClaudeCode 

macOS, Linux, WSL:

curl-fsSL https://claude.ai/install.sh |bash

检查是否按照完成:
claude --version

在这里插入图片描述

参考资料:https://code.claude.com/docs/en/setup

2.2 常用命令

命令功能说明示例
claude启动交互模式claude
claude "task"执行一次性任务claude "fix the build error"
claude -p "query"执行单次查询后退出claude -p "explain this function"
claude -c继续当前目录下最近的对话claude -c
claude -r恢复之前的对话claude -r
claude commit创建 Git 提交claude commit
claude --version查看当前版本claude --version
/clear清除对话历史/clear
/help显示可用命令/help
exitCtrl+C退出 Claude Codeexit

3 安装cc-switch

3.1 CC Switch 是什么?

cc-switch 是一个开源的跨平台桌面工具,专门用来统一管理 AI 编程工具的 API 配置。

CC Switch = AI 编程工具的“遥控器”

你不需要记住 API Key 在哪、配置文件在哪个目录,也不用每次换模型都去手动改 JSON 文件。打开 CC Switch 点一下,所有配置自动生效。

3.2 核心功能

功能说明
供应商管理一键添加/切换 API 供应商(支持 MiniMax、智谱、DeepSeek 等 50+ 内置预设)
模型切换不同场景用不同模型,点一下就能换
MCP 管理统一管理 MCP 服务器配置,一次配置所有 CLI 工具共用
Skills 管理从 GitHub 一键安装 Claude Skills
系统托盘常驻右下角,右键菜单秒切,不用打开主窗口
多工具支持同时管理 Claude Code、Codex CLI、Gemini CLI、OpenClaw 等 5 种 AI 工具

3.3 工作原理

CC Switch 的本质是替你去修改配置文件,只是把它做成了可视化界面。

它把配置保存在 ~/.cc-switch/ 目录下,当你点击“切换”时,它会:

  1. 读取你保存的配置(API Key、Base URL、模型等)
  2. 自动写入到各工具的配置文件中(如 Claude Code 的 ~/.claude/settings.json
  3. 下次启动工具时自动生效

为什么 IDEA 插件也能用?

因为 IDEA 里的 CC GUI 插件会读取同一份配置文件~/.claude/settings.json)。所以你在 CC Switch 里配置好 MiniMax,插件那边自动就能用,根本不需要重复配置

3.4 CC Switch vs 其他工具

对比项CC SwitchClaude Code Router
定位配置管理器流量路由器
作用存储/切换 API Key 和模型在多个 API 之间做负载均衡
使用场景换账号、换供应商高并发、多 Key 轮询

简单说:Router = 代理/分流,Switch = 配置管理。如果你只是个人开发、偶尔切换模型,CC Switch 完全够用。

3.5 快速上手CC Switch

3.5.1 安装 CC Switch

平台安装方式
Windows前往 cc-switch GitHub Releases 页面下载最新版本的安装包
macOSbrew tap farion1231/ccswitch && brew install --cask cc-switch && brew upgrade --cask cc-switch
Linux下载 .deb.AppImage 文件

安装好之后,是这样的:

在这里插入图片描述

3.5.2 添加 MiniMax 配置

打开 CC Switch,点击右上角 「+」 添加供应商,搜索或选择 MiniMax(v3.8.0 已加入官方预设),填入你的 API Key(通过这个链接的接口秘钥获取:https://platform.minimaxi.com/user-center/payment/token-plan

在这里插入图片描述

3.5.3 选择要使用的模型

将模型名称全部改为 MiniMax-M2.7

在这里插入图片描述

3.5.4 启用模型

回到首页,点击 “启用”,点击 「Enable」 激活

在这里插入图片描述


在这里插入图片描述

3.5.5 跳过Claude验证login

编辑或新增 .claude.json 文件,MacOS & Linux 为 ~/.claude.json,Windows 为用户目录 /.claude.json
新增 hasCompletedOnboarding 参数

{"hasCompletedOnboarding":true}

3.6 验证生效

打开终端,运行 claude,随便问一个问题能回答就说明配置成功了。之后在 IDEA 里用 CC GUI 插件,或者用Claude Code插件,也会自动走这个配置。

在这里插入图片描述
在这里插入图片描述

3.7 常见问题

为什么 IDEA 插件读不到配置?

原因:IDEA 自身在启动时缓存了当时的环境变量,Terminal 作为子进程只能继承这份"过时的缓存"。所以在配置完cc-switch或者Claude MiniMax模型的配置后,需要退出Claude窗口,重新启动Claude,退出Idea,重新加载AI相关配置(比如MCP)

4 在 Claude Code 中使用 MiniMax-M2.7 模型进行 AI 编程

在上一步,配置完cc-swich之后,这里就比较简单了,直接在终端,使用 claude启动就行,然后就可以愉快的玩耍了。
Open your terminal in any project directory and start Claude Code:

cd /path/to/your/project claude 
在这里插入图片描述

参考资料:https://platform.minimaxi.com/docs/token-plan/claude-code

5 配置MCP

因为你不配置MCP,它只会读取训练好的模型数据,如果网上的最新信息,他不一定及时获取到。

5.1 安装uvx

macOS / Linux

curl-LsSf https://astral.sh/uv/install.sh |sh

Windows

powershell -ExecutionPolicy ByPass -c"irm https://astral.sh/uv/install.ps1 | iex"

其他安装方式可参考 uv 仓库:https://github.com/astral-sh/uv

5.3 验证安装

macOS / Linux

which uvx 

Windows

(Get-Command uvx).source 

比如mac系统:

在这里插入图片描述

5.4 MCP 配置文件位置

在 Claude Code 中使用MCP,在终端运行以下命令,将api_key替换为您的 API Key:

claude mcp add-s user MiniMax --envMINIMAX_API_KEY=api_key --envMINIMAX_API_HOST=https://api.minimaxi.com -- uvx minimax-coding-plan-mcp -y

注意,查看配置是否正确,正确的MCP 配置在 ~/.claude.json 里,格式类似:

{"mcpServers":{"your-server-name":{"command":"node","args":["/path/to/mcp-server.js"],"env":{"API_KEY":"your-key"}}}}

5.5 必须完全重启 Claude 才能生效

MCP 服务器是在 Claude 启动时加载的,热重载不支持。即使你修改了配置文件,也必须完全退出 Claude 进程(不是只是关闭窗口),注意,修改配置后需要重启Idea(如果你有用这个)

5.5.1 如果你是在 IDEA Terminal 里运行的 Claude Code

#找到正在运行的 Claude 进程

ps aux |grep claude 

#强制结束进程(用上面查到的 PID)

kill-9[PID]

5.5.2 如果你是在系统终端(Terminal/iTerm2)里运行的

按 Ctrl+C 终止当前 Claude 会话
如果配置有更新,最好清一下缓存(可选)

rm-rf ~/.claude/sessions/* 

重新启动 Claude

claude 

或者更简单,直接按 Ctrl+C 终止当前运行的 Claude
然后重新运行 claude 命令

5.6 验证MCP

进入 Claude Code 后输入 /mcp,能看到 web_search 和 understand_image,说明配置成功

在这里插入图片描述

使用MCP:

在这里插入图片描述

6 Idea使用AI大模型

安装插件:

在这里插入图片描述

如果是Claude Code 这个插件,就比较简单了,cc-switch配置后,Idea重启后,配置可以拿到,不用做任何配置,直接用就可以

如果使用的CC GUI这个插件,需要做一下配置,输入模型名称和对应的Api Key(如果没有对应的 MiniMax AI Provider):

在这里插入图片描述

Read more

基于FPGA的北斗导航自适应抗干扰算法的设计与实现(任务书+开题报告+文献综述+代码+仿真+实物+毕业论文)

基于FPGA的北斗导航自适应抗干扰算法的设计与实现(任务书+开题报告+文献综述+代码+仿真+实物+毕业论文)

摘   要 如今,随着卫星导航技术的飞速发展,位置信息服务已经融入到我们的日常生活中,导航目前被称为继移动互联网后第三大产业。卫星导航在维护国家的安全中也发挥着不可替代的作用。为了使导航系统不受干扰的影响,本文以北斗导航系统为平台,研究基于阵列天线的自适应抗干扰算法。 首先,文章就自适应抗干扰算法的原理和方法进行了系统介绍,并在MATLAB中建立阵列模型,对基于功率倒置算法的空域抗干扰算法和空时联合抗干扰算法进行性能仿真。然后根据系统的指标,确定了在FPGA中实现抗干扰算法的方案,包括数字下变频、权值计算、数据加权、数字上变频等模块。根据权值计算模块实现方式的不同,本文提供了两种抗干扰算法在FPGA中实现的方案:一种是基于FPGA嵌入式软核NIOS II的抗干扰实现,将权值计算的过程放在NIOS II软核中,用C语言进行实现;另一种是基于逻辑语言的抗干扰算法的实现,即用硬件描述语言Verilog HDL进行权值的计算。权值计算涉及到浮点数运算和Hermite矩阵求逆,本文给出了各模块的设计方法和仿真结果,并与MATLAB仿真结果进行对比。最后给出了两种实现方案的实测结果,表明两种实

FPGA 工程师到底有哪些方向?每个岗位都在干什么?一篇给你讲清楚

FPGA 工程师到底有哪些方向?每个岗位都在干什么?一篇给你讲清楚

很多人说“学 FPGA 就是写 Verilog”,但真正进了行业才发现—— FPGA 工程师并不是一个岗位,而是一整个岗位族群。 不同公司、不同项目,对 FPGA 工程师的要求差异非常大。 如果方向选错,可能学了半年发现岗位根本不对口。 这篇文章就系统地给你拆一拆: 👉 FPGA 工程师到底有哪些岗位? 👉 每个岗位具体干什么? 👉 需要掌握哪些能力? 👉 适合什么样的人? 一、FPGA 工程师整体岗位划分(先给结论) 从企业招聘角度来看,FPGA 岗位大致可以分为 6 类: 岗位方向关键词偏向FPGA 逻辑设计工程师Verilog / 时序 / 接口核心开发FPGA 算法 / 加速工程师图像 / AI / DSP算法落地FPGA 底层驱动工程师DDR / PCIe / SerDes硬件接口FPGA 系统应用工程师Linux + FPGA系统集成FPGA 验证 / 测试仿真 / 验证质量保障FPGA 技术支持 / FA客户 / 项目支持应用型

OpenClaw-多飞书机器人与多Agent团队实战复盘

OpenClaw-多飞书机器人与多Agent团队实战复盘

OpenClaw 多飞书机器人与多 Agent 团队实战复盘 这篇文章完整记录一次从单机安装到多机器人协作落地的真实过程: 包括 Windows 安装报错、Gateway 连通、模型切换、Feishu 配对、多 Agent 路由、身份错位修复,以及最终形成“产品-开发-测试-评审-文档-运维”团队。 一、目标与结果 这次实践的目标很明确: 1. 在 Windows 上稳定跑通 OpenClaw 2. 接入飞书机器人 3. 做到一个机器人对应一个 Agent 角色 4. 支持多模型并行(OpenAI + Ollama) 5. 最终形成可执行的多 Agent 团队 最终落地状态(已验证): * 渠道:Feishu 多账号在线 * 路由:按 accountId

宇树 G1 机器人开发入门:有线 & 无线连接完整指南

宇树 G1 机器人开发入门:有线 & 无线连接完整指南

适用读者:机器人二次开发者、科研人员 开发环境:Ubuntu 20.04(推荐) 机器人型号:Unitree G1 EDU+ 前言 宇树 G1 是一款面向科研与商业应用的高性能人形机器人,支持丰富的二次开发接口。在正式进行算法调试与功能开发之前,首要任务是建立稳定的开发连接。本文将详细介绍两种主流连接方式:有线(网线直连) 与 无线(WiFi + SSH),并附上完整的配置流程,帮助开发者快速上手。 一、有线连接(推荐新手优先使用) 有线连接通过网线直接将开发电脑与 G1 机器人相连,具有延迟低、稳定性高、不依赖外部网络的优势,是新手入门和底层调试的首选方式。 1.1 前置条件 所需物品说明开发电脑推荐安装 Ubuntu 20.04,或在 Windows 上使用虚拟机宇树 G1 机器人确保已开机且处于正常状态网线(