立省 200 刀!Claude Code 接入 GMI Cloud Inference Engine API 教程>>

GMI Cloud Inference Engine是全球 AI 模型统一接入与在线使用的“高性能推理引擎平台”,底层搭载 H100/H200 芯片,集成全球近百个最前沿的大语言模型和视频生成模型,如 Gemini、Claude、Minimax、DeepSeek、GPT、Qwen、Kling 等,为 AI 开发者与企业提供速度更快、质量更高的模型服务。

欢迎来到!🎉🎉🎉

GMI Cloud Inference Engine AI 场景实践案例集【AI Coding 篇】之二。

本期任务目标:在 Windows 终端里,使用 Claude Code 命令行工具,连接 GMI Cloud Inference Engine 的 MiniMax 模型 API。

Claude Code 是 Anthropic 推出的命令行 AI 编程工具,基于 Claude 大模型,可在终端 / IDE 中用自然语言交互,深度理解代码库,支持跨文件编辑、Git 协作。其具有 agent 优势,与超大上下文+多文件编辑+终端原生+安全自主执行+顶级模型能力,在处理大型项目、复杂重构和企业级开发时展现出明显优势。

本文将以接入 Inference Engine 中的 MiniMax-M2 api 为例,详细讲解在 Claude Code 中接入 api 的过程。Token福利文末自行领取!!

MiniMax-M2 界面:

https://console.gmicloud.ai/playground/llm/minimax-m2/bbfb2cb6-7d62-43d2-a70c-f01dbdc33bde

01

准备工作

Get ready?

确保你已经掌握 AI Coding 基础知识,没有可看上一篇:

附上链接~

Kooty,公众号:GMI Cloud 黑板报小白友好教程!如何在 Cursor 接入 GMI Cloud 的 API

确保你的电脑已经安装了:

  • Python (为了运行 LiteLLM)

  • Node.js (为了运行 Claude Code)

02

接入步骤

API Connection Guide

步骤 1:安装必要工具

打开 PowerShell,依次运行以下命令:

1.安装 Claude Code 工具

npm install -g @anthropic-ai/claude-code

2.安装 LiteLLM(带代理功能)

# 注意加上引号,因为[proxy]是特殊字符pip install "litellm[proxy]"

如果不懂怎么安装,可以直接在 Cursor 聊天框输入(亲测 Gemini3 可以直接一步到位,模型不够好可能中途会报错):

https://docs.claude.com/en/docs/claude-code/overview参考这个文档,帮我安装claudecode

无论是通过哪种安装方式,Claude Code 在安装后都会引导你配置参数或者注册登录,如果你有账号可以按照引导往下走。如果没有、希望和笔者一样直接接入自己的(便宜的)api,可以登录到非得付费的那一步退出,然后继续步骤 2。

步骤 2:启动“翻译官” (LiteLLM)

我们需要启动一个本地服务,用来做连接我们的 api 和 Anthropic 之间的桥梁。在 PowerShell 中运行(替换为你自己的 API Key):

# 设置 Key (必须加引号)$env:OPENAI_API_KEY = "你的MiniMax_API_Key"# 启动服务# --drop_params: 自动丢弃不兼容的参数,防止报错litellm --model openai/MiniMaxAI/MiniMax-M2 --api_base https://api.gmi-serving.com/v1 --drop_params

✅ 成功标志:看到 Running on http://0.0.0.0:4000。

⚠️ 注意:这个窗口不要关闭。步骤 3 打开一个新的 powershell 窗口。

步骤 3:配置 PowerShell 连接

现在我们要告诉 Claude 工具:“别去连官网了,来连我们本地的翻译官”。

1. 打开配置文件:

在新的 PowerShell 窗口中输入:

notepad $PROFILE

2.粘贴以下代码:

function minimax {& {# 1. 把目标地址指向本地 LiteLLM (端口 4000)$env:ANTHROPIC_BASE_URL = "http://localhost:4000"# 2. Key 随便填,因为真实的 Key 已经在 LiteLLM 那边配好了$env:ANTHROPIC_AUTH_TOKEN = "sk-placeholder"# 3. 模型名称要和 LiteLLM 启动时的匹配$env:ANTHROPIC_MODEL = "MiniMaxAI/MiniMax-M2"$env:ANTHROPIC_SMALL_FAST_MODEL = "MiniMaxAI/MiniMax-M2"# 4. 启动 Claude 工具if (Get-Command claude -ErrorAction SilentlyContinue) {claude @args} else {Write-Error "请先安装 claude-code: npm install -g @anthropic-ai/claude-code"}}}

步骤 4:开始使用

  1. 新建一个 PowerShell 窗口(确保配置生效)。

  2. 输入命令:

# 启动自设定的minimax程序minimax# 进行测试你好

🎉 看到回复即搞定! 现在你就在用 Anthropic 的顶级命令行体验,驱动着公司的 MiniMax 模型了。

大家可以对比输入“claude code”和“minimax”下的差别:

步骤 5:将 LiteLLM 的启动简化(选做)

Cursor 聊天框输入:

帮我将LiteLLM的启动简化,生成一个一键启动脚本。

下次使用时,就只需两步:

  1. 点击该脚本

  2. 在另一个终端窗口中输入“minimax”

另外,如果想更方便,比如在桌面启动 LiteLLM,也可以将这个 .bat 的文件和 .yaml 的参数文件一起复制到目标位置。比如我将其复制到了桌面。

💡常见报错

Q: 报错 ImportError: Missing dependency 'backoff'?

A: 你安装时少装了组件。请运行 pip install "litellm[proxy]"。

Q: 报错 UnsupportedParamsError: ... reasoning_effort?

A: 启动 LiteLLM 时忘了加 --drop_params 参数。

Q: 输入 minimax 提示找不到命令?

A: 修改完配置文件后,需要重启 PowerShell 窗口,或者运行 。 $PROFILE 刷新一下。

03

总结和拓展

Summary & Expansion

总结

1. 核心文件

2. 完整的逻辑链路图

  • 准备层(启动网关)

运行 start_minimax_proxy.bat。

关键动作:它不仅加载了 yaml 配置,还通过 set OPENAI_API_KEY 把**通行证(Token)**交给了 LiteLLM 进程。

结果:本地 4000(或其他)端口开始监听。

  • 调用层(触发指令)

你输入 minimax。

关键动作:系统执行 ps1 脚本里的函数。

  • 重定向层(配置环境)

关键动作:ps1 脚本在内存里临时改了两个环境变量:

ANTHROPIC_BASE_URL:指路,让 Claude Code 走向本地端口。

ANTHROPIC_MODEL:定名,告诉 Claude Code 要发出的“暗号”是什么。

结果:Claude Code 启动并按照这个路标发包。

  • 翻译层(中转适配)

关键动作:这是最复杂的一步。

收包:LiteLLM 收到 Claude Code 的 Anthropic 格式请求。

查表:它看一眼 yaml,发现 model_name(暗号)对上了。

变身:它把请求拆开,去掉多余参数(drop_params),重新包装成标准的 OpenAI 格式。

送达:最后,它带着 .bat 里的那个 Token,把请求发给供应商的 v1 接口。

拓展:思考题

如果不想用MiniMax了,想用Inference Engine平台的其他模型,该修改哪几个文件?

正确答案:以Deepseek为例

修改.ps1、修改yaml,将 minimax function 一样的格式复制一份、修改模型名称部分就可以啦!

在启动时则可在终端输入deepseek,同样能成功启动

教程完毕!😍😍😍 快去试试吧~

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/1192176.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

BongoCat:当键盘敲击遇见萌宠陪伴

BongoCat:当键盘敲击遇见萌宠陪伴 【免费下载链接】BongoCat 让呆萌可爱的 Bongo Cat 陪伴你的键盘敲击与鼠标操作,每一次输入都充满趣味与活力! 项目地址: https://gitcode.com/gh_mirrors/bong/BongoCat 在数字世界的单调节奏中&…

如何用网页时光机快速找回消失的重要网页:完整操作指南

如何用网页时光机快速找回消失的重要网页:完整操作指南 【免费下载链接】wayback-machine-webextension A web browser extension for Chrome, Firefox, Edge, and Safari 14. 项目地址: https://gitcode.com/gh_mirrors/wa/wayback-machine-webextension 你…

深度解析Figma设计数据同步难题:从连接异常到性能瓶颈的完整实战指南

深度解析Figma设计数据同步难题:从连接异常到性能瓶颈的完整实战指南 【免费下载链接】Figma-Context-MCP MCP server to provide Figma layout information to AI coding agents like Cursor 项目地址: https://gitcode.com/gh_mirrors/fi/Figma-Context-MCP …

OMS运维管理平台完整指南:7天构建企业级自动化运维体系

OMS运维管理平台完整指南:7天构建企业级自动化运维体系 【免费下载链接】oms OMS运维管理平台 项目地址: https://gitcode.com/gh_mirrors/om/oms 在数字化转型的今天,企业运维效率直接决定了业务竞争力。OMS运维管理平台作为开源自动化运维解决方…

ADB Explorer:让Android文件管理变得前所未有的简单

ADB Explorer:让Android文件管理变得前所未有的简单 【免费下载链接】ADB-Explorer A fluent UI for ADB on Windows 项目地址: https://gitcode.com/gh_mirrors/ad/ADB-Explorer 还在为复杂的ADB命令行操作而烦恼吗?ADB Explorer正是您需要的完美…

麦橘超然推理耗时分析,每步去噪都清晰可见

麦橘超然推理耗时分析,每步去噪都清晰可见 1. 引言:为什么我们需要“看得见”的生成过程? 你有没有这样的经历:输入提示词,点击“生成”,然后盯着转圈的进度条,心里没底地等上几十秒——却不知…

科大智能冲刺港股:9个月营收19亿,期内利润7348万 黄明松套现2亿

雷递网 雷建平 1月20日科大智能科技股份有限公司(简称:“科大智能”)日前递交招股书,准备在港交所上市。科大智能已在A股上市,截至今日收盘,科大智能股价为12.42元,市值为96.66亿元。一旦在港股…

GPEN支持Windows系统?跨平台部署兼容性测试报告

GPEN支持Windows系统?跨平台部署兼容性测试报告 你是不是也遇到过这样的情况:在Linux服务器上跑得好好的AI模型,一换到Windows就各种报错、依赖冲突、路径问题频发?最近我们团队在做GPEN人像修复增强模型的跨平台迁移时&#xff…

解决Figma-Context-MCP连接问题的7个实战技巧

解决Figma-Context-MCP连接问题的7个实战技巧 【免费下载链接】Figma-Context-MCP MCP server to provide Figma layout information to AI coding agents like Cursor 项目地址: https://gitcode.com/gh_mirrors/fi/Figma-Context-MCP Figma-Context-MCP作为连接设计工…

新手避雷!Z-Image-Turbo使用中那些容易忽略的问题

新手避雷!Z-Image-Turbo使用中那些容易忽略的问题 1. 初识Z-Image-Turbo:不只是“快”那么简单 阿里通义推出的 Z-Image-Turbo 模型,主打“秒级出图”,让很多刚接触AI图像生成的新手跃跃欲试。而由开发者“科哥”二次封装的 Web…

模型下载太慢?为Qwen-Image-Edit-2511搭建本地镜像源

模型下载太慢?为Qwen-Image-Edit-2511搭建本地镜像源 你有没有经历过这样的场景:刚克隆完一个AI图像编辑项目,满怀期待地执行 npm install,结果卡在“请手动下载模型权重”这一步?打开浏览器,复制那个长达…

猫抓Cat-Catch:你的浏览器资源嗅探终极指南

猫抓Cat-Catch:你的浏览器资源嗅探终极指南 【免费下载链接】cat-catch 猫抓 chrome资源嗅探扩展 项目地址: https://gitcode.com/GitHub_Trending/ca/cat-catch 还在为无法保存在线视频而烦恼?猫抓Cat-Catch这款浏览器扩展将彻底改变你的下载体验…

OpCore Simplify终极指南:一键搞定黑苹果EFI配置

OpCore Simplify终极指南:一键搞定黑苹果EFI配置 【免费下载链接】OpCore-Simplify A tool designed to simplify the creation of OpenCore EFI 项目地址: https://gitcode.com/GitHub_Trending/op/OpCore-Simplify 还在为复杂的黑苹果配置而头疼吗&#xf…

Qwen3-Embedding-0.6B真实项目应用:企业知识库优化

Qwen3-Embedding-0.6B真实项目应用:企业知识库优化 1. 引言:为什么企业知识库需要更好的语义理解? 在现代企业中,知识库是支撑客户服务、内部协作和决策支持的核心系统。但传统关键词检索方式存在明显短板——它无法理解“用户问…

拯救者Y7000终极BIOS解锁指南:3步开启隐藏高级设置权限

拯救者Y7000终极BIOS解锁指南:3步开启隐藏高级设置权限 【免费下载链接】LEGION_Y7000Series_Insyde_Advanced_Settings_Tools 支持一键修改 Insyde BIOS 隐藏选项的小工具,例如关闭CFG LOCK、修改DVMT等等 项目地址: https://gitcode.com/gh_mirrors/…

Minecraft基岩版跨平台终极方案:Linux和macOS原生支持完全指南

Minecraft基岩版跨平台终极方案:Linux和macOS原生支持完全指南 【免费下载链接】mcpelauncher-manifest The main repository for the Linux and Mac OS Bedrock edition Minecraft launcher. 项目地址: https://gitcode.com/gh_mirrors/mc/mcpelauncher-manifest…

硬件编译相关

1.led点灯过程,需要配置那些寄存器?LED 点灯需配置以下 4 类寄存器(1)时钟控制寄存器(CCM)全部设为0xFFFFFFFF,表示使能所有对应外设的时钟(2)引脚复用控制寄存器直接操作…

新手友好!YOLOv9官方镜像5分钟跑通第一个demo

新手友好!YOLOv9官方镜像5分钟跑通第一个demo 你是不是也曾经被深度学习环境配置折磨得怀疑人生?CUDA版本不匹配、PyTorch和torchvision对不上、各种依赖冲突……明明只是想跑个目标检测demo,结果光装环境就花了一整天。 别担心&#xff0c…