Background texture

供应商

ModelMax 是一个统一网关,将你的请求路由到上游 AI 供应商。你只需与一个 API 交互 — ModelMax 处理供应商特定的认证、格式转换和响应标准化。

路由机制

当你发送带有 model 参数的请求(如 deepseek-v3.2)时,ModelMax 会:

  1. 在注册表中查找该模型。
  2. 识别上游供应商和供应商特定的模型名称。
  3. 将你的 OpenAI 兼容请求转换为供应商的原生格式。
  4. 转发请求并将标准化后的响应流式返回。

你不需要知道哪个供应商服务哪个模型 — 只需使用模型 ID 即可。

可用供应商

Google Gemini

Google 的 Gemini API,直接访问。

服务的模型: Gemini 对话模型和 Veo 视频模型。

能力:

  • 完整的多模态输入(文本、图像、音频、视频)
  • 流式传输
  • 视频生成(Veo)
  • 上下文缓存

AWS Bedrock

Amazon 的托管 AI 服务,提供对第三方模型的访问。

服务的模型: DeepSeek、Qwen、MiniMax、Kimi。

能力:

  • 支持流式传输的文本对话
  • 通过 AWS 基础设施实现高可用

供应商透明度

模型列表响应中的 owned_by 字段显示每个模型由哪个供应商服务:

{
  "id": "deepseek-v3.2",
  "owned_by": "bedrock"
}

无故障转移

每个模型由恰好一个供应商服务。当供应商不可用时,ModelMax 不会自动切换到其他供应商。如果供应商出现问题,API 将返回 502 Bad Gateway 错误。

添加供应商

ModelMax 设计为可以在不更改 API 的情况下添加新供应商。当新供应商被添加后,其模型会出现在模型列表中,并可使用相同的端点 — 无需客户端修改。