供应商
ModelMax 是一个统一网关,将你的请求路由到上游 AI 供应商。你只需与一个 API 交互 — ModelMax 处理供应商特定的认证、格式转换和响应标准化。
路由机制
当你发送带有 model 参数的请求(如 deepseek-v3.2)时,ModelMax 会:
- 在注册表中查找该模型。
- 识别上游供应商和供应商特定的模型名称。
- 将你的 OpenAI 兼容请求转换为供应商的原生格式。
- 转发请求并将标准化后的响应流式返回。
你不需要知道哪个供应商服务哪个模型 — 只需使用模型 ID 即可。
可用供应商
Google Gemini
Google 的 Gemini API,直接访问。
服务的模型: Gemini 对话模型和 Veo 视频模型。
能力:
- 完整的多模态输入(文本、图像、音频、视频)
- 流式传输
- 视频生成(Veo)
- 上下文缓存
AWS Bedrock
Amazon 的托管 AI 服务,提供对第三方模型的访问。
服务的模型: DeepSeek、Qwen、MiniMax、Kimi。
能力:
- 支持流式传输的文本对话
- 通过 AWS 基础设施实现高可用
供应商透明度
模型列表响应中的 owned_by 字段显示每个模型由哪个供应商服务:
{
"id": "deepseek-v3.2",
"owned_by": "bedrock"
}
无故障转移
每个模型由恰好一个供应商服务。当供应商不可用时,ModelMax 不会自动切换到其他供应商。如果供应商出现问题,API 将返回 502 Bad Gateway 错误。
添加供应商
ModelMax 设计为可以在不更改 API 的情况下添加新供应商。当新供应商被添加后,其模型会出现在模型列表中,并可使用相同的端点 — 无需客户端修改。
