ModelMax
一个 API,所有模型。 ModelMax 是一个统一的 LLM 网关,让你通过一个 OpenAI 兼容的 API 访问来自多个供应商的模型。
为什么选择 ModelMax?
- 单一集成 — 一次对接,自由切换模型。无需供应商专属 SDK。
- OpenAI 兼容 — 直接替换
/v1/chat/completions。兼容任何 OpenAI SDK。 - 原生透传代理 — 原生支持 Anthropic (
/v1/messages) 和 Gemini (/v1beta/models/...) 的端点透传,并且通过流量嗅探实现无感扣费。 - 多供应商 — 通过一个端点访问 AWS Bedrock、Google Gemini 和 Anthropic 等供应商的模型。
支持的能力
| 能力 | 端点 | 状态 |
|---|---|---|
| OpenAI 对话 | POST /v1/chat/completions | 可用 |
| Anthropic 对话 | POST /v1/messages | 可用 |
| Gemini 对话 | POST /v1beta/models/* | 可用 |
| 流式传输 (SSE) | POST /v1/chat/completions | 可用 |
| 图像生成 | POST /v1/images/generations | 可用 |
| 视频生成 | POST /v1/queue/{model} | 可用 |
| 模型列表 | GET /v1/models | 可用 |
