🌉 OpenBridge

个人 LLM API 网关 - 统一管理你的上游 Provider Keys

快速开始 API 文档 管理面板
-
Providers
-
可用模型
100%
在线率

核心特性

为什么选择 OpenBridge?

👤

个人使用

专为个人设计的 API 网关,管理你自己的上游 Provider Keys

🔌

多提供商支持

支持 OpenAI、Anthropic、Google Gemini 等多个 AI 服务商

🔄

Key 轮询

自动轮询多个 API Key,突破速率限制,提高可用性

高性能

基于 Go 语言开发,低延迟高并发,Docker 一键部署

📊

管理面板

现代化的可视化界面,轻松配置和监控服务状态

🎯

OpenAI 兼容

完全兼容 OpenAI API 格式,无缝替换现有代码

快速开始

几分钟内开始使用 OpenBridge

1. 配置你的 API Key

在管理面板中配置你自己的 API Key(个人模式)

2. 发送请求

使用标准的 OpenAI API 格式发送请求:

curl http://localhost:8081/v1/chat/completions \ -H "Content-Type: application/json" \ -H "Authorization: Bearer YOUR_API_KEY" \ -d '{ "model": "gpt-4", "messages": [ {"role": "user", "content": "Hello!"} ] }'

3. Python 示例

from openai import OpenAI client = OpenAI( api_key="YOUR_API_KEY", base_url="http://localhost:8081/v1" ) response = client.chat.completions.create( model="gpt-4", messages=[ {"role": "user", "content": "Hello!"} ] ) print(response.choices[0].message.content)

API 端点

所有可用的 API 接口

POST /v1/chat/completions 聊天补全(主要接口)
GET /v1/models 获取可用模型列表
GET /v1/models/:model 获取特定模型信息
GET /health 健康检查
GET /version 版本信息
GET /providers 提供商列表

可用模型

当前支持的所有 AI 模型

加载中...