[ English | 中文 ]
将 Gemini 网页端模型封装为兼容 OpenAI API 的 API Server。基于 HanaokaYuzu/Gemini-API 实现。
无需 API Key,免费通过 API 调用 Gemini 网页端模型!
- 无需 Google API Key:只需网页 Cookie,即可免费通过 API 调用 Gemini 模型。
- 内置 Google 搜索:API 已内置 Gemini 网页端的搜索能力,模型响应更加准确。
- 会话持久化:基于 LMDB 存储,支持多轮对话历史记录。
- 多模态支持:可处理文本、图片及文件上传。
- 多账户负载均衡:支持多账户分发请求,可为每个账户单独配置代理。
如需 Docker 部署,请参见下方 Docker 部署 部分。
- Python 3.13
- 拥有网页版 Gemini 访问权限的 Google 账号 (开启 Gemini Apps 应用活动 以获得最佳会话持久化体验)
- 从 Gemini 网页获取的
secure_1psid和secure_1psidtsCookie
git clone https://github.com/Nativu5/Gemini-FastAPI.git
cd Gemini-FastAPI
uv syncgit clone https://github.com/Nativu5/Gemini-FastAPI.git
cd Gemini-FastAPI
pip install -e .编辑 config/config.yaml 并提供至少一组凭证:
gemini:
clients:
- id: "client-a"
secure_1psid: "YOUR_SECURE_1PSID_HERE"
secure_1psidts: "YOUR_SECURE_1PSIDTS_HERE"
proxy: null # 可选代理 URL (null/空值则保持直连)
impersonate: null # 可选浏览器指纹模拟 (null 则使用库的默认值)Note
详细说明请参见下方 配置 部分。
# 使用 uv
uv run python run.py
# 直接用 Python
python run.py服务默认启动在 http://localhost:8000。
本服务器提供了一系列接口,重点支持 OpenAI 兼容协议。
这些接口遵循 OpenAI 的 API 规范,允许你将 Gemini 作为 Drop-in 替代方案 直接接入现有的 AI 应用。
GET /v1/models: 列出所有可用的 Gemini 模型。POST /v1/chat/completions: 统一聊天对话接口。- 流式传输: 设置
stream: true即可实时接收增量响应 (Stream Delta)。 - 多模态支持: 支持在消息中包含文本、图片以及文件上传。
- 工具调用: 支持通过
tools参数进行函数调用 (Function Calling)。 - 结构化输出: 支持
response_format,可严格遵循 JSON Schema。
- 流式传输: 设置
POST /v1/responses: 用于复杂交互模式的专用接口,支持分步输出、生成图片及工具调用等更丰富的响应项。
GET /health: 健康检查接口。返回服务器、已配置的 Gemini 客户端以及对话存储的状态。GET /media/{filename}: 用于分发生成的媒体内容的内部接口。需要有效的 Token(API 返回的图片 URL 中已自动包含该 Token)。
docker run -p 8000:8000 \
-v $(pwd)/data:/app/data \
-v $(pwd)/cache:/app/cache \
-e CONFIG_SERVER__API_KEY="your-api-key-here" \
-e CONFIG_GEMINI__CLIENTS__0__ID="client-a" \
-e CONFIG_GEMINI__CLIENTS__0__SECURE_1PSID="your-secure-1psid" \
-e CONFIG_GEMINI__CLIENTS__0__SECURE_1PSIDTS="your-secure-1psidts" \
-e GEMINI_COOKIE_PATH="/app/cache" \
ghcr.io/nativu5/gemini-fastapiTip
需要代理时可添加 CONFIG_GEMINI__CLIENTS__0__PROXY;省略该变量将保持直连。
GEMINI_COOKIE_PATH 指定容器内保存刷新后 Cookie 的目录。将其挂载(例如 -v $(pwd)/cache:/app/cache)可以在容器重建或重启后保留这些 Cookie,避免频繁重新认证。
创建 docker-compose.yml 文件:
services:
gemini-fastapi:
image: ghcr.io/nativu5/gemini-fastapi:latest
ports:
- "8000:8000"
volumes:
# - ./config:/app/config # Uncomment to use a custom config file
# - ./certs:/app/certs # Uncomment to enable HTTPS with your certs
- ./data:/app/data
- ./cache:/app/cache
environment:
- CONFIG_SERVER__HOST=0.0.0.0
- CONFIG_SERVER__PORT=8000
- CONFIG_SERVER__API_KEY=${API_KEY}
- CONFIG_GEMINI__CLIENTS__0__ID=client-a
- CONFIG_GEMINI__CLIENTS__0__SECURE_1PSID=${SECURE_1PSID}
- CONFIG_GEMINI__CLIENTS__0__SECURE_1PSIDTS=${SECURE_1PSIDTS}
- GEMINI_COOKIE_PATH=/app/cache # must match the cache volume mount above
restart: on-failure:3 # Avoid retrying too many times然后运行:
docker compose up -dImportant
请务必挂载 /app/data 卷以保证对话数据在容器重启后持久化。
同时挂载 /app/cache(或与 GEMINI_COOKIE_PATH 对应的目录)以保存刷新后的 Cookie,这样在容器重建/重启后无需频繁重新认证。
服务器读取 config/config.yaml 配置文件。
各项配置说明请参见 config/config.yaml 文件中的注释。
Tip
该功能适用于 Docker 部署和生产环境,可将敏感信息与配置文件分离。
你可以通过带有 CONFIG_ 前缀的环境变量覆盖任意配置项,嵌套键用双下划线(__)分隔,例如:
# 覆盖服务器设置
export CONFIG_SERVER__API_KEY="your-secure-api-key"
# 覆盖 Client 0 的用户凭据
export CONFIG_GEMINI__CLIENTS__0__ID="client-a"
export CONFIG_GEMINI__CLIENTS__0__SECURE_1PSID="your-secure-1psid"
export CONFIG_GEMINI__CLIENTS__0__SECURE_1PSIDTS="your-secure-1psidts"
# 覆盖 Client 0 的代理设置
export CONFIG_GEMINI__CLIENTS__0__PROXY="socks5://127.0.0.1:1080"
# 覆盖 Client 0 的浏览器指纹模拟
export CONFIG_GEMINI__CLIENTS__0__IMPERSONATE="chrome"
# 覆盖对话存储大小限制
export CONFIG_STORAGE__MAX_SIZE=268435456 # 256 MB会话在保存时会绑定创建它的客户端 ID。请在配置中保持这些 id 值稳定,
这样在更新 Cookie 列表时依然可以复用旧会话。
Warning
请妥善保管这些凭据,切勿提交到版本控制。这些 Cookie 可访问你的 Google 账号。
使用 Gemini-FastAPI 需提取 Gemini 会话 Cookie:
- 在无痕/隐私窗口打开 Gemini 并登录
- 打开开发者工具(F12)
- 进入 Application → Storage → Cookies
- 查找并复制以下值:
__Secure-1PSID__Secure-1PSIDTS
Important
请开启 Gemini Apps 应用活动 以确保稳定的会话持久化。
虽然在没有开启该设置的情况下,连续的聊天过程可能暂时正常,但任何瞬时错误、TLS 会话重启或服务器重启都可能导致 Google 端过期的会话元数据。如果该设置被禁用,模型将 完全丢失多轮对话的上下文,导致即使本地 LMDB 中存有历史记录,旧对话也将无法继续。
每个客户端条目可以配置不同的代理,从而规避速率限制。省略 proxy 字段或将其设置为 null 或空字符串以保持直连。
每个客户端可以通过 impersonate 参数设置 curl_cffi 使用的 TLS/HTTP 指纹。
- 设置为
null(默认)则使用库的默认值。 - 可设为
curl_cffi的BrowserTypeLiteral支持的任意值。 - 启动时会校验该值;无效值会阻止服务启动。
gemini:
clients:
- id: "client-a"
impersonate: "chrome" # 使用 Chrome 指纹
- id: "client-b"
impersonate: null # 使用库默认值你可以在 config/config.yaml 中或通过环境变量定义自定义模型。
gemini:
model_strategy: "append" # "append" (默认 + 自定义) 或 "overwrite" (仅限自定义)
models:
- model_name: "gemini-3.0-pro"
model_header:
x-goog-ext-525001261-jspb: '[1,null,null,null,"9d8ca3786ebdfbea",null,null,0,[4],null,null,1]'你可以通过 CONFIG_GEMINI__MODELS 以 JSON 字符串或列表结构的形式提供模型。这为通过 shell 或在自动化环境(例如 Docker)中覆盖设置提供了一种灵活的方式,而无需修改配置文件。
export CONFIG_GEMINI__MODEL_STRATEGY="overwrite"
export CONFIG_GEMINI__MODELS='[{"model_name": "gemini-3.0-pro", "model_header": {"x-goog-ext-525001261-jspb": "[1,null,null,null,\"9d8ca3786ebdfbea\",null,null,0,[4],null,null,1]"}}]'- HanaokaYuzu/Gemini-API - 底层 Gemini Web API 客户端
- zhiyu1998/Gemi2Api-Server - 本项目最初基于此仓库,经过深度重构与工程化改进,现已成为独立项目,并增加了多轮会话复用等新特性。在此表示特别感谢。
本项目与 Google 或 OpenAI 无关,仅供学习和研究使用。本项目使用了逆向工程 API,可能不符合 Google 服务条款。使用风险自负。