GLM-Free-API (Cloudflare Worker) 服务已启动

面向开发者的 GLM API 代理

兼容 OpenAI / Gemini / Claude 协议,基于 Cloudflare Worker 部署,零服务器成本。

⚠️ 免责声明

逆向 API 存在不稳定性。建议前往 智谱开放平台 付费使用,避免封禁风险。

本项目仅用于研究学习,不接受任何资金往来。仅限自用,禁止商用或对外提供服务。

核心特性

流式输出

毫秒级首字节,边生成边传输,提升交互性能。

多轮对话

上下文记忆与压缩,保证长对话的稳定响应。

联网检索

实时信息聚合,提升回答的时效与准确性。

多协议兼容

同时支持 OpenAI、Gemini、Claude 三种 API 格式。

接入指南

01 · 从智谱清言获取 Token

登录 智谱清言,在 Cookies 中找到 chatglm_refresh_token。

Authorization: Bearer YOUR_REFRESH_TOKEN

02 · 智能体接入(可选)

打开智能体聊天界面,地址栏的 ID 即 model 参数值。

03 · 多账号轮询

将多个 Token 用逗号拼接,服务自动挑选一个执行。

Authorization: Bearer TOKEN1,TOKEN2,TOKEN3

04 · 客户端接入

使用 OpenAI SDK、gemini-cli、claude-code 或 Dify 等工具接入。

curl -X POST /v1/chat/completions \
  -H "Authorization: Bearer YOUR_TOKEN" \
  -H "Content-Type: application/json" \
  -d '{ "model":"glm-4", "messages":[{"role":"user","content":"Hello"}] }'

接口兼容性

OpenAI 兼容

/v1/chat/completions
推荐

Google Gemini 兼容

/v1beta/models/:model:generateContent
gemini-cli

Anthropic Claude 兼容

/v1/messages
claude-code

支持模型

GLM-4.7

高智能旗舰 - 通用对话、推理与智能体能力全面升级。

用途 · 高性能推理 / 编码 / 智能体

GLM-4.6v

超强性能 - 上下文提升至200K - 高级编码与工具调用。

用途 · 高性能推理 / 编码 / 工具调用

GLM-4.6

超强性能 - 上下文提升至200K - 高级编码与工具调用。

用途 · 高性能推理 / 编码 / 工具调用

客户端生态

覆盖聊天、命令行与应用开发场景。

LobeChat

现代化聊天界面。

NextChat

简洁多平台客户端。

Dify

AI 应用开发平台。

OpenAI SDK

直接编程接入。

ChatBox

桌面端聊天工具。

继续探索

更多客户端持续适配中。