我们为什么做 ByteSpike
我们认识的每个团队都在用 bash 脚本拼接两三家模型厂商。我们受够了。所以做了一个网关、一把钥匙、一份账单 —— 顺便选了 Anthropic 协议作为主接口,因为那是我们真正愿意写的 API。
2025 年中盘点了一下:算上 Claude、GPT-4o、Gemini、DeepSeek、豆包,再加上各家的图像和视频接口,我们内部项目对接的是九家不同的厂商。每家都有自己的 SDK、自己的 retry 语义、自己的错误词汇表、自己对失败请求的计费方式。每出一款新模型,又得熬一个周末做接入。
我们是一个小团队,不想做切换层,想做产品。所以我们写下了真正能解决这问题的形态 —— ByteSpike 就是答案。
ByteSpike 到底是什么
一个网关,两套协议(Anthropic Messages 与 OpenAI Chat Completions),所有前沿模型都在一把 Anthropic 风格的 key 后面。调用失败不计费。每条响应带 estimated_credits header,方便你在用户确认前把成本展示出来。
- 默认 Anthropic 兼容 —— 保留你的 tool_use、cache_control、thinking block。
- 对长尾旧代码透明 shim 出 OpenAI Chat Completions。
- 多模态端点(图像 / 视频 / 音频 / embedding / rerank)共用同一把 key。
- 组织级钱包、按成员配额,子 key 由主 key 派生。
我们故意没做的
我们没做 chat UI。世界上 chat UI 已经够多了。如果你想要,桌面伴侣 DOSIA 是同一个账号、原生 macOS、有主见也好用。我们也没做厂商中立的抽象层 —— 把 tool_use 强行叫成 function 来追求'通用',只会丢掉真正在交付的厂商的细节。
“选交付最快那家的 API,然后让其他模型都说这套 API。”
我们欠开源社区的
ByteSpike 的网关基于 Wei-Shaw 的 sub2api(LGPLv3)构建。我们在 footer 保留了上游署名 —— 这是该做的事 —— 接下来的几个版本会把多模态路由和 pool 相关的工作贡献回上游。
下一步
私有部署 SKU 已和两家企业设计伙伴在 private preview 中。docs.bytespike.ai 的 Mintlify 文档将随 V1.0 一同上线。之后我们会开始发布垂直 recipe —— 飞书多维表 RAG、截图转工单 —— 这些是我们自己的市场和运营团队每天就在 DOSIA 里用的东西。
如果以上有共鸣,去 playground 体验吧 —— 每个 IP 三次免费调用、无需注册。欢迎告诉我们漏了什么。