引言

随着 AI 应用的普及,如何高效管理和监控 AI 服务变得越来越重要。Cloudflare AI Gateway 作为一个强大的 AI 应用管理平台,提供了全方位的可观测性和控制能力。本文将深入分析其核心特性、应用场景以及最佳实践。

Cloudflare的AI Gateway允许您获得对AI应用程序的可见性和控制。

通过将您的应用连接到AI Gateway,您可以通过分析和日志记录收集有关人们如何使用您的应用的见解,然后控制您的应用如何使用缓存、速率限制以及请求重试、模型回退等功能进行扩展。

https://developers.cloudflare.com/ai-gateway/

支持多个主流 AI 服务提供商

  • Workers AI
  • Amazon Bedrock (Beta)
  • Anthropic
  • Azure OpenAI
  • Cartesia (Beta)
  • Cerebras (Beta)
  • Cohere
  • DeepSeek (Beta)
  • ElevenLabs (Beta)
  • Google AI Studio
  • Google Vertex AI (Beta)
  • Grok
  • Groq
  • HuggingFace
  • Mistral AI
  • OpenAI
  • OpenRouter (Beta)
  • Perplexity
  • Replicate

对比早期刚开始时,现在也支持DeepSeek等近期热门平台,当然,以国外平台为主,国内为主的可以用腾讯的EO-Gateway

主要功能

  1. 速率限制:避免出现异常高频请求,在Gemini等速率敏感接口时很有用,尤其是谷歌Gemini高频免费时很容易封号
  2. CF代理:能通过CF网络 https://gateway.ai.cloudflare.com 给大部分国际网络提供相对稳定的服务,也可以优选IP,但是注意这玩意会传递地区信息给后端服务商。
  3. 缓存响应:最大缓存1个月,能一定程度上降低某些用法下的成本并加快响应,尤其是翻译。
  4. 分析和日志:能看到使用量、请求和响应内容、时间等
  5. 独立网关验证:能提供统一的额外安全验证KEY来阻止部分不当请求
  6. 通过统一高可用入口:通过 Universal Endpoint可以提供统一入口:你只需要记住一个 API 地址,就能调用各种 AI 服务(比如 OpenAI、Google AI、微软 Azure OpenAI 等)+自动容错:如果一个 AI 服务出问题了,它会自动切换到备用的服务,确保你的应用不会中断+统一格式:不同 AI 服务的调用方式可能不一样,但通过这个接口,你只需要用一种格式就可以了。但是注意,这个格式是CF自己的独立格式,并不是大家最常用的OpenAI格式,也基本没被各家第三方软件支持。
  7. 其中支持提供免费服务的WorkerAI、Groq/Cohere/Gemini等
  8. 不限制出口账号,可以多个账号共享一个AI网关

缺点

  1. 这玩意会传递地区信息给后端服务商
  2. Universal Endpoint是CF标准格式,而不是OpenAI格式导致基本没人对接
  3. 各平台入口格式并没有被转换,还是保持原样(不过也因此可以直接写在One-API等的AI配置中的代理设置中)
  4. 不支持自定义出口对象,所以不能对接自己的One-API等平台作为目标,只能使用官方指定的OpenAI、Gemini等,而这些基本都是付费API

主要用法

使用 Universal Endpoint

大部分第三方对接平台似乎都没引入对接,估计得自行开发时使用为主,参考文档 https://developers.cloudflare.com/ai-gateway/providers/universal/

使用 各自的服务商

基本只需要把域名按照官方提示替换,或者OneAPI可以直接写在代理的位置即可

建议

  1. 建议不同服务商分开创建网关,一共可以10个。
  2. 反正不用钱,境外能接都接
  3. 境内要小心传递,Gemini看上去能用但是有风险,Groq直接404
  4. 香港也要小心很多不支持,比如gemini和groq,走的cf hk
  5. 可以自己nginx反代
  6. worker反代效果不大