
Um gateway AISIX de nível de produção, alimentado por Rust, projetado para desempenho, governança e observabilidade.
Extremamente Rápido, Construído com Rust
O plano de dados nativo em Rust oferece sobrecarga de proxy sub-milissegundo com pegada de memória mínima. Lide com milhões de requisições por segundo sem esforço.
Uma API, Todos os Seus LLMs
Gerencie todos os seus provedores de LLM por meio de uma única API compatível com OpenAI. Configuração centralizada, autenticação e aplicação de políticas em todo o seu stack de IA.
Balanceamento de Carga Multi-LLM
Distribua dinamicamente o tráfego entre vários provedores de LLM com base na latência, custo e disponibilidade. Weighted round-robin, least-connections e estratégias personalizadas.
Limitação de Taxa de Tokens e Requisições
Limitação de taxa detalhada por tokens, requisições ou dimensões personalizadas. Políticas por consumidor, por rota e em todo o cluster para controlar custos e evitar abusos.
Segurança de Nível Empresarial
Proteja seu pipeline de IA com detecção de injeção de prompt, moderação de conteúdo, redação de PII e log de auditoria abrangente para conformidade regulatória.
Observabilidade Full-Stack
Rastreie cada token, monitore as distribuições de latência e analise os padrões de tráfego em tempo real. Integração nativa com Prometheus, Grafana e ClickHouse.
A separação entre Plano de Controle e Plano de Dados garante alta escalabilidade, atualizações com zero downtime e confiabilidade de nível empresarial.
Escalável horizontalmente com estado zero — adicione ou remova nós instantaneamente sem migração de dados.
Gerenciamento de configuração centralizado com propagação em tempo real e recursos de hot-reload.
O Plano de Controle lida com o gerenciamento; o Plano de Dados lida com o tráfego. Escalonamento e atualizações independentes.
API compatível com OpenAI. Pronta para produção desde o primeiro dia.
Segurança de nível empresarial incorporada em cada requisição

Conecte-se a qualquer grande provedor de LLM por meio de uma interface unificada e compatível com OpenAI. Sem vendor lock-in, nunca.
Comece gratuitamente com nosso core de código aberto. Escale para o enterprise quando estiver pronto.
Tudo o que você precisa para começar com AISIX
Cloud ou Self-Hosted. Para equipes gerenciando tráfego de IA em escala.
Common questions from platform engineers evaluating AI gateways.
An AI gateway is a reverse proxy that sits between your applications and LLM providers (OpenAI, Anthropic, Google Gemini, DeepSeek, etc.). It centralizes authentication, load balancing, rate limiting, observability, and security policies for all AI and LLM traffic — similar to how a traditional API gateway manages REST API traffic.
Explore documentation, comparisons, and guides to evaluate AISIX for your AI infrastructure.
Quickstart guides, API references, deployment tutorials, and plugin documentation for the AISIX AI gateway.
Explore the AISIX source code, file issues, and contribute to the open-source AI gateway project.
A comprehensive guide to AI gateways: architecture patterns, LLM traffic governance, and production deployment strategies.
Understand the differences between AI gateways, MCP gateways, and traditional API gateways — and when to use each.
Deep dive into AI gateway architecture, use cases, and how it fits into your LLM infrastructure stack.
Compare AISIX against Kong, NGINX, Traefik, Tyk, and other API gateways across features, performance, and pricing.