Próximo seminario web: Seguridad empresarial para Claude Code | 21 de abril · 11:00 a. m. PST. Regístrese aquí →

Despliegue seguro: VPC, local, aislado

Puerta de enlace de inteligencia artificial empresarial con control y supervisión integrados

Una puerta de entrada unificada para proteger, gobernar y escalar modelos y MCP en un solo lugar. Estandarice el acceso, aplique las políticas y supervise toda la actividad.

AI Gateway: acceso unificado a la API de LLM

Simplifique su pila de GenAI con una única puerta de enlace de IA que integre todos los modelos principales.

  • Conéctese a OpenAI, Claude, Gemini, Groq, Mistral y a más de 250 LLM a través de una API AI Gateway
  • Usa AI Gateway para admitir tipos de modelos de chat, finalización, incrustación y reclasificación
  • Centralice la administración de claves de API y la autenticación de equipos en un solo lugar.
  • Organice las cargas de trabajo multimodelo sin problemas a través de su infraestructura.
Leer más
flecha1
Puerta de enlace de inteligencia artificial empresarial con acceso unificado a la API de LLM

Observabilidad de AI Gateway

  • Supervise el uso de los tokens, la latencia, las tasas de error y los volúmenes de solicitudes en todo su sistema.
  • Almacene e inspeccione los registros completos de solicitudes y respuestas de forma centralizada para garantizar el cumplimiento y simplificar la depuración.
  • Etiquete el tráfico con metadatos como el ID de usuario, el equipo o el entorno para obtener información detallada.
  • Filtre los registros y las métricas por modelo, equipo o ubicación geográfica para identificar rápidamente las causas fundamentales y acelerar la resolución.
Leer más
flecha1
Panel de observabilidad de Truefoundry AI Gateway

Control de cuotas y acceso mediante AI Gateway

Implemente la gobernanza, controle los costos y reduzca los riesgos con una administración de políticas coherente.

  • Aplica límites de tarifas por usuario, servicio o punto final.
  • Establezca cuotas basadas en los costos o en los tokens mediante filtros de metadatos.
  • Use el control de acceso basado en roles (RBAC) para aislar y administrar el uso.
  • Controle las cuentas de servicio y las cargas de trabajo de los agentes a escala mediante reglas centralizadas.
Leer más
flecha1
Control de acceso y cuotas de AI Gateway
Garantizar uso predecible, límites de acceso sólidos y gobierno escalable a nivel de equipo para su infraestructura GenAI.

Inferencia de baja latencia

Ejecute sus cargas de trabajo más sensibles al rendimiento a través de una infraestructura de alta velocidad.

  • Logre una latencia interna inferior a 3 ms incluso con cargas de trabajo a escala empresarial.
  • Amplíe sin problemas para gestionar el tráfico en ráfagas y las cargas de trabajo de alto rendimiento.
  • Ofrezca tiempos de respuesta predecibles para los asistentes de chat, RAG e IA en tiempo real.
  • Coloque las implementaciones cerca de las capas de inferencia para minimizar la latencia y eliminar el retraso de la red.
Leer más
flecha1
Infraestructura de AI Gateway
Coloque el AI Gateway directamente en su ruta de inferencia de producción: su arquitectura de baja latencia garantiza que no haya concesiones de rendimiento.

Enrutamiento y retrocesos de AI Gateway

Garantice la confiabilidad, incluso durante las fallas del modelo, con controles de tráfico inteligentes de AI Gateway.

  • Soporta el enrutamiento basado en la latencia al LLM más rápido disponible.
  • Distribuya el tráfico de manera inteligente mediante el balanceo de cargas ponderado para lograr confiabilidad y escalabilidad.
  • Vuelva automáticamente a los modelos secundarios cuando se produce un error en una solicitud.
  • Utilice el enrutamiento con reconocimiento geográfico para satisfacer las necesidades regionales de cumplimiento y disponibilidad.
Leer más
flecha1
Límite de velocidad de AI Gateway
Este sistema le garantiza nunca te desconectes, incluso cuando los modelos individuales se enfrentan tiempo de inactividad o aumento de la latencia.

Sirva modelos autohospedados

Exponga los modelos de código abierto con control total.

  • Implementa LLama, Mistral, Falcon y más sin cambios en el SDK.
  • Compatibilidad total con vLLM, SGLang, KServe y Triton.
  • Optimice las operaciones con la administración basada en HELM del escalado automático, la programación de GPU y las implementaciones
  • Ejecute sus propios modelos en entornos de VPC, híbridos o aislados.
Leer más
flecha1
Implementación del modelo AI Gateway

Integración de AI Gateway + MCP

Impulse los flujos de trabajo seguros de los agentes mediante el soporte MCP nativo de AI Gateway.

  • Conecta herramientas empresariales como Slack, GitHub, Confluence y Datadog.
  • Registre fácilmente los servidores MCP internos con una configuración mínima requerida.
  • Aplica políticas de OAuth2, RBAC y metadatos a cada llamada a la herramienta.
Leer más
flecha1
Integración MCP de AI Gateway

Barandas AI Gateway

  • Implemente sin problemas sus propias barandillas de seguridad, incluido el filtrado de PII y la detección de toxicidad
  • Personalice el AI Gateway con barandas adaptadas a sus necesidades de cumplimiento y seguridad
Leer más
flecha1
Barandas AI Gateway

Hecho para la IA del mundo real a escala

99,99%

Tiempo de actividad

Las conmutaciones por error, el enrutamiento y las barandillas centralizadas garantizan que sus aplicaciones de IA permanezcan en línea, incluso cuando los proveedores de modelos no lo hacen.

MÁS DE 10 MIL MILLONES

Solicitudes tramitadas/mes

Inferencia escalable y de alto rendimiento para la IA de producción.

30%

Optimización del costo promedio

Los controles inteligentes de enrutamiento, procesamiento por lotes y presupuesto reducen el desperdicio de fichas.

Preparado para la empresa

Sus datos y modelos están alojados de forma segura dentro de su infraestructura local o en la nube

  • Cumplimiento y seguridad

    Estándares SOC 2, HIPAA y GDPR para garantizar una protección de datos sólida
  • Gobernanza y control de acceso

    Control de acceso basado en roles SSO + (RBAC) y registro de auditoría
  • Soporte y confiabilidad empresariales

    Soporte ininterrumpido con respaldo de SLA SLA de respuesta
Implemente TrueFoundry en cualquier entorno

VPC, local, aislada o en varias nubes.

Ningún dato sale de tu dominio. Disfrute de total soberanía, aislamiento y cumplimiento de nivel empresarial dondequiera que se ejecute TrueFoundry

Resultados reales en TrueFoundry

Por qué las empresas eligen TrueFoundry

Pratik Agarwal
Director sénior de Ciencia de Datos e Innovación en Inteligencia Artificial

AI Gateway de TrueFoundry nos brindó una capa unificada para administrar el acceso a los modelos, el enrutamiento, las barandillas y los controles de costos en todos los equipos. Lo que antes requería múltiples integraciones personalizadas y revisiones de seguridad, ahora se realiza a través de una única interfaz gobernada. Ha acelerado la producción, ha aumentado la visibilidad del gasto y el rendimiento y nos ha permitido ampliar la experimentación con IA de forma segura en toda la organización.

Vibhas Geji
Ingeniero de ML en plantilla

Con AI Gateway de TrueFoundry, por fin tenemos una interfaz uniforme para todos los proveedores de modelos, políticas y telemetría. Eliminó la sobrecarga de administrar las claves, la lógica de enrutamiento y la observabilidad dispersa. La introducción de nuevos modelos ahora es solo una configuración. El Gateway ha mejorado la velocidad de los desarrolladores, ha reducido la carga de DevOps y nos ha ayudado a operar sistemas multimodelo con información y gobernanza en tiempo real.

Indroneel G.
Líder de procesos inteligentes

AI Gateway de TrueFoundry estandarizó la forma en que cada equipo interactúa con los LLM, las incrustaciones y los componentes RAG. En lugar de integraciones dispersas, ahora controlamos el acceso, las políticas de enrutamiento y las barreras de seguridad de forma centralizada. La capacidad de optimizar los costos o la latencia sin cambiar las aplicaciones ha supuesto un punto de inflexión. Ha hecho que nuestra arquitectura de IA sea más limpia, segura y mucho más fácil de escalar.

Nilav Ghosh
Director sénior de IA

La puerta de enlace de IA de TrueFoundry se ha convertido en nuestra capa de control para una adopción de la IA segura y gobernada. Consolida las políticas de seguridad, observabilidad y uso de modelos en un solo lugar, lo que nos brinda una visibilidad total del rendimiento y los gastos. Los desarrolladores obtienen una interfaz uniforme en todas las nubes y modelos, mientras que el liderazgo se basa en la gobernanza y la previsibilidad. Ha reducido significativamente la fricción a la hora de escalar la IA empresarial.

Preguntas frecuentes

¿Qué es una puerta de enlace de IA?

Un AI Gateway es una plataforma de middleware especializada diseñada para facilitar la integración, la administración y el despliegue de modelos y servicios de inteligencia artificial (IA) dentro de la infraestructura de TI de una organización. Actúa como puente entre los sistemas de IA, como los grandes modelos lingüísticos (LLM), como el GPT de OpenAI o el Claude de Anthropic, y las aplicaciones para los usuarios finales, lo que garantiza una comunicación eficiente y segura.

¿Cómo funciona una puerta de enlace de IA?

Una solución de puerta de enlace de IA se encuentra entre sus aplicaciones y los proveedores de modelos. La puerta de enlace TrueFoundry dirige las solicitudes, gestiona la autenticación y gestiona las conmutaciones por error de forma inteligente, lo que garantiza que su sistema mantenga una conectividad fiable y de alta velocidad con cualquier modelo o herramienta subyacente que elija.

¿Cuáles son las ventajas de una pasarela de IA?

Una pasarela de IA proporciona una plataforma centralizada para gestionar y optimizar los servicios de IA. Ofrece una interfaz unificada para conectar varios modelos de IA, refuerza la seguridad mediante la autenticación y los controles de acceso y garantiza el cumplimiento de las normativas. La pasarela incluye la supervisión del uso, la gestión del presupuesto y el equilibrio de carga inteligente para garantizar un rendimiento y una fiabilidad óptimos. Apoya la aplicación de políticas sobre el uso de datos y las consideraciones éticas, al tiempo que permite el escalado horizontal para satisfacer la creciente demanda e integrar sin problemas los nuevos servicios de inteligencia artificial.

¿Cuáles son las capacidades de las pasarelas de IA?

Las pasarelas de IA proporcionan un acceso unificado y un enrutamiento inteligente en varios modelos con soluciones alternativas integradas. Por ejemplo, la pasarela de inteligencia artificial de TrueFoundry contribuye a la gobernanza y la seguridad mediante la autenticación, el control de acceso y la aplicación de políticas; a la optimización de costes mediante la limitación de tarifas y la presupuestación simbólica; a la plena observabilidad mediante el seguimiento del uso y la supervisión del rendimiento; y a la compatibilidad con los flujos de trabajo de las agencias mediante una organización en varios pasos. Actúan como un plano de control centralizado, lo que permite a las empresas poner en funcionamiento la IA de forma segura y rentable a escala.

¿Qué puerta de enlace de IA es la mejor?

La pasarela de IA de TrueFoundry es la mejor. Ofrece una implementación y una gestión integrales de los servicios de inteligencia artificial con seguridad de nivel empresarial mediante RBAC, OAuth 2.0 y la autenticación de claves API. Cuenta con limitación de velocidad, balanceo de carga inteligente y conmutación por error automática para lograr un rendimiento y una confiabilidad óptimos. Las barreras de protección integradas hacen cumplir las directrices éticas y evitan los resultados inapropiados, mientras que las herramientas de observabilidad proporcionan análisis, registros y una optimización rápida. Con soporte para múltiples nubes y capacidades de inferencia en tiempo real, TrueFoundry proporciona una solución flexible y escalable para la implementación de la IA empresarial.

¿Cuál es la diferencia entre una puerta de enlace de API y una puerta de enlace de IA?

Mientras que las puertas de enlace estándar dirigen el tráfico web general, una puerta de enlace de IA empresarial de TrueFoundry está diseñada específicamente para los LLM. Gestiona tareas específicas, como el recuento de tokens, el almacenamiento en caché de solicitudes y los modelos alternativos, es decir, una lógica especializada que las pasarelas de API genéricas simplemente no pueden ejecutar de manera eficiente.

¿Dónde se encuentra una puerta de enlace de IA en la arquitectura GenAI?

Una puerta de enlace de IA se encuentra directamente en la ruta de inferencia de producción entre las aplicaciones y los proveedores de modelos. Actúa como un plano de control centralizado que administra el enrutamiento, la gobernanza, la observabilidad, la seguridad y los controles de costos en todos los LLM, las herramientas y los agentes, sin necesidad de cambiar la lógica de las aplicaciones.

¿Se puede usar un AI Gateway con modelos autohospedados y de código abierto?

Sí. Una puerta de enlace de IA empresarial es compatible tanto con modelos alojados como con modelos autohospedados o de código abierto, como LLama o Mistral. Estos modelos pueden ejecutarse en entornos de VPC, locales, híbridos o aislados y, al mismo tiempo, utilizar las mismas políticas, controles y capacidad de observación que los modelos alojados.

¿Cómo ayuda una puerta de enlace de IA a controlar y optimizar los costos de inferencia?

Un AI Gateway proporciona visibilidad del uso en tiempo real, seguimiento a nivel de token, cuotas y cumplimiento del presupuesto. También permite estrategias inteligentes de enrutamiento, almacenamiento en caché y respaldo para reducir las llamadas innecesarias a modelos costosos y evitar un gasto desorbitado en inferencias.

¿Cómo ayuda una puerta de enlace de IA a la privacidad y el cumplimiento de los datos?

Las pasarelas de IA aplican políticas de manejo de datos, como el enmascaramiento de la PII, el filtrado de solicitudes y el registro controlado. Cuando se implementan en entornos de VPC, locales o aislados, garantizan que los datos confidenciales nunca salgan de los límites de la empresa y, al mismo tiempo, cumplen con los requisitos de cumplimiento.

¿Cómo apoya una puerta de enlace de IA a varios equipos y entornos?

Las pasarelas de IA permiten el aislamiento a nivel de equipo mediante el control de acceso basado en roles (RBAC), las claves de API por equipo, las cuotas y el seguimiento del uso. Esto permite que varios equipos compartan modelos e infraestructuras de forma segura y, al mismo tiempo, mantengan la gobernanza, la responsabilidad y la visibilidad de los costes.

¿Cómo ayuda TrueFoundry AI Gateway Playground a los desarrolladores a crear y probar?

Playground es la interfaz de usuario interactiva que se encuentra en la parte superior de AI Gateway, donde los desarrolladores pueden probar diferentes LLM, instrucciones, herramientas de MCP y configuraciones antes de conectarlos a las aplicaciones. Puedes seleccionar cualquier modelo que se haya incorporado en la pestaña «Modelos», ajustar parámetros como la temperatura, el máximo de tokens, las secuencias de transmisión y parada, y ver de inmediato el impacto en las respuestas, el uso de los tokens y la latencia. Esto facilita la experimentación con las opciones de modelos y los ajustes de generación sin necesidad de escribir código.

Una vez que esté satisfecho con la configuración, toda la configuración (mensaje, modelo, herramientas, barreras y esquema de salida estructurado) se puede guardar como una plantilla reutilizable en un repositorio compartido. Playground también genera fragmentos de código listos para usar para el cliente de OpenAI, LangChain y otras bibliotecas, mediante la API unificada de AI Gateway, de modo que los equipos pueden realizar un experimento práctico e incorporarlo directamente a sus servicios con el mínimo esfuerzo.

¿Qué significa «acceso unificado» para las API, las claves, las herramientas y los agentes?

Con TrueFoundry AI Gateway, todos los proveedores de modelos y herramientas se basan en una API única y unificada. En lugar de administrar SDK, puntos finales y claves independientes para los modelos de OpenAI, Anthropic, Bedrock, autohospedados y otros, las aplicaciones se comunican con un punto final de puerta de enlace y utilizan una clave de puerta de enlace. A continuación, la puerta de enlace dirige las solicitudes al modelo subyacente correcto en función de la configuración, de modo que puede intercambiar modelos o proveedores sin cambiar el código de la aplicación. Esta capa de acceso unificado también se extiende a las herramientas a través del protocolo MCP y a los agentes a través del emergente protocolo A2A, de modo que todos los modelos, herramientas y agentes se pueden organizar desde el mismo plano de control.

Para los desarrolladores, esto significa una integración más sencilla y un modelo de seguridad más limpio: las claves de los proveedores se almacenan una vez en la puerta de enlace, el acceso se controla de forma centralizada mediante políticas y RBAC, y los equipos pueden estandarizar según un patrón de cliente único en todos los idiomas y marcos. A medida que aparecen nuevos modelos o proveedores, se pueden agregar a la puerta de enlace y estar disponibles de inmediato desde la misma interfaz unificada.

¿Cómo funcionan en conjunto la administración rápida, el control de versiones y las aplicaciones de agente?

Las indicaciones, las herramientas y las configuraciones de los agentes se tratan como activos de primera clase en AI Gateway. En Playground, puede definir las instrucciones del sistema, las instrucciones del usuario, las variables de entrada, las herramientas de MCP, las barreras de protección y la configuración del modelo y, a continuación, guardarlas como plantillas con nombre. Cada plantilla puede tener varias versiones para que los equipos puedan realizar iteraciones de forma segura sin sobrescribir la lógica de los demás y volver a las versiones anteriores cuando sea necesario. De hecho, esto se convierte en un repositorio de configuración de avisos y agentes para su organización.

Cuando una configuración concreta esté lista para compartirse de forma más amplia, se puede publicar como una aplicación de agente. Las aplicaciones de agente funcionan con la tecnología de la puerta de enlace, pero se exponen a través de una interfaz sencilla y bloqueada: los usuarios empresariales o los equipos internos pueden interactuar con el agente exactamente como se ejecutará en producción, mientras que las instrucciones, herramientas y barreras subyacentes permanecen inmutables. Esto hace que las aplicaciones de agente sean ideales para las pruebas de aceptación de los usuarios, las demostraciones con las partes interesadas y los copilotos internos, ya que los equipos de productos y plataformas mantienen el control sobre la configuración y, al mismo tiempo, ofrecen a los demás una forma segura de probar los flujos de trabajo de las agencias.

¿Cómo funcionan las barandillas, los controles de seguridad y los controles de PII de principio a fin?

Las barandillas de TrueFoundry AI Gateway funcionan tanto en las rutas de entrada como en las de salida para ofrecer una defensa en profundidad. Antes de que una solicitud llegue a un modelo, las barreras de entrada pueden escanearla en busca de datos confidenciales, como información de identificación personal, patrones de inserción rápida o temas no permitidos, y bloquear, redactar o transformar la solicitud en función de sus políticas. Una vez que el modelo genera una respuesta, las barreras de salida vuelven a evaluar el contenido para determinar si es tóxico, sesgado, alucinaciones, infracciones de las políticas o filtraciones accidentales de datos, y deciden si devuelven, modifican o rechazan la respuesta.

La puerta de enlace puede conectarse a los servicios de seguridad y cumplimiento existentes, como OpenAI Moderation, AWS Guardrails, Azure Content Safety y Azure PII detection, y también admite reglas personalizadas escritas como código Python o de configuración. Dado que las barreras se configuran de forma centralizada y se aplican de manera uniforme en todos los modelos y aplicaciones que pasan por el AI Gateway, los equipos de seguridad y cumplimiento disponen de una forma predecible de hacer cumplir las políticas organizativas para el uso de GenAI, incluso en entornos regulados como la sanidad, los servicios financieros y los seguros.

¿Qué capacidades de observabilidad, rastreo y depuración ofrece AI Gateway?

Cada solicitud que pasa por TrueFoundry AI Gateway está instrumentada para que pueda ver exactamente cómo se comportan sus cargas de trabajo de GenAI. Las vistas de monitoreo muestran métricas agregadas, como el total de solicitudes, los tokens de entrada y salida y el costo, desglosadas por modelo, equipo, usuario, cliente, entorno o cualquier otro metadato que decidas adjuntar. El rendimiento se controla mediante la latencia P99, P90 y P50, la latencia entre tokens y el tiempo transcurrido entre tokens, para que puedas identificar rápidamente los modelos o rutas que están provocando ralentizaciones o errores.

Para una depuración más profunda, hay una vista a nivel de solicitud que le permite inspeccionar las llamadas individuales, ver el aviso y la respuesta completos y comprender cómo se aplicaron el enrutamiento, las alternativas y las barreras de protección. En el caso de los flujos de trabajo entre agencias que utilizan herramientas y MCP, la pasarela puede capturar los rastros que muestran cada paso que ha dado un agente, las herramientas a las que ha llamado y el flujo de los resultados intermedios por el sistema. Todos estos registros y métricas también se exponen a través de las API, por lo que los equipos de plataforma y de observabilidad pueden crear alertas y paneles personalizados en sus sistemas de monitoreo existentes.

¿Cómo se configuran y automatizan las políticas, los límites de tarifas, las alternativas y los presupuestos?

El AI Gateway le permite expresar las reglas de confiabilidad y gobierno como configuración para que se puedan aplicar de manera coherente y automatizada. Los límites de velocidad se pueden definir por equipo, usuario, modelo, aplicación o entorno, lo que garantiza que ningún consumidor pueda agotar su capacidad o gastar de más. Los presupuestos y las cuotas se pueden establecer de manera que, cuando el uso supere ciertos umbrales, las solicitudes se limiten, pasen a modelos más económicos o se bloqueen, según las reglas de la empresa. Las políticas de equilibrio de carga pueden dirigir el tráfico en función de ponderaciones fijas, latencia medida o prioridad, mientras que las cadenas de respaldo describen la secuencia de modelos que se prueban cuando se producen errores o tiempos de espera.

Todos estos controles pueden administrarse a través de la interfaz de usuario o declararse en YAML y aplicarse mediante la CLI de TrueFoundry, lo que permite un flujo de trabajo de GitOps en el que la configuración de la puerta de enlace coincide con las definiciones de infraestructura y código de la aplicación. Combinadas con el almacenamiento en caché, el procesamiento por lotes y la administración centralizada de claves de API, estas funciones permiten a los equipos de plataformas tratar el AI Gateway como el único lugar donde definen cómo se debe usar GenAI, cuánto se puede gastar y cómo deben comportarse las aplicaciones en caso de fallo, sin obligar a los equipos de aplicaciones individuales a volver a implementar estas preocupaciones una y otra vez.

GenAI infra: simple, más rápido y más barato

Con la confianza de más de 10 empresas de la lista Fortune 500

Realice un recorrido rápido por el producto
Comience el recorrido por el producto
Visita guiada por el producto