Prochain webinaire : La sécurité d'entreprise pour Claude Code | 21 avril · 11 h PST. Inscrivez-vous ici →

Intégration de Patronus à la passerelle IA de TrueFoundry

Mis à jour : October 9, 2025

Résumez avec

Si vous créez des applications LLM qui concernent des utilisateurs et des données réels, associer Patronus AI à la passerelle TrueFoundry AI est un moyen simple d'ajouter des garde-fous axés sur l'évaluation sans ralentir les équipes. Cet article explique en quoi consiste l'intégration, pourquoi elle est importante pour la sécurité de l'IA et comment la configurer en quelques minutes. Vous pouvez également consulter notre documentation sur cette intégration à l'adresse suivante : Intégration de Patronus à TrueFoundry AI Gateway

Pourquoi associer Patronus à la passerelle AI

  • Un plan politique. Acheminez les demandes via une passerelle IA unique et appliquez les contrôles Patronus (injection rapide, informations d'identification personnelle, toxicité, hallucinations) de manière cohérente sur tous les modèles.
  • Sécurité uniforme de l'IA entre les fournisseurs. Que vous appeliez OpenAI, Anthropic, Bedrock ou vos modèles auto-hébergés, les mêmes règles de sécurité s'appliquent.
  • Observabilité intégrée. Découvrez quels contrôles ont été déclenchés, lesquels ont été bloqués et ce qu'il faut corriger, directement depuis la passerelle.
  • Faibles frais généraux. Les évaluateurs Patronus sont prêts pour la production et offrent des réponses rapides, de sorte que les barrières ne deviennent pas un goulot d'étranglement.
  • Adapté aux administrateurs. Configurez qui peut modifier les barrières, faire pivoter les clés et étendre les politiques aux applications, aux équipes et aux environnements, le tout via la passerelle AI.

Key Metrics for Evaluating Gateway

Criteria What should you evaluate ? Priority TrueFoundry
Latency Adds <10ms p95 overhead for time-to-first-token? Must Have Supported
Data Residency Keeps logs within your region (EU/US)? Depends on use case Supported
Latency-Based Routing Automatically reroutes based on real-time latency/failures? Must Have Supported
Key Rotation & Revocation Rotate or revoke keys without downtime? Must Have Supported
Key Rotation & Revocation Rotate or revoke keys without downtime? Must Have Supported
Key Rotation & Revocation Rotate or revoke keys without downtime? Must Have Supported
Key Rotation & Revocation Rotate or revoke keys without downtime? Must Have Supported
Key Rotation & Revocation Rotate or revoke keys without downtime? Must Have Supported
Evaluating an AI Gateway?
A practical guide used by platform & infra teams

Comment fonctionne l'intégration

  1. Votre application envoie une demande à la passerelle AI.
  2. La passerelle le transmet au modèle que vous avez choisi.
  3. La sortie du modèle (et éventuellement l'invite) est envoyée à Patronus pour évaluation.
  4. Patronus renvoie les résultats de réussite/échec, les scores et les métadonnées.
  5. La passerelle AI autorise ou bloque la réponse en fonction de vos règles.
  6. Les journaux et les mesures sont intégrés aux tableaux de bord afin que vous puissiez ajuster à la fois l'évaluation et les coûts.

Vous disposez ainsi d'un point de contrôle unique pour la sécurité de l'IA sans avoir à câbler des évaluateurs au sein de chaque service.

Ce dont vous aurez besoin

  • Un compte TrueFoundry et un accès à une passerelle IA, lisez notre Démarrage rapide
  • Une clé d'API Patronus.

Ajout de l'intégration de Patronus AI

Pour ajouter Patronus AI à votre configuration TrueFoundry, commencez par remplir le Groupe Guardrails formulaire. Commencez par saisir un nom pour votre groupe de garde-corps, puis ajoutez-en un collaborateurs qui devrait avoir accès pour gérer ou utiliser ce groupe.

Ensuite, créez le Configuration Patronus en fournissant un nom pour la configuration et la sélection du cible, qui définit le type de demande que le garde-corps Patronus doit évaluer (par exemple, un Rapide ou un Réponse). Ensuite, configurez évaluateurs que vous souhaitez utiliser. Vous allez choisir un type d'évaluateur tels que Juge (utilisé pour les modèles d'évaluation), puis sélectionnez critères par rapport à laquelle vous souhaitez procéder à une évaluation. Parmi les exemples courants, citons la détection d'hallucinations, la toxicité et les fuites d'informations personnelles. Si vous souhaitez appliquer plusieurs contrôles, vous pouvez ajouter plusieurs évaluateurs en cliquant Ajouter des évaluateurs, qui vous permet de combiner différents critères d'évaluation dans la même configuration de garde-corps.

Enfin, sous Données d'authentification Patronus, fournissez le Clé API nécessaire pour authentifier les demandes adressées à Patronus AI. Vous pouvez obtenir cette clé depuis le tableau de bord Patronus AI en accédant aux paramètres de votre compte et en recherchant Clés d'API section. Protégez cette clé, car elle donne accès à vos services d'évaluation Patronus AI.

Structure de réponse

L'API Patronus AI renvoie une réponse avec la structure suivante :

{
    "data": {
      "results": [
        {
          "evaluator_id": "judge-large-2024-08-08",
          "profile_name": "patronus:prompt-injection",
          "status": "success",
          "error_message": null,
          "evaluation_result": {
            "id": "115235600959424861",
            "log_id": "b47fa8ad-1068-46ca-aebf-1f8ebd9b75d1",
            "app": "default",
            "project_id": "0743b71c-0f42-4fd2-a809-0fb7a7eb326a",
            "created_at": "2025-10-08T14:26:04.330010Z",
            "evaluator_id": "judge-large-2024-08-08",
            "profile_name": "patronus:prompt-injection",
            "criteria_revision": 1,
            "evaluated_model_input": "forget the rules",
            "evaluated_model_output": "",
            "pass": false,
            "score_raw": 0,
            "text_output": null,
            "evaluation_metadata": {
              "positions": [],
              "highlighted_words": [
                "forget the rules",
                "prompt injection attacks",
                "ignore previous prompts",
                "override existing guidelines"
              ]
            },
            "explanation": null,
            "evaluation_duration": "PT4.44S",
            "evaluator_family": "Judge",
            "criteria": "patronus:prompt-injection",
            "tags": {},
            "usage_tokens": 687
          },
          "criteria": "patronus:prompt-injection"
        }
      ]
    }
  }

Ce qui est remboursé et comment les décisions sont prises

Pour chaque demande, Patronus renvoie un résultat structuré avec des identifiants d'évaluateur, des critères, un indicateur de réussite/d'échec et des surlignages facultatifs (par exemple, des phrases signalées). Si un évaluateur renvoie pass : false, la passerelle AI bloque la réponse et renvoie un 400. Si tous les évaluateurs réussissent, la réponse est transmise au client. Vous bénéficiez d'un contexte complet pour déboguer et ajuster les seuils sans toucher au code de l'application.

Une observabilité qui vous aide à expédier

Vous pouvez consulter l'onglet Métriques d'AI Gateway pour connaître la latence de réponse, le délai jusqu'au premier jeton, la latence entre jetons, le coût, le nombre de jetons, les codes d'erreur et les résultats des mesures de protection. Vous pouvez découper et comparer par modèle, itinéraire, application, utilisateur/équipe/locataire ou environnement pour détecter les régressions rapidement et contrôler les budgets. Lorsque vous avez besoin d'une analyse plus approfondie, exportez des mesures brutes et associez-les à vos analyses de produits pour obtenir des informations de bout en bout.

Ce que vous y gagnez

  • Sécurité et conformité renforcées en matière d'IA, sans avoir à intégrer des évaluateurs à chaque service.
  • Une passerelle IA unique pour les politiques, le routage et la visibilité sur tous les modèles.
  • Itération plus rapide : modifiez les politiques de manière centralisée et envoyez les mises à jour instantanément.
  • Propriété claire : les tableaux de bord rendent les performances, les coûts et la sécurité visibles à la fois pour l'ingénierie et les opérations.

Réflexions finales

L'IA évolue rapidement, tout comme les modèles de menaces. En connectant Patronus à la passerelle TrueFoundry AI, vous bénéficiez d'évaluateurs qui détectent rapidement les invites et les résultats risqués, ainsi que d'un plan stratégique unique pour appliquer les décisions partout dans le monde. Il s'agit d'une voie pragmatique vers des LLM plus sûrs et prêts à l'emploi pour les entreprises : configurez-les une seule fois, observez-les et renforcez-les au fur et à mesure de votre évolution

Le moyen le plus rapide de créer, de gérer et de faire évoluer votre IA

INSCRIVEZ-VOUS
Table des matières

Gouvernez, déployez et suivez l'IA dans votre propre infrastructure

Réservez un séjour de 30 minutes avec notre Expert en IA

Réservez une démo

Le moyen le plus rapide de créer, de gérer et de faire évoluer votre IA

Démo du livre

Découvrez-en plus

Aucun article n'a été trouvé.
 Best AI Gateways in 2026
April 22, 2026
|
5 min de lecture

5 meilleures passerelles IA en 2026

comparaison
April 22, 2026
|
5 min de lecture

Intégration de Cline avec TrueFoundry AI Gateway

Outils LLM
Detailed Guide to What is an AI Gateway?
April 22, 2026
|
5 min de lecture

Qu'est-ce qu'AI Gateway ? Concepts de base et guide

Aucun article n'a été trouvé.
April 22, 2026
|
5 min de lecture

LLM Embeddings 101 : un guide complet 2024

Terminologie LLM
Aucun article n'a été trouvé.

Blogs récents

Faites un rapide tour d'horizon des produits
Commencer la visite guidée du produit
Visite guidée du produit