Prochain webinaire : La sécurité d'entreprise pour Claude Code | 21 avril · 11 h PST. Inscrivez-vous ici →

Intégrer OpenCode en interne : utilisation sécurisée des outils sur TrueFoundry

Par Boyu Wang

Mis à jour : January 19, 2026

Résumez avec

Nous avons tous connu ce moment avec l'interpréteur de code de ChatGPT (désormais « Analyse avancée des données »). Vous chargez un fichier CSV désordonné, vous lui demandez de « fixer les dates et tracer la tendance », et vous le regardez avec émerveillement écrire et exécuter du code Python en temps réel.

C'est une super arme en matière de productivité. Il s'agit également d'une faille de sécurité massive si vous travaillez avec des données sensibles.

Au moment où vous chargez ce fichier CSV, il quitte votre périmètre. Pour notre équipe, l'objectif était de reproduire cette fonctionnalité « OpenCode », en donnant à nos agents LLM la capacité d'écrire et d'exécuter du code, sans risques d'exfiltration de données. Nous ne voulions pas d'API « boîte noire » ; nous avions besoin d'une Interprète de code privé où le calcul s'effectue à côté des données.

Voici comment nous avons mis en œuvre une utilisation sécurisée des outils et une exécution de code à l'aide des composants d'infrastructure de TrueFoundry.

L'architecture d'un interprète de code privé

« OpenCode » ne consiste pas simplement à disposer d'un modèle capable d'écrire Python. Elle nécessite trois composants distincts qui fonctionnent à l'unisson :

  1. Le cerveau (LLM) : Un modèle capable de raisonner et d'appeler des fonctions (par exemple, Llama 3, DeepSeek-Coder ou GPT-4o via Gateway).
  2. The Hands (Sandbox) : Un environnement isolé et éphémère dans lequel le code s'exécute réellement.
  3. The Glue (Gateway) : Intergiciel qui analyse l'intention du modèle et achemine la demande d'exécution.

La plupart des gens restent bloqués sur « The Hands ». Vous ne pouvez pas simplement laisser un LLM exécuter os.system ('rm -rf /') sur votre cluster de production. Tu as besoin d'un bac à sable.

TrueFoundry résout ce problème en nous permettant de déployer environnements d'exécution éphémères (Services ou Jobs) qui font office de bac à sable. La passerelle LLM gère les définitions d'utilisation des outils, et l'exécution proprement dite a lieu dans un conteneur verrouillé au sein de notre VPC.

Voici le flux de travail qui explique comment une demande utilisateur se transforme en exécution de code sécurisée.

Figure 1 : Flux de travail de la boucle d'exécution OpenCode

Le problème du bac à sable : gérer « The Hands »

Lorsque nous avons essayé de le créer pour la première fois, nous avons sous-estimé la complexité de l'environnement d'exécution. Si vous utilisez une API d'interprétation de code SaaS standard, vous lui envoyez vos données. Si vous l'exécutez localement, vous risquez de compromettre l'hôte.

Nous utilisons TrueFoundry Des services pour héberger un « agent d'exécution de code » personnalisé. Il s'agit essentiellement d'un service Python FastAPI encapsulé dans un conteneur Docker qui contient :

  • Accès réseau restreint : Pas d'accès à Internet, à l'exception de miroirs PyPI internes spécifiques.
  • Limites de ressources : Limites de la RAM et du processeur (définies via le commutateur de ressources de TrueFoundry) pour empêcher les boucles while (true) de faire fondre le nœud.
  • Stockage éphémère : Le système de fichiers est effacé après chaque demande.

Comme TrueFoundry gère le manifeste Kubernetes sous-jacent, nous pouvons injecter ces contraintes de sécurité (SecurityContext, NetworkPolicies) directement depuis l'interface utilisateur de déploiement ou Terraform, garantissant ainsi que le sandbox est véritablement un sandbox.

Comparaison : utilisation des outils publics et privés

Le compromis a toujours été la commodité par rapport au contrôle. En utilisant TrueFoundry pour orchestrer le modèle « OpenCode », nous changeons l'équilibre. Nous bénéficions de la commodité d'un déploiement géré sans les risques liés aux données.

Code Interpreter vs Private Sandbox
Feature Public SaaS Code Interpreter TrueFoundry Private Sandbox
Data Privacy Low. Data is uploaded to the vendor’s cloud environment. High. Data stays in your VPC / S3 bucket; code comes to the data.
Library Control Limited. Standard pre-installed packages (e.g., pandas, numpy). Full control. You define the Docker image. Need a niche bioinformatics library? Just add it.
Network Access Blocked or public internet access (risky). Configurable. Private networking to internal systems like RDS or Snowflake.
Cost Per-token usage plus premium subscription fees. Infrastructure-based pricing. You pay for the underlying pod or GPU only while running.

Tableau 1 : Voici un exemple de comparaison entre une passerelle et un bac à sable

L'utilisation des outils et le moment « Ah-ha »

Le véritable pouvoir se débloque lorsque vous combinez Utilisation de l'outil avec vos API internes.

Nous avons configuré la passerelle TrueFoundry LLM pour exposer non seulement l'outil « Python Interpreter », mais également des outils pour notre lac de données interne (par exemple, get_user_churn_metrics (user_id)).

Étant donné que le LLM est acheminé via la passerelle et que celle-ci est connectée à nos services privés, le modèle peut désormais :

  1. Requête notre base de données SQL interne (via un outil).
  2. Tirer ces données dans le Python Sandbox.
  3. Analyser en utilisant le modèle « OpenCode ».
  4. Retourner la réponse à l'utilisateur.

Tout cela se fait sans qu'un seul octet de données client ne quitte notre sous-réseau privé.

Le préparer pour la production

La mise en œuvre d' « OpenCode » n'est plus seulement un projet de hackathon amusant ; c'est une exigence pour les agents d'IA modernes. Mais vous ne pouvez pas simplement le pirater avec LangChain et espérer que tout ira pour le mieux.

Nous traitons notre interpréteur de code comme infrastructures critiques. Nous le surveillons à l'aide de la pile d'observabilité de TrueFoundry, qui permet de suivre non seulement les jetons LLM, mais aussi les pics de processeur dans le sandbox et la latence d'exécution. Si un utilisateur écrit un script qui tente d'allouer 50 Go de RAM, TrueFoundry tue le pod avant qu'il n'affecte le cluster et l'utilisateur reçoit un message d'erreur poli.

C'est la différence entre une démo et une plateforme.

Le moyen le plus rapide de créer, de gérer et de faire évoluer votre IA

INSCRIVEZ-VOUS
Table des matières

Gouvernez, déployez et suivez l'IA dans votre propre infrastructure

Réservez un séjour de 30 minutes avec notre Expert en IA

Réservez une démo

Le moyen le plus rapide de créer, de gérer et de faire évoluer votre IA

Démo du livre

Découvrez-en plus

Aucun article n'a été trouvé.
 Best AI Gateways in 2026
April 22, 2026
|
5 min de lecture

5 meilleures passerelles IA en 2026

comparaison
April 22, 2026
|
5 min de lecture

Intégration de Cline avec TrueFoundry AI Gateway

Outils LLM
Detailed Guide to What is an AI Gateway?
April 22, 2026
|
5 min de lecture

Qu'est-ce qu'AI Gateway ? Concepts de base et guide

Aucun article n'a été trouvé.
April 22, 2026
|
5 min de lecture

LLM Embeddings 101 : un guide complet 2024

Terminologie LLM
Aucun article n'a été trouvé.

Blogs récents

Faites un rapide tour d'horizon des produits
Commencer la visite guidée du produit
Visite guidée du produit