Accédez instantanément à un environnement TrueFoundry en direct. Déployez des modèles, acheminez le trafic LLM et explorez la plateforme complète : votre sandbox est prête en quelques secondes, aucune carte de crédit n'est requise.
Merci, votre soumission a été reçue !
Oups ! Une erreur s'est produite lors de l'envoi du formulaire.
9,9
Inférence LLM : optimisation de la vitesse, des coûts et de l'évolutivité de l'IA
Les grands modèles linguistiques (LLM) ont transformé la façon dont nous créons des applications, qu'il s'agisse de chatbots, de copilotes d'IA ou de systèmes d'entreprise complexes. Alors que la formation aux modèles est souvent mise en avant, l'inférence améliore les performances, les coûts et l'expérience utilisateur en production. L'inférence fait référence à la génération en temps réel de sorties lorsqu'un modèle est utilisé et non entraîné. À mesure que l'adoption des LLM se développe, les équipes sont confrontées à des défis croissants liés à la latence, aux limites du GPU et à l'évolutivité des coûts. L'optimisation de l'inférence LLM est devenue essentielle. Dans cet article, nous explorons ce qu'est l'inférence LLM, les principales techniques d'optimisation, les défis liés à l'infrastructure et comment TrueFoundry permet de faire évoluer l'inférence de manière efficace.
Qu'est-ce que LLM Inference ?
L'inférence LLM est le processus qui consiste à utiliser un grand modèle de langage pré-entraîné pour générer des sorties en fonction des entrées de l'utilisateur. Contrairement à la formation, qui met à jour les poids des modèles, l'inférence est une opération de transmission directe qui calcule le jeton ou la séquence de jetons suivant en fonction de l'invite de saisie. Ce processus se produit chaque fois qu'un utilisateur interagit avec une application d'IA alimentée par un LLM.
À la base, l'inférence commence par la tokenisation, où le texte saisi est décomposé en jetons que le modèle comprend. Ces jetons sont ensuite transmis à travers les couches de transformateurs du modèle, qui appliquent des poids appris pour produire des intégrations contextuelles. Enfin, une stratégie de décodage (comme la recherche gourmande ou la recherche par faisceau) génère le prochain jeton le plus probable, jusqu'à ce que la réponse soit complète.
L'inférence est coûteuse en termes de calcul, en particulier pour les grands modèles tels que GPT-4, LLama 3 ou Mistral. Comme ces modèles sont autorégressifs, ils génèrent un jeton à la fois, ce qui rend le processus séquentiel et difficile à paralléliser. Chaque étape de génération de jetons dépend des jetons générés précédemment, ce qui augmente la latence.
De plus, la taille du modèle influe directement sur le coût d'inférence. Les modèles plus grands nécessitent plus de mémoire GPU et de puissance de calcul, et ils répondent plus lentement. Pour les cas d'utilisation en production tels que le chat en temps réel, la synthèse de contenu ou la génération augmentée par extraction (RAG), la latence, le débit et l'efficacité des ressources deviennent essentiels.
Essentiellement, l'inférence LLM est l'endroit où le caoutchouc rencontre la route. C'est à ce stade que les performances du modèle, l'infrastructure et les attentes des utilisateurs se recoupent, ce qui rend l'optimisation et l'évolutivité essentielles pour les applications du monde réel.
Ready to Scale LLM Inference with Confidence?.
TrueFoundry is purpose-built to help teams deploy, serve, and scale large language models in production, without the complexity. From low-latency token streaming to intelligent autoscaling and multi-model routing, you get everything needed for efficient GenAI workloads under one unified platform.
L'optimisation de l'inférence LLM est essentielle pour fournir des applications d'IA à faible latence, rentables et évolutives. Que vous déployiez un chatbot, que vous activiez un assistant de recherche ou que vous utilisiez une plateforme GenAI multi-tenant, les bonnes techniques peuvent améliorer considérablement les performances. Vous trouverez ci-dessous certaines des méthodes les plus efficaces utilisées pour accélérer et adapter l'inférence de modèles de langage à grande échelle dans les environnements de production.
Quantification
La quantification réduit la précision des pondérations du modèle (par exemple, de FP32 à INT8 ou 4 bits), ce qui réduit l'utilisation de la mémoire et accélère les calculs. Il permet aux grands modèles de fonctionner sur du matériel plus petit ou moins cher. Des méthodes telles que le GPTQ et l'AWQ rendent cela pratique sans perte majeure de précision. Il est particulièrement efficace pour le GPU et l'inférence de périphérie.
KV Cache (mise en cache clé-valeur)
Les modèles Transformer calculent l'auto-attention sur tous les jetons précédents à chaque étape. La mise en cache KV stocke ces calculs, de sorte que le modèle n'a pas à les recalculer à chaque fois qu'un nouveau jeton est généré. Cela améliore considérablement la vitesse d'inférence, en particulier pour les longues invites et les conversations.
FlashAttention et PagedAttention
FlashAttention optimise le mécanisme d'attention en réduisant la charge de mémoire et en permettant des calculs plus rapides à l'aide d'astuces de niveau CUDA. PagedAttention (utilisé dans vLLM) gère la mémoire clé-valeur par blocs (pages), ce qui permet une gestion efficace des séquences longues et une inférence par lots avec une faible latence.
Décodage spéculatif
Le décodage spéculatif utilise un modèle plus petit pour prédire plusieurs jetons à l'avance. Le modèle plus grand vérifie ou corrige ensuite ces prédictions en moins de passes. Ce parallélisme réduit le temps d'inférence tout en maintenant une qualité de réponse élevée, ce qui le rend adapté aux applications en temps réel.
Compilation de modèles et optimisation de graphiques
La compilation de modèles à l'aide d'outils tels que ONNX Runtime, TensorRT ou TorchScript crée des graphiques de calcul statiques qui s'exécutent plus efficacement. Ces frameworks optimisent les lancements de noyaux, fusionnent les opérations et réduisent les frais d'inférence, ce qui se traduit par des performances plus rapides et plus stables.
Traitement par lots et diffusion de jetons efficaces
Le traitement par lots permet de traiter simultanément plusieurs demandes d'inférence, optimisant ainsi l'utilisation du GPU. Le streaming de jetons fournit des sorties de manière incrémentielle au fur et à mesure de leur génération, améliorant ainsi la latence perçue et la réactivité pour les utilisateurs. Ensemble, ils prennent en charge des cas d'utilisation en temps réel à grande échelle.
Avantages de l'optimisation de l'inférence LLM
Lorsque les entreprises déploient des LLM en production, le coût d'inférence et la latence deviennent rapidement des facteurs limitatifs. Sans optimisation, même un modèle de taille modérée peut devenir prohibitif ou trop lent pour prendre en charge des cas d'utilisation en temps réel. L'application des bonnes stratégies d'optimisation de l'inférence peut entraîner des performances et des avantages commerciaux substantiels.
Latence réduite : L'inférence optimisée réduit considérablement le temps de réponse. Des techniques telles que la mise en cache KV, le traitement par lots et la quantification permettent aux modèles de générer des jetons plus rapidement. Cela permet des expériences utilisateur plus fluides dans des applications telles que les chatbots, les assistants virtuels et les outils génératifs, où la réactivité est essentielle.
Coûts d'infrastructure réduits : L'optimisation de l'inférence permet de réduire l'utilisation de la mémoire GPU et la charge de calcul, ce qui se traduit directement par une baisse des coûts du cloud. Grâce à des modèles quantifiés ou compilés, les équipes peuvent gérer la même charge de travail en utilisant des instances moins nombreuses ou plus petites, ce qui permet d'améliorer le retour sur investissement des ressources de calcul.
Débit et évolutivité supérieurs : Grâce à l'inférence optimisée, vous pouvez gérer un plus grand nombre d'utilisateurs simultanés ou de demandes par seconde. Cela est particulièrement important pour les applications ou les plateformes multi-locataires desservant de grandes bases d'utilisateurs. Le traitement par lots, la mise en cache et la gestion efficace de la mémoire permettent une meilleure utilisation des GPU, permettant ainsi une évolutivité horizontale et verticale.
Meilleure expérience utilisateur : Des réponses rapides et cohérentes permettent de fidéliser les utilisateurs et d'améliorer leur satisfaction. Dans des cas d'utilisation tels que l'augmentation de la recherche, les recommandations en direct ou la synthèse, la latence a un impact direct sur la façon dont les utilisateurs perçoivent la qualité du produit. L'optimisation garantit que l'interaction en temps réel est fluide et fiable.
Durabilité environnementale : L'inférence efficace présente également des avantages en termes de durabilité. La réduction des cycles de calcul et de la consommation d'énergie grâce à l'optimisation permet de réduire l'empreinte environnementale de l'exploitation des LLM, rendant ainsi les applications GenAI plus respectueuses de l'environnement.
L'optimisation de l'inférence LLM n'est pas qu'une question de rapidité, c'est une étape fondamentale dans la création d'applications d'IA évolutives, rentables et de haute qualité.
Engoulets d'étranglement et défis liés à l'infrastructure
Le déploiement de grands modèles de langage (LLM) en production n'est pas simplement un problème logiciel, c'est un défi d'infrastructure. Bien que les performances des modèles puissent être optimisées au niveau algorithmique, les systèmes GenAI destinés à la production sont confrontés à un ensemble d'obstacles différents liés aux limitations matérielles, à la complexité de l'orchestration et à l'imprévisibilité de l'évolutivité.
L'optimisation n'a aucun sens si l'infrastructure n'est pas prête.
Les performances réelles du LLM dépendent fortement de la conception du système.
Contraintes relatives à la mémoire du GPU : Les LLM nécessitent souvent des dizaines de gigaoctets de mémoire GPU pour fonctionner efficacement. Les modèles d'hébergement tels que LLama 2 70B ou Mistral 7B peuvent facilement dépasser la capacité d'un seul GPU, ce qui nécessite le partitionnement des modèles ou l'utilisation de GPU haut de gamme et coûteux. Sans optimisation, la mémoire devient un goulot d'étranglement qui limite la taille des lots, ralentit l'inférence ou impose des choix matériels coûteux.
Les grands modèles ne peuvent pas être installés sur des GPU standard sans quantification ni partitionnement.
Les goulots d'étranglement de la mémoire ont une incidence directe sur la latence et les coûts.
Pics de charge et mise à l'échelle automatique : Les charges de travail GenAI sont surchargées. Un pic de trafic soudain, par exemple lors du lancement d'un produit ou d'un moment viral, peut submerger un système non préparé. La mise à l'échelle automatique des nœuds GPU est beaucoup plus lente que la mise à l'échelle des charges de travail des processeurs traditionnels, en particulier dans les environnements Kubernetes. Les démarrages à froid des conteneurs LLM peuvent prendre plusieurs secondes, ce qui augmente la latence de réponse lorsque la demande augmente.
Les stratégies de dimensionnement automatique traditionnelles sont trop lentes pour les charges de travail LLM.
La latence de démarrage à froid peut ruiner l'expérience utilisateur en temps réel pendant les pics.
Complexité multilocataire et multimodèle : La gestion de plusieurs LLM ou la prise en charge de différents locataires sur la même infrastructure ajoutent à la complexité. Vous devez isoler les charges de travail, gérer une allocation équitable des ressources et vous assurer qu'aucun modèle ne prive les autres d'accès au GPU. Cela nécessite souvent une logique de routage personnalisée, des passerelles API et une observabilité précise.
GenAI multi-tenant exige une isolation et une allocation dynamique des ressources.
Un routage incorrect peut entraîner des problèmes de voisinage bruyants.
Frais de réseau et d'E/S : La latence d'inférence ne concerne pas seulement le calcul de modèles, elle concerne également le mouvement des données. La tokenisation, la récupération de vecteurs (dans les systèmes RAG) et la communication par API contribuent toutes à des temps de réponse de bout en bout. Des E/S lentes entre les composants peuvent annuler même le modèle le plus optimisé.
La latence au niveau des jetons s'accumule rapidement dans les configurations RAG et de streaming.
Les goulots d'étranglement des E/S doivent être surveillés et atténués, et pas simplement des modèles plus rapides.
Frais de déploiement et de gestion des versions : Il est difficile d'itérer sur les versions LLM ou de basculer entre différents modèles de backends sans pipelines standardisés. Les mises à jour des modèles, les mécanismes de restauration et les problèmes de compatibilité sont source de friction pour les équipes d'ingénierie, en particulier lorsqu'elles opèrent dans plusieurs environnements (staging, prod, etc.).
La publication de nouvelles versions de modèles doit être rapide, sûre et observable.
La gestion manuelle des versions augmente les risques et ralentit la vitesse d'itération.
Au service des LLM dans le secteur de la production
La prise en charge de grands modèles linguistiques en production nécessite une conception réfléchie du système. Il ne s'agit pas simplement de charger un modèle et de l'exposer via une API. Selon le cas d'utilisation, tel que l'interaction en temps réel, le traitement de documents ou la recherche de connaissances, l'architecture doit trouver un équilibre entre latence, fiabilité, évolutivité et rentabilité.
Choisir le bon cadre de service
Le choix d'un moteur d'inférence est une décision fondamentale. Des outils tels que vLLM, TGI (Text Generation Inference) et DeepSpeed Inference présentent chacun des avantages uniques. vLLM est conçu pour des performances à grande échelle, en utilisant l'attention paginée et la mise en cache KV pour permettre une inférence à haut débit et à faible latence. Il prend en charge les demandes simultanées et est idéal pour le streaming de jetons.
TGI propose un chemin d'intégration plus facile, en particulier au sein de l'écosystème Hugging Face. Il prend en charge des stratégies de décodage avancées et un streaming intégré, ce qui le rend convivial pour les développeurs. DeepSpeed-Inference se concentre sur l'optimisation de la mémoire et le parallélisme des tenseurs, permettant ainsi à de grands modèles de fonctionner même sur du matériel soumis à des contraintes.
vLLM est le mieux adapté à l'inférence haute performance, par lots et en streaming.
TGI et DeepSpeed-Inference simplifient le déploiement et améliorent le contrôle de la mémoire.
Conception d'API et diffusion
Les applications LLM modernes nécessitent plus que des réponses statiques. Les API de streaming améliorent l'expérience utilisateur en fournissant des jetons en temps réel. Cela est essentiel pour les chatbots et les assistants, où même un léger retard peut sembler lent. Le streaming au niveau des jetons réduit la latence perçue et rend les interactions plus naturelles.
Une bonne conception d'API inclut également des paramètres tels que temperature, top_k et max_tokens, qui permettent aux développeurs de contrôler le comportement des modèles. La fourniture de métadonnées telles que la version du modèle et les statistiques de latence facilite la surveillance et le débogage. La gestion des versions et la limitation du débit sont également essentielles à la stabilité et à l'évolutivité.
Les réponses en streaming améliorent l'expérience utilisateur grâce à un feedback plus rapide.
Les API configurables et versionnées offrent de la flexibilité et garantissent des performances fiables.
Observabilité et surveillance
Les systèmes d'inférence échouent souvent de manière silencieuse en raison de problèmes tels que la lenteur des générations, la limitation du processeur graphique ou un faible taux d'accès au cache. Sans une observabilité adéquate, les équipes se retrouvent dans l'incertitude. Des indicateurs tels que la longueur des messages, la latence des jetons et l'utilisation de la mémoire du GPU doivent être suivis en temps réel pour maintenir les performances.
La journalisation et le suivi doivent être effectués à la fois au niveau des requêtes et des jetons. Cela permet d'identifier les invites lentes, d'isoler les goulots d'étranglement de l'infrastructure et de détecter les régressions à un stade précoce. Les outils de surveillance intégrés permettent aux équipes de réagir rapidement et d'assurer le bon fonctionnement des pipelines d'inférence.
Les métriques au niveau des jetons sont essentielles pour le débogage et l'optimisation.
La surveillance empêche les défaillances silencieuses et favorise une réponse proactive aux incidents.
Comment TrueFoundry adapte l'inférence LLM
TrueFoundry permet un déploiement efficace et évolutif de grands modèles de langage (LLM) via une infrastructure native de Kubernetes, des moteurs d'inférence optimisés et une passerelle IA de niveau entreprise. Cette combinaison permet aux équipes de déployer des modèles open source et propriétaires avec un débit élevé, une faible latence et un contrôle total des performances et des coûts.
À la base se trouve une architecture de pool de GPU distribuée, qui couvre plusieurs régions et fournisseurs de cloud. Cette configuration garantit la tolérance aux pannes et la fiabilité, en particulier lors de l'utilisation d'instances ponctuelles. Les demandes entrantes sont canalisées via un système de file d'attente qui dissocie la réception des demandes de la disponibilité du GPU, permettant un traitement asynchrone avec une latence supplémentaire de 5 à 10 ms seulement, négligeable dans la plupart des cas d'utilisation de LLM.
TrueFoundry prend en charge des moteurs d'inférence optimisés tels que :
vLLM pour le traitement par lots en continu, l'attention sur les pages et le streaming.
Inférence de génération de texte (TGI) pour un débit de jetons rapide.
Volumes de modèles partagés via EFS ou similaire, réduisant ainsi les téléchargements redondants lors de la mise à l'échelle automatique.
Ces moteurs améliorent considérablement la vitesse de génération de jetons et l'efficacité de l'hébergement multimodèle.
L'AI Gateway fait office d'interface centrale pour les LLM auto-hébergées et tierces. Il propose :
API compatibles avec OpenAI pour une intégration fluide
Création rapide de modèles et mise en cache sémantique pour réduire les calculs répétés
Solution de secours intelligente et routage multifournisseur
Limitation du débit et authentification pour protéger les terminaux des modèles
TrueFoundry propose également une mise à l'échelle automatique basée sur des métriques en temps réel telles que le RPS (requêtes par seconde). Les modèles sont redimensionnés à la hausse ou à la baisse de manière dynamique, ce qui garantit l'efficacité des ressources pendant les pics de charge ou les périodes d'inactivité. Le déploiement multirégional et l'optimisation des instances ponctuelles permettent de réduire encore les coûts de 70 à 80 %.
Enfin, la plateforme inclut une observabilité robuste sur l'ensemble du pipeline d'inférence LLM. Les équipes ont accès à :
Surveillance de l'utilisation des jetons et de la latence
Analyses rapides
Suivi des défaillances et informations sur les performances
En combinant une infrastructure évolutive, une inférence optimisée et un routage intelligent, TrueFoundry fournit une pile de serveurs LLM conçue pour la production à grande échelle, offrant fiabilité, rapidité et contrôle sans dépendance vis-à-vis d'un fournisseur.
Conclusion
Alors que les LLM occupent une place centrale dans les applications d'IA modernes, une inférence efficace et évolutive est essentielle pour proposer des expériences utilisateur rentables et en temps réel. De la quantification à la mise en cache KV, en passant par les services sensibles à l'infrastructure et l'observabilité, chaque couche de la pile d'inférence doit être optimisée. Cependant, la création et la gestion de cette infrastructure en interne peuvent être complexes et nécessiter beaucoup de ressources. TrueFoundry simplifie ce processus en fournissant une plate-forme unifiée qui synthétise l'infrastructure, automatise les services et permet la génération d'IA de niveau production à grande échelle. Que vous déployiez des modèles open source ou que vous créiez des assistants spécifiques à un domaine, TrueFoundry vous fournit les outils nécessaires pour exécuter des inférences de manière fiable, efficace et avec une visibilité complète sur les performances et les coûts.
Question fréquemment posée
Qu'est-ce que l'inférence LLM ?
Lorsque les gens demandent ce qu'est l'inférence LLM, ils font référence au processus réel dans lequel un grand modèle de langage entraîné reçoit une entrée, comme une invite, et génère une prédiction ou une réponse. Contrairement à la phase de formation où un modèle « apprend », l'inférence est la phase de production au cours de laquelle le modèle applique les modèles qu'il a appris pour résoudre des tâches du monde réel. Il s'agit de l'étape critique qui permet de transformer un modèle statique en une application d'IA fonctionnelle.
Qu'est-ce qu'un serveur d'inférence LLM ?
Un serveur d'inférence LLM est un environnement logiciel spécialisé conçu pour héberger des modèles et gérer efficacement les demandes des utilisateurs. Les serveurs populaires tels que vLLM, Text Generation Inference (TGI) et NVIDIA Triton sont conçus pour optimiser la façon dont les GPU traitent les jetons. Ces serveurs sont essentiels car ils gèrent les ressources matérielles, gèrent la mise en file d'attente des requêtes et mettent en œuvre des techniques avancées de gestion de la mémoire pour garantir que le modèle reste réactif en cas de forte charge.
Quelles sont les techniques d'inférence LLM ?
Pour améliorer la vitesse et réduire les coûts, plusieurs techniques d'inférence LLM sont devenues la norme dans les piles d'IA modernes. Il s'agit notamment de la quantification (réduction de la précision du modèle), de la mise en cache KV (stockage des calculs précédents) et du décodage spéculatif, qui utilise un modèle « brouillon » plus petit pour en accélérer un plus grand. En outre, PagedAttention permet de gérer la mémoire du GPU de manière plus efficace, ce qui permet d'augmenter le débit et de réduire la latence lors des interactions en temps réel.
Quelle est la différence entre l'inférence LLM et la formation ?
Le cœur de l'inférence LLM par rapport à la formation réside dans l'objectif : la formation est l'étape « d'apprentissage » au cours de laquelle le modèle est construit à l'aide d'ensembles de données volumineux et d'un calcul intensif, tandis que l'inférence est l'étape « d'exécution » au cours de laquelle le modèle est utilisé. La formation nécessite une mémoire à bande passante élevée et des semaines d'utilisation du processeur graphique, tandis que l'inférence est axée sur la vitesse, l'efficacité et la génération de réponses en millisecondes pour l'utilisateur final.
Quel est le meilleur outil pour l'inférence LLM ?
Le meilleur outil varie souvent selon que vous recherchez un moteur brut ou une couche d'orchestration. Pour les performances brutes, vLLM et TGI sont les meilleurs choix en raison de leur prise en charge du traitement par lots à haut débit. Cependant, pour une gestion de niveau professionnel, TrueFoundry est la plateforme idéale car elle automatise le déploiement de ces moteurs sur votre propre infrastructure, en fournissant une surveillance intégrée, un suivi des coûts et une mise à l'échelle automatique.
Le GPU est-il nécessaire pour l'inférence LLM ?
Bien que vous puissiez techniquement exécuter l'inférence LLM sur un processeur pour des modèles plus petits ou des tests, un GPU est presque toujours nécessaire pour des performances de production. Les GPU sont conçus pour le traitement parallèle massif nécessaire à la génération rapide de jetons. Sans GPU, les temps de réponse (latence) peuvent devenir trop lents pour les cas d'utilisation interactifs, faisant du matériel spécialisé tel que le H100 ou l'A100 de NVIDIA la norme industrielle en matière d'IA hautes performances.
Comment mesurer l'inférence LLM ?
La mesure des performances d'inférence LLM implique généralement quatre indicateurs clés : le délai jusqu'au premier jeton (TTFT), le nombre de jetons par seconde (TPS), la latence totale et le débit. Le TTFT mesure la rapidité avec laquelle un utilisateur voit le début d'une réponse, tandis que le TPS indique la vitesse de lecture globale. TrueFoundry fournit des tableaux de bord centralisés pour suivre ces indicateurs en temps réel, aidant ainsi les équipes à identifier les goulots d'étranglement et à optimiser l'utilisation de leur matériel pour une meilleure rentabilité.
Quelles sont les deux phases de l'inférence LLM ?
Les deux phases de l'inférence LLM sont le préremplissage et le décodage. Au cours de la phase de préremplissage, le modèle traite l'invite de saisie et crée des représentations internes. Dans la phase de décodage, le modèle génère des jetons de sortie un par un en fonction de l'invite et des jetons générés précédemment.
Pourquoi l'inférence LLM est-elle si chère ?
L'inférence LLM est coûteuse car la génération de sorties nécessite des calculs importants pour chaque jeton, en particulier dans les grands modèles contenant des milliards de paramètres. Une mémoire GPU élevée, une puissance de traitement et une consommation d'énergie élevées contribuent aux coûts. La génération séquentielle de jetons, les charges de travail multi-utilisateurs et la mise à l'échelle de l'infrastructure augmentent encore les dépenses opérationnelles, rendant l'optimisation essentielle pour l'efficacité et la rentabilité.
Quel est le processus d'inférence du LLM ?
Le processus d'inférence commence lorsqu'un utilisateur envoie une invite au modèle. L'invite est symbolisée et traitée via les couches du réseau neuronal du modèle. Le modèle calcule les probabilités pour le prochain jeton et génère une sortie étape par étape jusqu'à ce que la réponse soit complète.
TrueFoundry AI Gateway offre une latence d'environ 3 à 4 ms, gère plus de 350 RPS sur 1 processeur virtuel, évolue horizontalement facilement et est prête pour la production, tandis que LiteLM souffre d'une latence élevée, peine à dépasser un RPS modéré, ne dispose pas d'une mise à l'échelle intégrée et convient parfaitement aux charges de travail légères ou aux prototypes.
Conçu pour la vitesse : latence d'environ 10 ms, même en cas de charge