Prochain webinaire : La sécurité d'entreprise pour Claude Code | 21 avril · 11 h PST. Inscrivez-vous ici →

Analyse comparative Llama-2-70B

Par TrueFoundry

Mis à jour : October 6, 20235

Résumez avec

Dans cet article, nous comparons les performances de LLama2-70b du point de vue de la latence, du coût et des demandes par seconde. Cela nous aidera à évaluer s'il peut s'agir d'un bon choix en fonction des besoins de l'entreprise. Veuillez noter que nous n'abordons pas les performances qualitatives dans cet article. Il existe différentes méthodes pour comparer les LLM, que vous pouvez trouver ici.

Modèle : Llama2-70B

Dans ce blog, nous avons comparé Lama-2-70B modèle de Aucune recherche. Il s'agit d'une version pré-entraînée de Llama-2 avec 70 milliards de paramètres.

Meta a développé et publié la famille de grands modèles linguistiques (LLM) Llama 2, une collection de modèles de texte génératifs pré-entraînés et affinés dont l'échelle varie de 7 milliards à 70 milliards de paramètres.

Métriques à comparer

  1. Demandes par seconde. (3 HEURES PAR SECONDE) : Demandes par seconde traitées par le modèle. Avec un RPS plus élevé, la latence augmente généralement.
  2. Latence : Combien de temps faut-il pour traiter une demande d'inférence ?
  3. Économie : Quels sont les coûts associés au déploiement d'un LLM ?

Cas d'utilisation et modes de déploiement évalués

Les principaux facteurs sur lesquels nous avons effectué des analyses comparatives sont les suivants :

Type de processeur graphique :

  1. 4 x A100 40 Go GPU

Longueur du message :

  1. 1500 jetons d'entrée, 100 jetons de sortie (Similaire aux cas d'utilisation de Retrieval Augmented Generation)
  2. 50 jetons d'entrée, 500 jetons de sortie (Cas d'utilisation de Generation Heavy)

Configuration de l'analyse comparative

Pour l'analyse comparative, nous avons utilisé Locust, un outil de test de charge open source. Locust fonctionne en créant des utilisateurs/travailleurs pour envoyer des demandes en parallèle. Au début de chaque test, nous pouvons définir Nombre d'utilisateurs et Taux d'apparition. Voici le Nombre d'utilisateurs signifie le nombre maximum d'utilisateurs pouvant être généré/exécuter simultanément, alors que Taux d'apparition indique le nombre d'utilisateurs qui seront générés par seconde.

Lors de chaque test d'analyse comparative d'une configuration de déploiement, nous sommes partis de 1 utilisateur et a continué à augmenter le Nombre d'utilisateurs progressivement jusqu'à ce que nous constations une augmentation constante du RPS. Au cours du test, nous avons également tracé temps de réponse (en ms) et nombre total de demandes par seconde.

Dans chacune des 2 configurations de déploiement, nous avons utilisé le huggingface inférence par génération de texte serveur modèle ayant version = 0.9.4. Voici les paramètres transmis au inférence par génération de texte image pour différentes configurations de modèles :

PARAMETERS LLAMA-2-70B ON A100
Max Batch Prefill Tokens 14000

Résumé des résultats de l'analyse comparative

Latence, RPS et coût

Nous calculons la meilleure latence sur la base de l'envoi d'une seule demande à la fois. Pour augmenter le débit, nous envoyons les demandes en parallèle au LLM. Le débit maximal est le cas lorsque le modèle est capable de traiter les demandes d'entrée sans détérioration significative de la latence.

Résultats d'analyse comparative pour LLama-2 70B

Jetons par seconde

Les LLM traitent les jetons d'entrée et les génèrent différemment. C'est pourquoi nous avons calculé différemment le taux de traitement des jetons d'entrée et des jetons de sortie.

Résultats détaillés

4 GPU A100 de 40 Go (1500 jetons d'entrée + 100 jetons de sortie)

Nous pouvons observer dans les graphiques ci-dessus que Meilleur temps de réponse (pour 1 utilisateur) est 7,4 secondes. Nous pouvons augmenter le nombre d'utilisateurs pour générer plus de trafic vers le modèle. Nous pouvons voir le débit augmenter jusqu'à 1,1 RPS sans baisse significative de la latence. Au-delà 1,1 RPS, la latence augmente considérablement, ce qui signifie que les demandes sont mises en file d'attente.

4 x GPU A100 de 40 Go (50 jetons d'entrée + 500 jetons de sortie)

Nous pouvons observer dans les graphiques ci-dessus que Meilleur temps de réponse (pour 1 utilisateur) est 33 secondes. Nous pouvons augmenter le nombre d'utilisateurs pour générer plus de trafic vers le modèle. Nous pouvons voir le débit augmenter jusqu'à 0,8 RPS sans baisse significative de la latence. Au-delà 0,8 RPS, la latence augmente considérablement, ce qui signifie que les demandes sont mises en file d'attente.

J'espère que cela vous sera utile pour décider si LLama2-70b convient à votre cas d'utilisation et aux coûts que vous pouvez vous attendre à encourir pour héberger LLama2-70b.

Le moyen le plus rapide de créer, de gérer et de faire évoluer votre IA

INSCRIVEZ-VOUS
Table des matières

Gouvernez, déployez et suivez l'IA dans votre propre infrastructure

Réservez un séjour de 30 minutes avec notre Expert en IA

Réservez une démo

Le moyen le plus rapide de créer, de gérer et de faire évoluer votre IA

Démo du livre

Découvrez-en plus

July 20, 2023
|
5 min de lecture

LLMoPS CoE : la prochaine frontière dans le paysage MLOps

April 16, 2024
|
5 min de lecture

Cognita : Création d'applications RAG modulaires et open source pour la production

May 25, 2023
|
5 min de lecture

LLMs open source : Embrace or Perish

August 27, 2025
|
5 min de lecture

Cartographie du marché de l'IA sur site : des puces aux plans de contrôle

 Best AI Gateways in 2026
April 22, 2026
|
5 min de lecture

5 meilleures passerelles IA en 2026

comparaison
April 22, 2026
|
5 min de lecture

Intégration de Cline avec TrueFoundry AI Gateway

Outils LLM
Detailed Guide to What is an AI Gateway?
April 22, 2026
|
5 min de lecture

Qu'est-ce qu'AI Gateway ? Concepts de base et guide

Aucun article n'a été trouvé.
April 22, 2026
|
5 min de lecture

LLM Embeddings 101 : un guide complet 2024

Terminologie LLM
April 22, 2026
|
5 min de lecture

Comprendre les critères de référence du modèle LLAMA 2 pour l'évaluation des performances

LLM et GenAI
April 22, 2026
|
5 min de lecture

Analyse comparative Llama-2-13B

LLM et GenAI
April 22, 2026
|
5 min de lecture

Analyse comparative du Falcon-40B

LLM et GenAI
April 22, 2026
|
5 min de lecture

Analyse comparative de Mistral-7B

LLM et GenAI
April 22, 2026
|
5 min de lecture

Llama 2 LLM : déployez et optimisez sur votre cloud

Ingénierie et produits
LLM et GenAI

Blogs récents

Faites un rapide tour d'horizon des produits
Commencer la visite guidée du produit
Visite guidée du produit