Comprendre les critères de référence du modèle LLAMA 2 pour l'évaluation des performances

Conçu pour la vitesse : latence d'environ 10 ms, même en cas de charge
Une méthode incroyablement rapide pour créer, suivre et déployer vos modèles !
- Gère plus de 350 RPS sur un seul processeur virtuel, aucun réglage n'est nécessaire
- Prêt pour la production avec un support complet pour les entreprises
Dans cet article, nous comparons les performances de LLama2-7b du point de vue de la latence, du coût et des demandes par seconde. Cela nous aidera à évaluer s'il peut s'agir d'un bon choix en fonction des besoins de l'entreprise. Veuillez noter que nous n'abordons pas les performances qualitatives dans cet article. Il existe différentes méthodes pour comparer les LLM, que vous pouvez trouver ici.
Modèle : Llama2-7B
Dans ce blog, nous avons comparé Lama-2-7B modèle de Aucune recherche. Il s'agit d'une version pré-entraînée de Llama-2 avec 7 milliards de paramètres.
Meta a développé et publié la famille de grands modèles linguistiques (LLM) Llama 2, une collection de modèles de texte génératifs pré-entraînés et affinés dont l'échelle varie de 7 milliards à 70 milliards de paramètres.
Métriques comparées avec le modèle LLAMA 2 : évaluation des indicateurs de performance clés
- Demandes par seconde. (3 HEURES PAR SECONDE) : Demandes par seconde traitées par le modèle. Avec un RPS plus élevé, la latence augmente généralement.
- Latence : Combien de temps faut-il pour traiter une demande d'inférence ?
- Économie : Quels sont les coûts associés au déploiement d'un LLM ?
Cas d'utilisation et modes de déploiement avec LLAMA 2 : évaluation de scénarios
Les principaux facteurs sur lesquels nous avons effectué des analyses comparatives sont les suivants :
Type de processeur graphique :
- A100 40 GO GPU
- A10 24 GO GPU
Longueur du message :
- 1500 jetons d'entrée, 100 jetons de sortie (Similaire aux cas d'utilisation de Retrieval Augmented Generation)
- 50 jetons d'entrée, 500 jetons de sortie (Cas d'utilisation de Generation Heavy)
Configuration de l'analyse comparative avec LLAMA 2 : Configuration des environnements de test
Pour l'analyse comparative, nous avons utilisé Locust, un outil de test de charge open source. Locust fonctionne en créant des utilisateurs/travailleurs pour envoyer des demandes en parallèle. Au début de chaque test, nous pouvons définir Nombre d'utilisateurs et Taux d'apparition. Voici le Nombre d'utilisateurs signifie le nombre maximum d'utilisateurs pouvant être généré/exécuter simultanément, alors que Taux d'apparition indique le nombre d'utilisateurs qui seront générés par seconde.
Lors de chaque test d'analyse comparative d'une configuration de déploiement, nous sommes partis de 1 utilisateur et a continué à augmenter le Nombre d'utilisateurs progressivement jusqu'à ce que nous constations une augmentation constante du RPS. Au cours du test, nous avons également tracé temps de réponse (en ms) et nombre total de demandes par seconde.
Dans chacune des 2 configurations de déploiement, nous avons utilisé le huggingface inférence par génération de texte serveur modèle ayant version = 0.9.4. Voici les paramètres transmis au inférence par génération de texte image pour différentes configurations de modèles :
Résumé des résultats de l'analyse comparative : résumé des résultats de LLAMA 2
Latence, RPS et coût
Nous calculons la meilleure latence sur la base de l'envoi d'une seule demande à la fois. Pour augmenter le débit, nous envoyons les demandes en parallèle au LLM. Le débit maximal est le cas lorsque le modèle est capable de traiter les demandes d'entrée sans détérioration significative de la latence.

Jetons par seconde
Les LLM traitent les jetons d'entrée et les génèrent différemment. C'est pourquoi nous avons calculé différemment le taux de traitement des jetons d'entrée et des jetons de sortie.

Résultats détaillés : analyse approfondie de LLAMA 2
GPU A10 24 Go (1500 jetons d'entrée + 100 jetons de sortie)


Nous pouvons observer dans les graphiques ci-dessus que Meilleur temps de réponse (pour 1 utilisateur) est 4,1 secondes. Nous pouvons augmenter le nombre d'utilisateurs pour générer plus de trafic vers le modèle. Nous pouvons voir le débit augmenter jusqu'à 0,9 RPS sans baisse significative de la latence. Au-delà 0,9 RPS, la latence augmente considérablement, ce qui signifie que les demandes sont mises en file d'attente.
GPU A10 24 Go (50 jetons d'entrée + 500 jetons de sortie)


Nous pouvons observer dans les graphiques ci-dessus que Meilleur temps de réponse (pour 1 utilisateur) est 15 secondes. Nous pouvons augmenter le nombre d'utilisateurs pour générer plus de trafic vers le modèle. Nous pouvons voir le débit augmenter jusqu'à 0,9 RPS sans baisse significative de la latence. Au-delà 0,9 RPS, la latence augmente considérablement, ce qui signifie que les demandes sont mises en file d'attente.
GPU A100 de 40 Go (1500 jetons d'entrée + 100 jetons de sortie)


Nous pouvons observer dans les graphiques ci-dessus que Meilleur temps de réponse (pour 1 utilisateur) est 2 secondes. Nous pouvons augmenter le nombre d'utilisateurs pour générer plus de trafic vers le modèle. Nous pouvons voir le débit augmenter jusqu'à 3.6 RPS sans baisse significative de la latence. Au-delà 3.6 RPS, la latence augmente considérablement, ce qui signifie que les demandes sont mises en file d'attente.
GPU A100 de 40 Go (50 jetons d'entrée + 500 jetons de sortie)


Nous pouvons observer dans les graphiques ci-dessus que Meilleur temps de réponse (pour 1 utilisateur) est 8,5 secondes. Nous pouvons augmenter le nombre d'utilisateurs pour générer plus de trafic vers le modèle. Nous pouvons voir le débit augmenter jusqu'à 3,5 RPS sans baisse significative de la latence. Au-delà 3,5 RPS, la latence augmente considérablement, ce qui signifie que les demandes sont mises en file d'attente.
J'espère que cela vous sera utile pour décider si Llama7B convient à votre cas d'utilisation et aux coûts que vous pouvez vous attendre à encourir pour héberger Llama7B.
TrueFoundry AI Gateway offre une latence d'environ 3 à 4 ms, gère plus de 350 RPS sur 1 processeur virtuel, évolue horizontalement facilement et est prête pour la production, tandis que LiteLM souffre d'une latence élevée, peine à dépasser un RPS modéré, ne dispose pas d'une mise à l'échelle intégrée et convient parfaitement aux charges de travail légères ou aux prototypes.
Le moyen le plus rapide de créer, de gérer et de faire évoluer votre IA















.webp)



.png)


.webp)




.webp)







