Prochain webinaire : La sécurité d'entreprise pour Claude Code | 21 avril · 11 h PST. Inscrivez-vous ici →

TrueML Talks #27 - GenAI et LLMops au service de la réussite des clients @ Level AI

Par TrueFoundry

Mis à jour : January 18, 2024

Résumez avec

Nous sommes de retour avec un autre épisode de True ML Talks. Dans ce cadre, nous approfondissons la stratégie de GenAI et LLMOP dans Level AI alors que nous discutons avec Abhimanyu Talwar

Abhimanyu est ingénieur de recherche en IA chez Level AI. Niveau AI une société d'intelligence conversationnelle. Ils utilisent l'apprentissage automatique pour obtenir des informations à partir des données conversationnelles.

📌

Nos conversations avec Abhimanyu porteront sur les aspects suivants :
- Tirer parti des conversations passées pour l'IA du service client
- Relever les défis cachés de l'IA générative
- Open Source ou réglage fin
- Comprendre les agents
- Démystifier l'assurance qualité des centres d'appels grâce à l'IA
- Service client AI avec GPT-4
- Les MLOps révolutionnent la réussite des clients

Regardez l'épisode complet ci-dessous :

Tirer parti des conversations passées pour l'IA du service client

L'IA du service client fait fureur, mais s'appuyer uniquement sur des bases de connaissances statiques a ses limites. Assistante aux agents et Agent GPT, deux outils innovants de Level AI, qui exploitent la puissance des conversations passées pour améliorer l'efficacité des agents et la satisfaction des clients.

  • Assistant d'agent : Analyse les demandes des clients et suggère des ressources pertinentes à partir de la base de connaissances existante, permettant ainsi aux agents de répondre efficacement.
  • Agent GPT : Ça va encore plus loin. Il analyse les conversations passées, extrait et indexe automatiquement les informations précieuses qui ne figurent pas dans la base de connaissances. Cela crée un corpus dynamique et sans cesse croissant de solutions aux demandes nuancées des clients.

Recherche : analyse des conversations passées pour trouver des réponses

Oubliez la correspondance de mots clés ! Level utilise un puissant pipeline de récupération :

  • Prétraitement : Les conversations passées sont transformées dans un format facilement consultable.
  • Indexation personnalisée : Les clés uniques sont conçues pour faire correspondre les requêtes en cours aux interactions passées pertinentes.
  • Incartations : Les modèles d'intégration avancés (pensez aux pipelines RAG) capturent le sens sémantique des conversations, ce qui permet une extraction précise.

Pour obtenir de meilleurs résultats, ils procèdent en outre comme suit :

  • Recalculement : Priorisez les résultats les plus pertinents en fonction du contexte et de facteurs supplémentaires.
  • Filtres de mots clés : Éliminez les interactions passées non pertinentes ou inutiles de la recherche.

En exploitant à la fois la puissance des bases de connaissances statiques et les informations dynamiques cachées dans les conversations passées, Agent Assist et AgentGPT offrent un aperçu de l'avenir de l'IA du service client. Dans ce futur, les agents disposeront des bonnes informations, ce qui permettra d'accélérer les résolutions, de satisfaire les clients et de rendre le centre d'appels plus efficace.

Relever les défis cachés de l'IA générative

L'IA de génération est un outil puissant, mais son succès repose sur une curation minutieuse des données, des méthodes d'évaluation robustes et une approche axée sur les données

Choisir les bonnes données à partir de votre vaste corpus, c'est comme trouver les ingrédients parfaits pour un plat délicieux. Une mauvaise sélection de données conduit à un modèle qui n'est, eh bien, pas comestible.

Tout d'abord, concentrez-vous sur vos données. En gros, ayez une très bonne idée de ce à quoi ressemble votre mix de données. Quelle est la qualité de vos annotations ? Tout cela est vraiment très important. Sinon, ce seront des déchets à l'intérieur, des déchets à l'extérieur
— Abhimanyu

Après avoir sélectionné les bonnes données, vous devrez évaluer vos modèles Gen AI. Ce n'est pas aussi simple que les tâches d'IA traditionnelles. Oubliez les mesures simples comme le chevauchement de N grammes : elles ne tiennent pas compte des nuances de l'exactitude. Un seul mot échangé (« oui » à « non ») peut faire toute la différence.

Pour cela, vous pouvez utiliser :

  • Métriques programmatiques : Utilisez des outils tels que les scores ROUGE et BERT pour évaluer la similitude sémantique.
  • Annotations humaines : Employez de vrais humains pour évaluer des aspects qualitatifs tels que la cohérence et l'exhaustivité.

Ne vous précipitez pas dans les grands modèles. Menez des expériences avec des points de contrôle plus petits pour déterminer la combinaison de données et la pondération des tâches optimales.

Open Source ou réglage fin

Il est tentant de s'en tenir à la polyvalence apparente de ChatGPT. Alors que GPT-4 brille dans des scénarios sans contraintes, les entreprises fonctionnent avec des limites du monde réel. Un volume de trafic élevé exige des solutions efficaces et rentables sans sacrifier les performances ou la réactivité.

C'est là que le réglage de vos propres modèles peut être avantageux :

  • Hyper-focalisation : Au lieu d'essayer d'être bon dans tous les domaines, adaptez votre modèle pour qu'il excelle dans des tâches spécifiques et critiques pour l'entreprise. Imaginez un modèle doué pour les interactions avec les centres d'appels au lieu de rédiger des dissertations pour les études supérieures !
  • Rentabilité : Les modèles plus petits et ciblés nécessitent moins de puissance de calcul, ce qui se traduit par une baisse des coûts opérationnels.
  • Contrôle et explicabilité : Le réglage précis vous permet de mieux comprendre et de contrôler le comportement de votre modèle, ce qui favorise la confiance et la transparence.

ChatGPT comme tremplin

N'annulez pas complètement des options telles que ChatGPT. Ils peuvent être de précieux alliés ! Envisagez de les utiliser comme point de départ pour :

  • Validez votre idée : Testez le terrain avec des modèles open source avant d'investir dans le développement personnalisé.
  • Générez de l'intérêt commercial : Utilisez des outils facilement disponibles pour obtenir des commentaires concrets et démontrer la viabilité avant de vous lancer dans les réglages.

Comprendre les agents

Que sont les agents ?

Considérez-les comme des équipes spécialisées de LLM, chacune jouant un rôle spécifique dans un flux de travail plus vaste. Au lieu d'appels d'API uniques, les tâches impliquent la collaboration de plusieurs « agents » via des appels d'API séquentiels.

Pourquoi utiliser des agents ?

Imaginez écrire un poème : vous avez besoin de créativité, d'analyse des rimes et même de vérification grammaticale. Un LLM peut exceller à générer des versets initiaux, un autre à garantir des schémas de rimes et un troisième à peaufiner le brouillon final. Les agents vous permettent de tirer parti des atouts uniques de différents modèles pour obtenir des résultats supérieurs.

Quand les agents sont-ils le bon choix ?

  • Tâches complexes : Lorsqu'un seul LLM a du mal à atteindre l'ensemble de votre objectif, les agents peuvent le décomposer en étapes gérables.
  • Précision et contrôle : Le séquençage des différents appels « agents » vous permet de mieux contrôler le processus, ce qui vous permet d'adapter les étapes pour obtenir des résultats spécifiques.
  • Combiner des compétences diverses : Tirez parti des atouts uniques des différents LLM pour créer des résultats véritablement innovants.

Démystifier l'assurance qualité des centres d'appels grâce à l'IA

L'une des offres de Level AI est Assistante aux agents, un puissant outil d'IA basé sur la technologie GPT. Il permet d'automatiser l'assurance qualité en analysant les conversations et en fournissant des informations sur les performances des agents.

Voici comment cela fonctionne :

  1. Rubrique QA : Les centres d'appels ont des critères spécifiques pour les bons appels, tels que la résolution proactive des problèmes et leur résolution réussie. Agent Assist apprend ces critères à partir de conversations passées.
  2. Analyse de l'IA : Chaque appel est analysé et Agent Assist fournit un score et une explication en fonction de la rubrique QA.
  3. Explicabilité à l'aide de preuves : Bien plus qu'une simple boîte noire, Agent Assist met en évidence des parties spécifiques de la conversation qui étayent son score, fournissant ainsi aux agents de précieux commentaires.
  4. L'humain au courant : Les responsables de l'assurance qualité peuvent examiner les résultats d'Agent Assist et ajuster les scores si nécessaire, afin de garantir l'exactitude et l'équité.

Avantages d'Agent Assist :

  • Un contrôle qualité plus rapide : Permet d'économiser du temps et des ressources par rapport aux révisions manuelles.
  • Performances des agents améliorées : Fournit des commentaires ciblés pour aider les agents à exceller.
  • Informations basées sur les données : Révèle les tendances et les domaines à améliorer en matière de service client.
  • Efficacité accrue : Libère les responsables de l'assurance qualité pour des tâches plus stratégiques.

Service client AI avec GPT-4

L'arrivée du GPT-4 a suscité de l'enthousiasme dans le monde de l'IA, mais s'agit-il d'un guichet unique pour des expériences de service client exceptionnelles ? Pas tout à fait. Bien que sa puissance soit indéniable, de nombreuses couches cachées se cachent derrière des solutions d'IA véritablement efficaces.

Le pouvoir et les pièges des grands modèles :

Le potentiel brut de GPT-4 est remarquable, surpassant les modèles open source et les API en termes de génération de réponses. Cependant, le fait de se fier uniquement à ses résultats néglige les éléments cruciaux du pipeline de l'IA : la sélection des données, l'extraction des caractéristiques, l'agrégation et les connaissances commerciales.

Bâtir une équipe gagnante :

  • Sélection des données : Il est essentiel de trouver les bonnes données d'entraînement. L'annotation des conversations passées spécifiques à votre secteur d'activité permet à l'IA de comprendre à quoi ressemblent les « bons » et les « mauvais » services.
  • Extraction des fonctionnalités : Les données brutes doivent être distillées. L'extraction des attributs clés de chaque conversation permet d'effectuer des analyses et des comparaisons.
  • Agrégation et clustering : Des millions de conversations aux innombrables attributs sont bouleversantes. Les schémas de clustering intelligents présentent les données d'une manière que les humains peuvent comprendre et utiliser.
  • Connaissances commerciales : Comprendre ce qui compte vraiment pour vos clients ne se limite pas aux indicateurs. L'expérience du secteur permet de hiérarchiser les bons KPI et d'orienter le développement de l'IA.

Pour en savoir plus sur la manière dont les entreprises tirent parti de l'expertise humaine et de l'IA pour le service client, consultez le blog ci-dessous.

Les MLOps révolutionnent la réussite des clients

Le paysage de la réussite des clients est en train d'être redessiné par les MLOps, la formule magique qui sous-tend les déploiements efficaces de l'IA. Voici un aperçu de son impact sur 5 ans :

  • Améliorez l'efficacité : Dites adieu aux requêtes lentes et aux clients frustrés. Les chatbots alimentés par l'IA, alimentés par des MLOps, répondront instantanément aux questions, libérant ainsi les agents pour des interactions significatives.
  • Harmonie homme-IA : L'avenir, ce ne sont pas des robots qui remplaceront les humains, mais une question de collaboration. MLOps fournit aux agents des informations basées sur les données pour des arguments de vente plus intelligents, une résolution proactive des problèmes et des expériences personnalisées.
  • Décisions fondées sur les données : MLOps exploite toute la puissance des données clients. Les modèles d'IA prédiront les besoins, personnaliseront les recommandations et renforceront la confiance grâce à des actions éclairées.
  • Hyper-personnalisation : MLOps adapte tout, des offres au soutien, en cultivant des relations durables et en fidélisant.
  • Apprivoiser la bête hallucinatoire : MLOps corrige les inexactitudes grâce à une formation ciblée et à une vérification fondée sur des preuves, garantissant ainsi des interactions fiables avec les clients.

Le MLOps est la clé pour créer un avenir centré sur le client, mais une utilisation responsable et éthique est cruciale. En exploitant son potentiel tout en relevant les défis, nous pouvons créer des réussites qui méritent d'être saluées.

Pour en savoir plus sur la façon dont l'IA générative façonnera l'avenir de l'expérience client, consultez le blog ci-dessous.

Lisez nos précédents articles de la série True ML Talks :

Continuez à regarder le TrueML série youtube et en lisant le TrueML série de blogs.

True Foundry est un PaaS de déploiement de machine learning sur Kubernetes destiné à accélérer les flux de travail des développeurs tout en leur offrant une flexibilité totale dans les tests et le déploiement de modèles, tout en garantissant une sécurité et un contrôle complets à l'équipe Infra. Grâce à notre plateforme, nous permettons aux équipes de machine learning de déployer et surveiller des modèles en 15 minutes avec une fiabilité à 100 %, une évolutivité et la possibilité de revenir en arrière en quelques secondes, ce qui leur permet de réduire les coûts et de mettre les modèles en production plus rapidement, ce qui permet de réaliser une véritable valeur commerciale.

Le moyen le plus rapide de créer, de gérer et de faire évoluer votre IA

INSCRIVEZ-VOUS
Table des matières

Gouvernez, déployez et suivez l'IA dans votre propre infrastructure

Réservez un séjour de 30 minutes avec notre Expert en IA

Réservez une démo

Le moyen le plus rapide de créer, de gérer et de faire évoluer votre IA

Démo du livre

Découvrez-en plus

October 26, 2023
|
5 min de lecture

True ML Talks #23 - Applications MLOps et LLMS @ GitLab

May 21, 2024
|
5 min de lecture

Que sont les intégrations dans l'apprentissage automatique ?

 Best AI Gateways in 2026
April 22, 2026
|
5 min de lecture

5 meilleures passerelles IA en 2026

comparaison
April 22, 2026
|
5 min de lecture

Intégration de Cline avec TrueFoundry AI Gateway

Outils LLM
Detailed Guide to What is an AI Gateway?
April 22, 2026
|
5 min de lecture

Qu'est-ce qu'AI Gateway ? Concepts de base et guide

Aucun article n'a été trouvé.
April 22, 2026
|
5 min de lecture

LLM Embeddings 101 : un guide complet 2024

Terminologie LLM
Aucun article n'a été trouvé.

Blogs récents

Faites un rapide tour d'horizon des produits
Commencer la visite guidée du produit
Visite guidée du produit