Prochain webinaire : La sécurité d'entreprise pour Claude Code | 21 avril · 11 h PST. Inscrivez-vous ici →

Un modèle de machine learning percutant : à quel point cela peut-il être difficile ?

Par TrueFoundry

Mis à jour : August 2, 2022

Résumez avec

Créer un modèle pour résoudre un cas d'utilisation commercial semble être une excellente idée pour nous tous. Il semble évident que si nous pouvons augmenter l'engagement de 5 % grâce à la personnalisation d'un site Web en utilisant le machine learning, cela augmentera les revenus d'un certain pourcentage.

Cependant, ce qui est souvent négligé, ce sont deux facteurs qui peuvent mettre en péril ce projet :

  1. S'il y a suffisamment de données pour créer un modèle qui peut effectivement augmenter la personnalisation de 5 %
  2. Des investissements étaient nécessaires pour créer et déployer ce modèle qui produit cet impact sur une base continue.

Eh bien, ne devrait-il pas être simple de tester les 2 choses ? Voyons en détail ce qu'il faut faire pour passer de l'idée de créer un modèle à sa mise en production et à l'évaluation de son impact commercial. Prenons le cas où, dans une application de livraison de nourriture, vous souhaitez afficher l'heure de livraison prévue une fois qu'un client passe une commande sur l'application. Comme nous ne connaissons pas le délai de livraison à l'avance, nous devrons créer un modèle ML capable de faire des prévisions en fonction de certains facteurs tels que la ville, le restaurant, l'heure de la journée, la distance entre le client et le restaurant, etc.

Afficher le délai de livraison estimé à l'utilisateur pour une application de livraison de nourriture

Le flux de travail pour la sortie de ce modèle impliquera les équipes suivantes :

Idéation du projet

Le chef de produit proposera le projet pour estimer le délai de livraison. On s'attend à ce que si le délai de livraison est suffisamment précis, il offrira une meilleure expérience aux utilisateurs. Les clients poseront moins de questions concernant les délais de livraison et le score global de satisfaction des clients devrait augmenter. L'équipe commerciale demandera ensuite à l'équipe de science des données de proposer ce modèle.

Collecte de données

Les data scientists commencent à collecter les données historiques de toutes les commandes passées et de leurs délais de livraison.

  • Dans certains cas, les données précédentes peuvent ne pas être correctement enregistrées - enregistrez les données et collectez-les d'abord (équipe produit, équipe d'ingénierie des données).
  • Dans certains cas chanceux ces données peuvent être facilement disponibles
  • Dans de nombreux cas, cela nécessitera l'écriture de pipelines ETL pour obtenir les données dans le bon format. L'équipe d'ingénierie des données écrira les pipelines pour obtenir les données dans le format requis.

Analyse des données

Le data scientist va ensuite analyser les données pour voir si tout semble correct - pas de valeurs nulles ou fausses et si toutes les données requises sont présentes. La plupart du temps, le DS détectera quelques bogues dans l'ensemble de données, ou peut-être qu'il y a quelques jours de mauvaises données en raison de bogues transitoires. Nous devrons éliminer les fausses données, car nous sommes les seuls à pouvoir construire un bon modèle. Cela peut entraîner quelques itérations avec l'équipe d'ingénierie des produits et des données.

Ingénierie des fonctionnalités

Une fois que les données sont correctes, dans certains cas, les data scientists souhaiteront disposer d'un pipeline pour calculer les caractéristiques et les stocker afin qu'il n'y ait pas de biais au service de l'entraînement et qu'il soit plus facile d'obtenir les valeurs des caractéristiques lors de l'inférence.

Il s'agit toutefois d'une étape facultative qui est ignorée lorsque les données ou le nombre de modèles créés sur le même jeu de données sont faibles. Au cas où une équipe déciderait de faire de l'ingénierie des fonctionnalités, nous aurons besoin d'un système d'orchestration de pipeline comme Airflow, Prefect et d'une base de données/cache pour stocker les fonctionnalités à récupérer (par exemple, Feast). La construction d'un magasin spécialisé est en soi une entreprise de grande envergure qui nécessite des efforts importants.

Formation sur les modèles

Une fois les données prêtes, le data scientist va maintenant expérimenter différents algorithmes, fonctionnalités et modèles pour déterminer lequel fonctionne le mieux. Ils voudraient enregistrer toutes les métriques, paramètres et modèles afin de pouvoir s'y référer ultérieurement ou les partager avec d'autres membres de l'équipe. C'est là qu'un suivi des expériences et un magasin de métadonnées de modèles entrent en jeu..

Enregistrez les métriques, les paramètres et les modèles pendant la formation et partagez-les avec l'équipe

Modèle au service

Une fois le modèle créé, il doit être hébergé en tant que microservice ou en tant que tâche d'inférence par lots. Dans notre cas de prévision des délais de livraison, il doit s'agir d'un service en ligne en temps réel. Il est donc probablement judicieux de le déployer en tant que service de dimensionnement automatique. Dans ce cas, un ingénieur ML intervient pour déterminer qui prend le modèle, l'enveloppe dans un service Flask ou FastAPI et crée l'image Docker. Ensuite, l'ingénieur ML, avec l'aide de l'équipe Devops, le déploiera en tant que microservice sur l'infrastructure.

Intégration de produits

Une fois l'API du modèle hébergée, l'équipe chargée du produit ou du backend devra appeler l'API dans son code pour utiliser le délai de livraison prévu et l'afficher sur l'application. Cela nécessitera une collaboration entre les équipes de data scientist, d'ingénierie des produits et de ML Engineering. Pendant ce temps, le chef de produit voudra peut-être tester les prévisions et ce serait formidable s'il pouvait tester rapidement le modèle sur certains échantillons d'entrées. Cela peut nécessiter une démonstration rapide du modèle pour être construit.

Surveillance des modèles

Une fois le modèle déployé et utilisé dans le produit, nous aurons besoin de métriques sur le modèle déployé.

  1. Surveillance du système : Cela inclut des mesures telles que le processeur, la mémoire, la latence des API, les erreurs, les pannes du modèle et généralement effectuées à l'aide de Prometheus/Grafana ou de solutions payantes comme Datadog/New Relic. Cela sera utilisé par l'équipe d'ingénierie, de produit et de Datascience.
Métriques des systèmes sur Grafana

2. Surveillance du modèle : Cela inclut les métriques liées à la prédiction du modèle sur les données de production entrantes. Il s'agit de données qui intéresseront principalement le data scientist et qui incluent des paramètres tels que la précision du modèle, la dérive des caractéristiques, la dérive des prévisions, etc. Cela permet au data scientist de décider si le modèle se comporte de la même manière que lors de la formation, si les distributions des données d'entrée externes n'ont pas changé et s'il n'y a aucun bogue ailleurs dans le système.

Pour assurer une surveillance complète du modèle, des efforts importants seront nécessaires de la part des équipes Datascience, Engineering et Devops.

Automatisation complète

Une fois que toute la surveillance aura été triée, le data cientist souhaitera idéalement automatiser l'ensemble de la boucle de reconversion. Cela nécessitera un framework d'orchestration des pipelines tel que Kubeflow ou Airflow.

Pipeline d'automatisation de la reconversion

Évaluation de l'impact commercial :

Nous devons ensuite également estimer l'impact de ce modèle sur les indicateurs de satisfaction réels des utilisateurs. Dans ce cas, quelques indicateurs indirects seront le nombre de requêtes des clients liées aux délais de livraison, le score de satisfaction global des clients pour une commande. Les mesures commerciales devront être associées aux mesures du modèle et l'équipe d'ingénierie des données écrira probablement un pipeline ETL pour obtenir ces données et les tracer sur un outil de tableau de bord interne que les chefs d'entreprise pourront observer.

En résumé, cela implique 5 parties prenantes :

  1. Chef de produit/équipe commerciale
  2. Équipe d'ingénierie des données
  3. Équipe de science des données
  4. Équipe d'ingénierie ML
  5. Équipe d'ingénierie du backend
  6. L'équipe DevOps
Pipeline global avec différentes parties prenantes

L'ensemble du processus prend facilement plus de 2 à 3 mois dans n'importe quelle entreprise et peut parfois aller jusqu'à 6 mois pour les premiers modèles. C'est en raison des multiples parties prenantes impliquées et des multiples compétences impliquées que rendre le ML efficace demande beaucoup de temps et un investissement initial initial.

Nous n'avons pas encore parlé de certains aspects liés à l'évolutivité et à la fiabilité du processus. Nous espérons aborder certains des aspects ci-dessous dans un prochain article.

  1. Fourniture de l'infrastructure
  2. Procédé CI/CD
  3. Expérimentation de modèles, y compris les tests A/B.
  4. Évolutivité de l'infrastructure.
  5. Choix de la méthodologie de déploiement.

La solution consiste ici à automatiser les parties qui peuvent être automatisées et à donner l'autonomie au data scientist/ingénieur ML pour effectuer la plupart des étapes sans avoir à apprendre tous les outils nécessaires. Beaucoup de travail est en cours dans ce domaine et j'espère que dans quelques années, créer un modèle de machine learning percutant deviendra aussi simple que la création d'une page de destination aujourd'hui !

Le moyen le plus rapide de créer, de gérer et de faire évoluer votre IA

INSCRIVEZ-VOUS
Table des matières

Gouvernez, déployez et suivez l'IA dans votre propre infrastructure

Réservez un séjour de 30 minutes avec notre Expert en IA

Réservez une démo

Le moyen le plus rapide de créer, de gérer et de faire évoluer votre IA

Démo du livre

Découvrez-en plus

October 5, 2023
|
5 min de lecture

<Webinar>Vitrine GenAI pour les entreprises

Best Fine Tuning Tools for Model Training
May 3, 2024
|
5 min de lecture

Les 6 meilleurs outils de réglage pour la formation des modèles en 2026

May 25, 2023
|
5 min de lecture

LLMs open source : Embrace or Perish

August 27, 2025
|
5 min de lecture

Cartographie du marché de l'IA sur site : des puces aux plans de contrôle

 Best AI Gateways in 2026
April 22, 2026
|
5 min de lecture

5 meilleures passerelles IA en 2026

comparaison
April 22, 2026
|
5 min de lecture

Intégration de Cline avec TrueFoundry AI Gateway

Outils LLM
Detailed Guide to What is an AI Gateway?
April 22, 2026
|
5 min de lecture

Qu'est-ce qu'AI Gateway ? Concepts de base et guide

Aucun article n'a été trouvé.
April 22, 2026
|
5 min de lecture

LLM Embeddings 101 : un guide complet 2024

Terminologie LLM
Aucun article n'a été trouvé.

Blogs récents

Faites un rapide tour d'horizon des produits
Commencer la visite guidée du produit
Visite guidée du produit