Prochain webinaire : La sécurité d'entreprise pour Claude Code | 21 avril · 11 h PST. Inscrivez-vous ici →
Questions fréquemment posées
Il nous faut beaucoup de temps pour mettre nos modèles en production et en tirer un impact. Existe-t-il un moyen de donner aux data scientists les moyens de prendre en charge ce processus ?
Les ingénieurs ML s'appuient fortement sur les équipes DevOps et Platform pour les besoins d'infrastructure liés à la formation ou au déploiement de modèles
Nous souhaitons utiliser notre infrastructure Kubernetes standard pour la formation et les déploiements de machine learning
Les data scientists ne veulent pas s'occuper de l'infra ou du YAML
Nous voulons que nos données restent dans notre propre cloud ou sur site
Les modèles sont déployés avec la mise à l'échelle automatique configurée à l'aide de HPA, mais la mise à l'échelle automatique est très lente en raison du temps de téléchargement des modèles.
Nous voulons héberger des blocs-notes Jupyter et les rendre en libre-service en toute flexibilité pour approvisionner les ressources, tout en imposant des contraintes de coûts et de sécurité.
Comment suivre tous les modèles de l'entreprise en un seul endroit, déterminer lesquels sont déployés dans quel environnement ?
Comment puis-je dupliquer ou diviser le trafic vers ma nouvelle version du modèle afin que nous puissions le tester sur le trafic en ligne avant de le déployer complètement ?
Nous voulons utiliser le matériel et le calcul dans les clouds (AWS, GCP, Azure) et sur site. Comment les connecter pour que les développeurs n'aient pas à se soucier du calcul sous-jacent et à déplacer facilement les charges de travail d'un environnement à un autre ?
Nous voulons utiliser la puissance des LLM pour notre activité, mais nous ne pouvons pas laisser les données sortir de notre environnement. Est-il possible d'utiliser la puissance des LLM sans envoyer mes données à OpenAI ?
Comment permettre à tous mes développeurs d'essayer rapidement différents LLM et de voir quels résultats ils peuvent en tirer ?
Notre infrastructure de ML entraîne des coûts élevés et il devient difficile de la suivre et de la réduire.