Prochain webinaire : La sécurité d'entreprise pour Claude Code | 21 avril · 11 h PST. Inscrivez-vous ici →

TrueML Talks #29 - GenAI et LLMs pour la géolocalisation @ Beans.AI

Par TrueFoundry

Mis à jour : February 15, 2024

Résumez avec

Nous sommes de retour avec un autre épisode de True ML Talks. Dans ce cadre, nous approfondissons à nouveau les pipelines MLOps et les applications LLM dans les entreprises alors que nous discutons avec Sandeep Singh

Sandeep est responsable de l'IA appliquée à l'apprentissage automatique au sein de la société Beans AI.

📌

Nos conversations avec Sandeep porteront sur les aspects suivants :
- Révolutionner la géolocalisation grâce à l'IA
- Le moteur d'apprentissage automatique à l'origine de Beans.AI
- Au-delà du cloud : un flux de travail hybride d'apprentissage automatique
- Une plongée en profondeur dans le zoo de modèles
- Gestion de grands modèles de langage
- Expérimentation et coût de l'hébergement de modèles

Regardez l'épisode complet ci-dessous :

Révolutionner la géolocalisation grâce à l'IA

Beans.AI propose une suite de solutions logicielles en tant que service (SaaS) qui utilisent l'IA pour comprendre et naviguer dans les espaces physiques. Leurs solutions vont au-delà de la cartographie traditionnelle et offrent :

  • Navigation intérieure : Beans.AI peut localiser votre position exacte dans de grands bâtiments, vous guidant ainsi facilement vers votre destination. Imaginez que vous naviguez en toute confiance dans un vaste complexe hospitalier ou dans un stade gigantesque, sachant exactement où vous êtes et où vous devez vous rendre.
  • Optimisation de la livraison : Les entreprises de livraison comme FedEx s'appuient sur la technologie de Beans.AI pour optimiser les itinéraires et garantir des livraisons dans les délais. La plateforme identifie avec précision même les adresses secondaires complexes, telles que des appartements spécifiques dans de grands bâtiments, éliminant ainsi les retards de livraison et les frustrations.
  • Informations sur les données en temps réel : Beans.AI fournit des informations précieuses pour divers secteurs, notamment l'assurance, la vente au détail et la sécurité publique. Leurs méthodes de regroupement intelligentes aident à identifier les bâtiments, les entrées et les passerelles connexes, ce qui permet de prendre des décisions plus intelligentes.

Beans.AI utilise une combinaison de sources de données, notamment :

  • Imagerie satellite : Les images satellites à haute résolution fournissent une couche de base pour comprendre l'environnement physique.
  • Données publiques et exclusives : Beans.AI exploite divers ensembles de données publics et acquis par des partenaires, notamment des données de localisation, des données textuelles, des données d'image, etc.
  • Approche axée sur l'humain : La plateforme associe l'IA à l'expertise humaine, garantissant précision et adaptabilité. Les utilisateurs peuvent consulter et affiner les points de données, améliorant ainsi l'efficacité de la plateforme.

Le moteur d'apprentissage automatique à l'origine de Beans.AI

Des bases des SIG aux technologies de pointe :

Il est très important de comprendre les systèmes d'information géographique (SIG) avant de se lancer dans l'IA. Cette base, combinée à l'expertise d'Esri, un leader des solutions cartographiques, constitue le fondement de leur approche.

Beans.AI ne repose pas sur une seule configuration. Ils s'appuient sur une combinaison flexible d'outils et de plateformes :

  • Esri : Pour les fonctionnalités SIG de base et les solutions de vision par ordinateur.
  • Torche PyTorch : Un framework d'apprentissage profond populaire pour le développement de modèles.
  • Code VS : Un éditeur de code polyvalent pour les développeurs.
  • Plateforme Google Cloud (GCP) : Leur plateforme principale pour la formation et le déploiement de modèles.
  • Vertex AI : La plateforme d'apprentissage automatique gérée de Google pour la gestion des versions et la diffusion de modèles.
  • Labelbox, V7 Labs, Landing.AI : Plateformes diversifiées pour l'étiquetage et l'annotation des données, répondant à des besoins spécifiques.

Beans.AI donne la priorité à la rapidité et à l'adaptabilité. Ils expérimentent différents outils et restent agiles, tout en gardant un œil sur l'évolution des technologies. Leur approche ne repose pas sur des processus rigides, mais sur le choix du bon outil pour leur permettre d'agir rapidement et d'innover.

La création de ces modèles nécessite une étroite collaboration. Leur directeur des SIG fait le lien entre l'expertise géographique et le développement de l'IA, facilitant ainsi une communication fluide et un partage des connaissances.

Alors que l'IA joue un rôle crucial, Beans.AI reconnaît la valeur de l'expertise humaine. Leurs connaissances en matière de SIG et leur compréhension de cas d'utilisation spécifiques guident le processus de développement, garantissant ainsi que les modèles sont bien adaptés aux besoins du monde réel.

Au-delà du cloud : un flux de travail hybride d'apprentissage automatique

Lorsque les expériences deviennent des modèles prêts pour la production, Beans.AI se tourne vers GCP. De la formation d'algorithmes complexes à la diffusion de prévisions à grande échelle, GCP fournit une infrastructure robuste et évolutive. Ils tirent parti des clusters Kubernetes pour une mise à l'échelle horizontale fluide, garantissant ainsi une réactivité pendant les saisons de pointe lorsque les livraisons de colis augmentent en flèche.

Beans.AI reconnaît qu'une seule plateforme ne peut pas tout résoudre. Ils expérimentent activement d'autres solutions telles que Vertex AI pour des tâches spécifiques. Ils préconisent toutefois la flexibilité et la propriété des données. Des solutions telles que Landing.AI, qui permettent la portabilité des modèles au-delà de leur plate-forme, s'inscrivent dans leur philosophie de facilité opérationnelle et d'optimisation des coûts.

Beans.AI navigue de manière responsable dans le paysage en constante évolution de l'IA. Ils explorent activement de nouvelles solutions telles que les API Palm et Falçon d'OpenAI, en donnant la priorité à la qualité et à l'agilité. Équilibrant les coûts et les fonctionnalités, ils préconisent l'accès aux modèles ouverts après la formation, afin de permettre un déploiement et un impact plus étendus.

Une plongée dans le zoo des modèles : de la vision par ordinateur au traitement de texte

L'approche de Beans.AI est tout sauf monolithique. Ils explorent et expérimentent constamment différents modèles open source, en les adaptant à des besoins spécifiques :

  • Vision par ordinateur : Pour des tâches telles que la segmentation des bâtiments et des parkings, ils sont passés des modèles basés sur Resnet aux derniers transformateurs visuels, en recherchant toujours la meilleure solution.
  • Traitement de texte : Qu'il s'agisse de chatbots répondant aux questions des utilisateurs ou d'analyse des e-mails pour la création automatique de commandes, ils utilisent des modèles tels que Falcon40B et exploitent LLM Studio de H2O.AI pour accélérer les expériences.

Beans.AI défend les modèles open source, permettant l'apprentissage par transfert et la personnalisation :

  • Modèles sous licence Apache : Permettre une utilisation commerciale et des ajustements pour des tâches spécifiques.
  • Plateformes d'expérimentation : LLM Studio de H2O.AI rationalise les tests de différents modèles et les techniques de réglage.

Ils soulignent l'importance de tester les modèles sur vos propres données et tâches, car les benchmarks ne se traduisent pas toujours par des performances réelles.

Beans.AI explore de passionnantes applications de conversion de texte en image :

  • Génération de variantes des photos de colis téléchargées : Utilisation de solutions similaires à NERF pour améliorer l'expérience utilisateur en affichant plusieurs vues.
  • Création de descriptions à partir de photos : Décrire automatiquement l'emplacement ou les dommages du colis pour améliorer les analyses.

Ils explorent Stable Diffusion pour créer de multiples variantes de photos de colis, ajoutant ainsi une touche de surprise et de plaisir à l'expérience utilisateur.

Gestion de grands modèles de langage

Il existe une distinction claire entre le besoin de formation et l'inférence en ce qui concerne les LLM :

  • Entraînement : Nécessite une immense puissance de calcul, impliquant souvent 5 fois plus de GPU par tâche. Beans.AI s'appuie sur diverses plateformes telles que RunPod.io, Paper Space et Nvidia NGC pour plus de flexibilité et d'optimisation des coûts.
  • Inférence : Un « animal » plus petit à manipuler, souvent déployé sur les machines virtuelles de Google. Cela leur permet de contrôler totalement l'évolutivité et les performances, ce qui est crucial pour leur environnement dynamique.

Bien que Google reste son écosystème principal, Beans.AI n'hésite pas à explorer d'autres options :

  • Laboratoires Lambda : Initialement envisagé mais jugé trop coûteux.
  • Azur : Une alternative prometteuse avec une amélioration de l'hébergement des modèles, de l'approvisionnement et de la disponibilité des GPU. Ils évaluent activement son potentiel pour les tâches de science des données.

Beans.AI met l'accent sur une approche flexible, en adaptant sa stratégie en fonction de besoins spécifiques :

  • Le contrôle est primordial : Les machines virtuelles Vanilla offrent un contrôle total sur l'évolutivité et les performances, ce qui l'emporte sur la commodité des solutions gérées telles que Vertex AI.
  • La maturation est en cours : À mesure que les plateformes gérées telles que Vertex AI évoluent et offrent plus de contrôle, elles pourraient devenir des options viables à l'avenir.
  • Le potentiel d'Azure : Ses offres compétitives en matière d'hébergement de modèles, de provisionnement et de disponibilité des GPU en font un candidat prometteur pour les explorations futures.

Expérimentation et coût de l'hébergement de modèles

Bien que la latence et les spécificités de la plate-forme ne soient pas des préoccupations immédiates, Beans.AI met l'accent sur l'estimation des coûts initiaux :

  • Calculs macroéconomiques : L'estimation des coûts globaux avant l'expérimentation permet de définir les attentes et de planifier efficacement.
  • Besoin à l'échelle de l'industrie : Les outils intelligents de prévision des coûts destinés à l'expérimentation restent une lacune dans ce domaine.

Beans.AI propose un compromis entre une ingénierie rapide et des réglages précis :

  • Ingénierie rapide : Coût quasi nul, idéal pour les interactions simples, mais potentiellement moins gracieuses.
  • Réglage fin : Plus puissant, mais entraîne des coûts de formation importants.

Ils combinent stratégiquement les deux techniques pour des résultats optimaux :

  • Exploration soucieuse des coûts : Ingénierie rapide pour les premières expériences.
  • Ajustement des applications clés : Lorsque les performances l'emportent sur les préoccupations en matière de coûts.

Il est important d'être conscient des coûts :

  • Il est rarement possible de s'entraîner à partir de zéro : Son coût élevé et sa complexité en font une option risquée.
  • La gestion intelligente des coûts est essentielle : L'optimisation de l'expérimentation permet d'économiser des ressources et d'accélérer l'innovation

Lisez nos précédents articles de la série True ML Talks :

Continuez à regarder le TrueML série youtube et en lisant le TrueML série de blogs.

True Foundry est un PaaS de déploiement de machine learning sur Kubernetes destiné à accélérer les flux de travail des développeurs tout en leur offrant une flexibilité totale dans les tests et le déploiement de modèles, tout en garantissant une sécurité et un contrôle complets à l'équipe Infra. Grâce à notre plateforme, nous permettons aux équipes de machine learning de déployer et surveiller des modèles en 15 minutes avec une fiabilité à 100 %, une évolutivité et la possibilité de revenir en arrière en quelques secondes, ce qui leur permet de réduire les coûts et de mettre les modèles en production plus rapidement, ce qui permet de réaliser une véritable valeur commerciale.

Le moyen le plus rapide de créer, de gérer et de faire évoluer votre IA

INSCRIVEZ-VOUS
Table des matières

Gouvernez, déployez et suivez l'IA dans votre propre infrastructure

Réservez un séjour de 30 minutes avec notre Expert en IA

Réservez une démo

Le moyen le plus rapide de créer, de gérer et de faire évoluer votre IA

Démo du livre

Découvrez-en plus

October 26, 2023
|
5 min de lecture

True ML Talks #23 - Applications MLOps et LLMS @ GitLab

May 21, 2024
|
5 min de lecture

Que sont les intégrations dans l'apprentissage automatique ?

 Best AI Gateways in 2026
April 22, 2026
|
5 min de lecture

5 meilleures passerelles IA en 2026

comparaison
April 22, 2026
|
5 min de lecture

Intégration de Cline avec TrueFoundry AI Gateway

Outils LLM
Detailed Guide to What is an AI Gateway?
April 22, 2026
|
5 min de lecture

Qu'est-ce qu'AI Gateway ? Concepts de base et guide

Aucun article n'a été trouvé.
April 22, 2026
|
5 min de lecture

LLM Embeddings 101 : un guide complet 2024

Terminologie LLM
Aucun article n'a été trouvé.

Blogs récents

Faites un rapide tour d'horizon des produits
Commencer la visite guidée du produit
Visite guidée du produit