Du dortoir dans une auberge à la collecte de fonds d'amorçage : un grand pas vers notre avenir !

Conçu pour la vitesse : latence d'environ 10 ms, même en cas de charge
Une méthode incroyablement rapide pour créer, suivre et déployer vos modèles !
- Gère plus de 350 RPS sur un seul processeur virtuel, aucun réglage n'est nécessaire
- Prêt pour la production avec un support complet pour les entreprises
Aujourd'hui, nous partageons avec le monde entier le premier des nombreux jalons, espérons-le, du voyage de TrueFoundry. Nous sommes heureux d'annoncer que nous avons levé 2,3 millions de dollars américains, mené par Sequoia India et Surge en Asie du Sud-Est, et rejoints par Eniac Ventures et d'autres investisseurs de premier plan tels que Naval Ravikant, cofondateur d'AngelList, Dilip Khandelwal, directeur de GitHub India, Maneesh Sharma, directeur technique de Greenhouse Software, Mike Boufford, et le fondateur de Kaggle Anthony Goldbloom, entre autres.
Chaque entreprise sera une société de données
Bien que nous soyons extrêmement fiers du voyage que nous avons entrepris jusqu'à présent pour atteindre cet endroit, il s'agit tout de même de la première étape importante vers un voyage de 1 000 miles que nous devrons entreprendre tous les trois, avec notre équipe Rockstar, avant de pouvoir dire que nous avons vraiment réussi. Les données devenant le nouveau pétrole est devenu un vieux cliché, et malgré cela, nous n'avons pas vu tout le monde exploiter tout son potentiel. L'apprentissage automatique offre d'immenses opportunités aux entreprises, mais le développement et le lancement de modèles de machine learning sont un processus long et complexe pour les ingénieurs logiciels, les ingénieurs ML et les data scientists. Par conséquent, près de 90 % des modèles ML ne sont pas mis en production. En ce qui concerne les modèles en cours de déploiement, 50 % échouent en raison de l'absence de systèmes de surveillance et 30 % doivent être annulés en raison de problèmes de mise à l'échelle et de latence qui sont souvent négligés lors de la phase de formation des données. Alors que les grandes entreprises peuvent combler cet écart en déployant de grandes équipes de plateformes de ML haut de gamme pour concevoir et lancer des modèles de ML, il est moins faisable pour les petites entreprises et les startups d'engager des investissements aussi élevés lors de la création de leurs entreprises.
Le monde a besoin d'une solution plus simple
Pendant notre séjour chez Facebook, nous avons constaté que les petites entreprises présentes sur le marché avaient besoin de beaucoup plus de temps pour créer et déployer des modèles d'apprentissage automatique que les grandes entreprises technologiques. TrueFoundry est donc née de l'idée qu'aucune entreprise, grande ou petite, ne devrait manquer les opportunités de l'apprentissage automatique. Grâce à notre plateforme automatisée, les data scientists et les ingénieurs sont en mesure de déployer des modèles d'apprentissage automatique à la vitesse et à la maturité des grandes technologies, réduisant ainsi leurs délais de production de plusieurs semaines à quelques heures. Les données sont le nouveau pétrole et nous voulons permettre aux entreprises d'utiliser l'apprentissage automatique plus rapidement et de générer une plus grande valeur commerciale. Notre objectif est d'automatiser les tâches répétitives du pipeline de machine learning, telles que l'infrastructure et les déploiements, afin que les data scientists et les ingénieurs ML puissent se concentrer sur des tâches à plus forte valeur ajoutée et plus créatives. Cela permet aux entreprises de mettre à niveau en permanence les modèles existants et d'en lancer de nouveaux pour acquérir un avantage concurrentiel. TrueFoundry a pour mission de démocratiser la production et la surveillance de l'apprentissage automatique afin d'apporter une valeur positive à tous.
Le principal défi pour atteindre ce résultat tient à l'hétérogénéité des exigences des différentes organisations en fonction du niveau de maturité de leurs flux de travail de développement ML, et c'est là que la plupart des produits existants échouent. Par exemple, si une start-up essaie de mettre son premier modèle en production, la seule chose qui compte pour elle est de savoir comment déployer rapidement votre modèle, même sans se soucier des meilleures pratiques. D'autre part, une entreprise qui compte plusieurs équipes chargées de créer des modèles d'apprentissage automatique se soucie des meilleures pratiques en matière de suivi, de gestion des versions, de mise à l'échelle, de CI/CD et de surveillance. La plupart des produits ne parviennent pas à atteindre cet équilibre lorsqu'ils sont soit trop compliqués à mettre en place par un développeur de machine learning, soit lorsqu'ils entraînent une dette technique trop importante pour une organisation relativement mature.
Notre approche
Qu'il s'agisse d'Amazon Web Services (AWS), de Google Cloud, de Tensorflow ou de Kubernetes, nous sommes indépendants de la plateforme et nous nous intégrons facilement à votre stack existant pour une mise en œuvre fluide. Notre plateforme permet ainsi aux équipes de ML d'être 10 fois plus rapides. Nous facilitons la prise en main (temps de configuration inférieur à 5 minutes) et la mise en production des modèles, mais au fur et à mesure que leurs besoins évoluent, la plate-forme prend déjà en charge le contrôle de version, la configuration de la surveillance, le CI/CD, la mise à l'échelle automatique, etc., qui peuvent être rapidement activés. Nous pensons que notre solution est la suivante : commencez comme Heroku et évoluez comme AWS.
L'équipe Rockstar
Enfin, toutes ces choses peuvent sembler bonnes sur le papier, mais les construire et les exécuter est une tout autre difficulté. C'est pourquoi nous avons eu la chance de réunir certains des meilleurs talents disponibles dans le domaine qui partagent la même vision que la nôtre. Ils ont veillé à ce que nous restions fidèles à notre vision et à tirer le meilleur parti de tout ce que nous pouvions
Vous pouvez en savoir plus sur cette actualité sur
TechCrunch
Economic Times
Business Insider
En 42
Tout cela vous semble intéressant ? Communiquez avec nous à l'adresse anuraag@truefoundry.com et nous pourrons discuter !
TrueFoundry AI Gateway offre une latence d'environ 3 à 4 ms, gère plus de 350 RPS sur 1 processeur virtuel, évolue horizontalement facilement et est prête pour la production, tandis que LiteLM souffre d'une latence élevée, peine à dépasser un RPS modéré, ne dispose pas d'une mise à l'échelle intégrée et convient parfaitement aux charges de travail légères ou aux prototypes.
Le moyen le plus rapide de créer, de gérer et de faire évoluer votre IA











.webp)





.png)


.webp)




.webp)







