Próximo seminario web: Seguridad empresarial para Claude Code | 21 de abril · 11:00 a. m. PST. Regístrese aquí →
Preguntas frecuentes
Nos está llevando bastante tiempo poner en producción nuestros modelos y obtener el impacto de ellos. ¿Hay alguna forma de empoderar a los científicos de datos para que se hagan cargo de este proceso?
Los ingenieros de aprendizaje automático dependen en gran medida de los equipos de DevOps y plataformas para sus necesidades de infraestructura a la hora de entrenar o implementar modelos
Queremos usar nuestra infraestructura estándar de Kubernetes para la capacitación y las implementaciones de ML
Los científicos de datos no quieren trabajar con infraestructura o YAML
Queremos que nuestros datos permanezcan en nuestra propia nube o en las instalaciones
Los modelos se implementan con el ajuste de escala automático configurado mediante HPA, pero el ajuste de escala automático es muy lento debido al tiempo de descarga de los modelos.
Queremos alojar las computadoras portátiles Jupyter y convertirlas en autoservicio con flexibilidad para aprovisionar recursos y, al mismo tiempo, limitar los costos y la seguridad.
¿Cómo hacer un seguimiento de todos los modelos de la empresa en un solo lugar y averiguar cuáles están implementados en qué entorno?
¿Cómo duplico o divido el tráfico de mi nueva versión del modelo para que podamos probarla en el tráfico en línea antes de implementarla por completo?
Queremos usar hardware y computación en todas las nubes (AWS, GCP, Azure) y en las instalaciones. ¿Cómo los conecto para que los desarrolladores no tengan que preocuparse por la computación subyacente y puedan mover sin problemas las cargas de trabajo de un entorno a otro?
Queremos utilizar el poder de las LLM para nuestro negocio, pero no podemos permitir que los datos salgan de nuestro entorno. ¿Hay alguna forma de utilizar el poder de las LLM sin enviar mis datos a OpenAI?
¿Cómo puedo permitir que todos mis desarrolladores prueben rápidamente diferentes LLM y vean qué resultados pueden obtener?
Estamos incurriendo en grandes costos en nuestra infraestructura de aprendizaje automático y cada vez es más difícil rastrearla y reducirla.