TrueML Talks #27: GenAI y LLMOP para el éxito de los clientes en Level AI

Diseñado para la velocidad: ~ 10 ms de latencia, incluso bajo carga
¡Una forma increíblemente rápida de crear, rastrear e implementar sus modelos!
- Gestiona más de 350 RPS en solo 1 vCPU, sin necesidad de ajustes
- Listo para la producción con soporte empresarial completo
Volvemos con otro episodio de True ML Talks. En este artículo, profundizamos en la estrategia de GenAI y LLMOP en Level AI mientras hablamos con Abhimanyu Talwar
Abhimanyu es ingeniero de investigación de IA en plantilla en Level AI. Nivel AI una empresa de inteligencia conversacional. Utilizan el aprendizaje automático para obtener información a partir de los datos conversacionales.
📌
Nuestras conversaciones con Abhimanyu abordarán los siguientes aspectos:
- Aprovechar las conversaciones pasadas para la IA del servicio de atención al cliente
- Abordar los desafíos ocultos de la IA generativa
- Código abierto frente a optimización
- Comprensión de los agentes
- Desmitificando el control de calidad de los centros de contacto con IA
- IA de servicio al cliente con GPT-4
- Los MLOP revolucionan el éxito de los clientes
Mira el episodio completo a continuación:
Aprovechar las conversaciones pasadas para la IA del servicio de atención al cliente
La IA del servicio de atención al cliente está de moda, pero confiar únicamente en bases de conocimiento estáticas tiene sus límites. Asistencia de agente y Agente GPT, dos herramientas innovadoras de Level AI que desbloquean el poder de las conversaciones anteriores para aumentar la eficiencia de los agentes y la satisfacción de los clientes.
- Asistencia de agente: Analiza las consultas de los clientes y sugiere recursos relevantes de la base de conocimientos existente, lo que permite a los agentes responder de manera eficaz.
- Agente GPT: Va un paso más allá. Analiza las conversaciones pasadas, extrayendo e indexando automáticamente información valiosa que no se encuentra en la base de conocimientos. Esto crea un corpus dinámico y en constante crecimiento de soluciones para las consultas matizadas de los clientes.
Recuperación: buscando respuestas en conversaciones pasadas
¡Olvídate de la coincidencia de palabras Level emplea un potente canal de recuperación:
- Procesamiento previo: Las conversaciones pasadas se transforman en un formato que se puede buscar fácilmente.
- Indexación personalizada: Las claves únicas están diseñadas para hacer coincidir las consultas actuales con las interacciones pasadas relevantes.
- Incrustaciones: Los modelos de incrustación avanzados (piense en las canalizaciones RAG) capturan el significado semántico de las conversaciones, lo que permite una recuperación precisa.
Para obtener mejores resultados, también hacen lo siguiente:
- Reclasificación: Priorice los resultados más relevantes según el contexto y los factores adicionales.
- Filtros de palabras clave: Elimine de la búsqueda las interacciones pasadas irrelevantes o inútiles.
Al aprovechar tanto el poder de las bases de conocimiento estáticas como la información dinámica oculta en las conversaciones anteriores, Agent Assist y AgentGPT ofrecen una visión del futuro de la IA del servicio de atención al cliente. Este futuro es aquel en el que los agentes cuentan con la información correcta, lo que se traduce en resoluciones más rápidas, clientes más satisfechos y un centro de contacto más eficiente.
Abordar los desafíos ocultos de la IA generativa
La generación de inteligencia artificial es una herramienta poderosa, pero su éxito depende de una cuidadosa selección de datos, métodos de evaluación sólidos y un enfoque basado en datos
Escoger los datos correctos de tu vasto corpus es como encontrar los ingredientes perfectos para un plato delicioso. Una mala selección de datos conduce a un modelo que, bueno, no es comestible.
Lo primero es centrarse en los datos. Básicamente, domine muy bien el aspecto de su combinación de datos. ¿Cuál es la calidad de tus anotaciones? Todo eso realmente importa mucho. De lo contrario, será basura que entra y basura que sale
— Abhimanyu
Después de elegir los datos correctos, tendrás que evaluar tus modelos de Gen AI. Esto no es tan sencillo como las tareas tradicionales de IA. Olvídese de métricas simples, como la superposición de N gramos, ya que pasan por alto los matices de la corrección. El intercambio de una sola palabra («sí» por «no») puede marcar la diferencia.
Para ello puedes utilizar:
- Métricas programáticas: Utilice herramientas como las puntuaciones ROUGE y BERT para evaluar la similitud semántica.
- Anotaciones humanas: Emplee a personas reales para evaluar aspectos cualitativos como la coherencia y la integridad.
No se apresure a comprar modelos grandes. Realice experimentos con puntos de control más pequeños para encontrar la combinación de datos y la ponderación de las tareas óptimas.
Código abierto frente a optimización
Es tentador quedarse con la aparente versatilidad de ChatGPT. Si bien el GPT-4 brilla en escenarios sin restricciones, las empresas operan con limitaciones del mundo real. El alto volumen de tráfico exige soluciones eficientes y rentables sin sacrificar el rendimiento ni la capacidad de respuesta.
Aquí es donde puede resultar ventajoso ajustar sus propios modelos:
- Hiperenfoque: En lugar de intentar ser bueno en todo, adapta tu modelo para que destaque en tareas específicas y críticas para la empresa. ¡Imagínese un modelo experto en las interacciones con los centros de contacto en lugar de escribir ensayos para estudios de posgrado!
- Rentabilidad: Los modelos más pequeños y enfocados requieren menos potencia computacional, lo que se traduce en menores costos operativos.
- Control y explicabilidad: El ajuste fino le brinda una comprensión y un control más profundos sobre el comportamiento de su modelo, lo que fomenta la confianza y la transparencia.
ChatGPT como trampolín
No descartes por completo opciones como ChatGPT. ¡Pueden ser aliados valiosos! Considera utilizarlos como punto de partida para:
- Valida tu idea: Pruebe el terreno con modelos de código abierto antes de invertir en el desarrollo personalizado.
- Obtenga tracción empresarial: Usa las herramientas disponibles para obtener comentarios del mundo real y demostrar la viabilidad antes de sumergirte en el ajuste.
Comprensión de los agentes
¿Qué son los agentes?
Piense en ellos como equipos especializados de LLM, cada uno de los cuales desempeña un papel específico en un flujo de trabajo más amplio. En lugar de llamadas únicas a la API, las tareas implican la colaboración de varios «agentes» mediante llamadas a la API secuenciales.
¿Por qué usar agentes?
Imagina escribir un poema: necesitas creatividad, análisis de rimas e incluso una revisión gramatical. Un LLM puede sobresalir a la hora de generar versos iniciales, otro a la hora de garantizar los esquemas de rima y un tercero a la hora de pulir el borrador final. Los agentes le permiten aprovechar las fortalezas únicas de los diferentes modelos para lograr resultados superiores.
¿Cuándo son los agentes la elección correcta?
- Tareas complejas: Cuando un solo LLM tiene dificultades para alcanzar el alcance total de su objetivo, los agentes pueden dividirlo en pasos manejables.
- Precisión y control: La secuenciación de diferentes llamadas de «agentes» le brinda más control sobre el proceso, lo que le permite adaptar los pasos para lograr resultados específicos.
- Combinando diversas habilidades: Aproveche las fortalezas únicas de varios LLM para crear resultados verdaderamente innovadores.
Desmitificando el control de calidad de los centros de contacto con IA
Una de las ofertas de Level AI es Asistencia de agente, una potente herramienta de inteligencia artificial impulsada por la tecnología GPT. Ayuda a automatizar el control de calidad al analizar las conversaciones y proporcionar información sobre el rendimiento de los agentes.
Así es como funciona:
- Rúbrica QA: Los centros de contacto tienen criterios específicos para las llamadas correctas, como la resolución proactiva de problemas y la resolución exitosa. Agent Assist aprende estos criterios a partir de conversaciones anteriores.
- Análisis de IA: Se analiza cada llamada y Agent Assist proporciona una puntuación y una explicación basadas en la rúbrica de control de calidad.
- Explicabilidad con evidencia: Agent Assist no es solo una caja negra, sino que resalta partes específicas de la conversación que respaldan su puntuación, lo que brinda a los agentes comentarios valiosos.
- Ser humano al día: Los gerentes de control de calidad pueden revisar los hallazgos de Agent Assist y ajustar las puntuaciones si es necesario, garantizando la precisión y la imparcialidad.
Ventajas de Agent Assist:
- Control de calidad más rápido: Ahorra tiempo y recursos en comparación con las revisiones manuales.
- Rendimiento mejorado del agente: Proporciona comentarios específicos para ayudar a los agentes a sobresalir.
- Perspectivas basadas en datos: Revela tendencias y áreas de mejora en el servicio al cliente.
- Mayor eficiencia: Libera a los gerentes de control de calidad para que puedan realizar tareas más estratégicas.
Inteligencia artificial de servicio al cliente con GPT-4
La llegada del GPT-4 ha despertado entusiasmo en el mundo de la IA, pero ¿es una ventanilla única para experiencias de servicio al cliente excepcionales? No del todo. Si bien su poder es innegable, hay muchas capas ocultas detrás de las soluciones de IA verdaderamente impactantes.
El poder y las trampas de los grandes modelos:
El potencial bruto del GPT-4 es notable, ya que supera a los modelos de código abierto y las API en la generación de respuestas. Sin embargo, confiar únicamente en sus resultados pasa por alto las partes cruciales del proceso de IA: la selección de datos, la extracción de funciones, la agregación y el conocimiento empresarial.
Construir un equipo ganador:
- Selección de datos: Encontrar los datos de entrenamiento correctos es clave. Al anotar conversaciones anteriores específicas de su sector, la IA aprende a distinguir entre un servicio «bueno» y uno «malo».
- Extracción de funciones: Es necesario destilar los datos sin procesar. La extracción de los atributos clave de cada conversación permite el análisis y la comparación.
- Agregación y agrupamiento: Millones de conversaciones con innumerables atributos son abrumadoras. Los esquemas de agrupamiento inteligente presentan los datos de manera que los humanos puedan entenderlos y utilizarlos.
- Conocimientos empresariales: Entender lo que realmente les importa a sus clientes va más allá de las métricas. La experiencia en el sector ayuda a priorizar los KPI correctos y a guiar el desarrollo de la IA.
Puedes obtener más información sobre cómo las empresas aprovechan la experiencia humana y la inteligencia artificial para el servicio al cliente en el siguiente blog.
Los MLOP revolucionan el éxito de los clientes
Los MLOps, la fórmula mágica detrás de los despliegues eficientes de IA, están rediseñando el panorama del éxito de los clientes. He aquí un adelanto de su impacto en 5 años:
- Aumente la eficiencia: Diga adiós a las consultas lentas y a los clientes frustrados. Los chatbots basados en inteligencia artificial, impulsados por MLOps, responderán las preguntas al instante, lo que permitirá a los agentes interactuar de forma significativa.
- Armonía entre humanos y IA: El futuro no consiste en que los robots sustituyan a los humanos; se trata de la colaboración. MLOps permite a los agentes obtener información basada en datos para presentar propuestas de venta más inteligentes, resolver problemas de forma proactiva y ofrecer experiencias personalizadas.
- Decisiones basadas en datos: MLOps desbloquea el poder de los datos de los clientes. Los modelos de IA predecirán las necesidades, personalizarán las recomendaciones y generarán confianza a través de acciones informadas.
- Hiperpersonalización: mLOps adapta todo, desde las ofertas hasta el apoyo, cultivando relaciones duraderas y lealtad.
- Domando a la bestia de las alucinaciones: MLOps aborda las imprecisiones con una formación específica y una verificación basada en la evidencia, lo que garantiza interacciones confiables con los clientes.
Los MLOps son la clave para crear un futuro centrado en el cliente, pero el uso responsable y ético es crucial. Al aprovechar su potencial y, al mismo tiempo, abordar los desafíos, podemos construir historias de éxito por las que valga la pena aplauder.
Puedes obtener más información sobre cómo la IA generativa moldeará el futuro de la experiencia del cliente en el blog que aparece a continuación.
Lea nuestros blogs anteriores de la serie True ML Talks:
Sigue viendo el TrueML serie youtube y leyendo el TrueML serie de blogs.
True Foundry es un PaaS de implementación de aprendizaje automático sobre Kubernetes para acelerar los flujos de trabajo de los desarrolladores y, al mismo tiempo, permitirles una flexibilidad total a la hora de probar e implementar modelos, al tiempo que garantiza una seguridad y un control totales para el equipo de Infra. A través de nuestra plataforma, permitimos a los equipos de aprendizaje automático implementar y supervisar modela en 15 minutos con un 100% de confiabilidad, escalabilidad y la capacidad de revertirse en segundos, lo que les permite ahorrar costos y lanzar los modelos a la producción más rápido, lo que permite obtener un verdadero valor empresarial.
TrueFoundry AI Gateway ofrece una latencia de entre 3 y 4 ms, gestiona más de 350 RPS en una vCPU, se escala horizontalmente con facilidad y está listo para la producción, mientras que LitellM presenta una latencia alta, tiene dificultades para superar un RPS moderado, carece de escalado integrado y es ideal para cargas de trabajo ligeras o de prototipos.
La forma más rápida de crear, gobernar y escalar su IA

















.png)


.webp)




.webp)







