Próximo seminario web: Seguridad empresarial para Claude Code | 21 de abril · 11:00 a. m. PST. Regístrese aquí →

True ML habla #18: debate sobre IA generativa con Tushar Kant

Por TrueFoundry

Actualizado: December 12, 2023

Resumir con

Volvemos con otro episodio de True ML Talks. En este artículo, nos sumergimos en ML Platform y estamos hablando con Tushar

Tushar es un líder experimentado de MLOps con más de 20 años de experiencia en las principales empresas de tecnología y una amplia gama de habilidades en productos, negocios, ingeniería y banca de inversión. También es cofundador del foro mundial sobre IIT, inteligencia artificial y aprendizaje automático, y también dirige una comunidad de Slack muy activa en este ámbito.

Mira el episodio completo a continuación:

Foro de Inteligencia Artificial y Aprendizaje Automático del IIT

La visión del foro

El Foro AI/ML del IIT se inició con la visión de crear una comunidad en la que los usuarios del IIT que trabajan en AI/ML pudieran compartir sus conocimientos, colaborar y ayudarse unos a otros. Creían que, trabajando juntos, los habitantes del IIT podrían superar a cualquier otro instituto de ingeniería del mundo.

El foro ha sido un gran éxito, con más de 1800 miembros de todo el mundo. El foro ha organizado eventos, ha apoyado a otras organizaciones y se ha convertido en una comunidad próspera por derecho propio.

Logro del foro

Tushar está particularmente orgulloso de tres cosas que el foro ha logrado:

  1. Organizando la ruta de un día para la IA en Icon. :Esta es una conferencia importante en Silicon Valley, y el hecho de que el foro haya podido organizar el tema de la IA es un testimonio de su reputación e influencia.
  2. Construir conexiones sólidas entre los miembros: El foro ha ayudado a crear amistades y asociaciones comerciales para toda la vida entre sus miembros.
  3. Proporcionar un sistema de apoyo durante la pandemia de COVID-19: Cuando el mundo se cerró, el foro continuó reuniéndose cada dos semanas, proporcionando una fuente de conocimiento y apoyo a sus miembros.

Momentos cruciales en el crecimiento de la IA y los MLOps

La combinación de Computación en nube, Transformers, entrenamiento previo será un importante impulsor de la innovación en IA y MLOps en los próximos años. En particular, el potencial de la IA multimodal, que combina el procesamiento del lenguaje natural y la visión artificial para resolver problemas complejos.

Computación en nube ha hecho que la IA sea más accesible y asequible para todos. Esto ha llevado a un aumento de la innovación en este campo, ya que las empresas emergentes y los particulares ahora pueden desarrollar e implementar aplicaciones de inteligencia artificial sin tener que invertir en costosas infraestructuras.

Transformadores han revolucionado el procesamiento del lenguaje natural y la visión artificial. Los transformadores son un tipo de arquitectura de red neuronal que puede aprender las dependencias de los datos a largo plazo. Esto los hace ideales para tareas como la traducción automática y el reconocimiento de imágenes.

Entrenamiento previo es una técnica en la que se entrena un modelo de lenguaje grande en un conjunto de datos masivo de texto y código. Este modelo previamente entrenado puede luego ajustarse para tareas específicas, como la traducción o la respuesta a preguntas. La formación previa ha mejorado significativamente el rendimiento de los modelos de IA en una amplia gama de tareas.

ChatGPT e IA generativa: aplicaciones potenciales en todos los sectores

ChatGPT y la IA generativa tienen el potencial de revolucionar muchos sectores. Está particularmente interesado en el potencial de estas tecnologías para mejorar el servicio al cliente, reducir el fraude, personalizar los productos y servicios y mejorar la atención médica.

Ejemplos de aplicaciones específicas de ChatGPT y la IA generativa en diferentes industrias:

  1. Servicio al cliente y experiencia: ChatGPT y la IA generativa se pueden utilizar para automatizar las tareas de servicio al cliente, como responder a las consultas y generar informes. Esto puede liberar a los representantes del servicio de atención al cliente para que puedan centrarse en tareas más complejas.
  2. Evaluación de riesgos y detección de fraudes: ChatGPT y la IA generativa se pueden utilizar para identificar y mitigar los riesgos en la industria bancaria y financiera. Por ejemplo, se pueden usar para detectar transacciones fraudulentas y evaluar el riesgo que corren los prestatarios.
  3. Personalización: ChatGPT y la IA generativa se pueden utilizar para personalizar los productos y servicios para los clientes del sector minorista. Por ejemplo, se pueden usar para recomendar productos a los clientes en función de sus compras anteriores y su historial de navegación.
  4. Determinación de primas y evaluación de riesgos: ChatGPT y la IA generativa se pueden utilizar para determinar las primas de seguro y evaluar el riesgo de los asegurados en la industria de los seguros.
  5. Defensa del paciente y diagnóstico de enfermedades: ChatGPT y la IA generativa se pueden usar para desarrollar herramientas de defensa de los pacientes y diagnosticar enfermedades de manera más rápida y precisa en la industria de la salud.


LLMs y evaluación de riesgos

Los LLM aún se encuentran en sus primeras etapas de desarrollo, pero tienen el potencial de revolucionar la evaluación de riesgos en la industria de servicios financieros:

Los LLM pueden procesar más datos con mayor rapidez. Los modelos de evaluación de riesgos tradicionalmente se basan en una cantidad limitada de datos, como puntajes crediticios e ingresos. Los LLM pueden procesar muchos más datos, como los patrones de gasto, el comportamiento de compra y el comportamiento en línea. Esto les permite crear evaluaciones de riesgo más precisas.

Los LLM pueden considerar factores asociativos. Además de los factores individuales, como la calificación crediticia, los LLM también pueden considerar factores asociativos, como la empresa para la que trabaja una persona y la industria en la que trabaja. Esto puede ayudarlos a crear evaluaciones de riesgo más completas.

El futuro de los LLM

Tipos de actores del ecosistema

Cree que habrá tres tipos de actores en el ecosistema:

  1. Constructores de modelos básicos: Empresas como OpenAI, Google y Meta, que desarrollan ellos mismos los grandes modelos lingüísticos.
  2. Plataformas LLM Ops: Empresas como AWS y Google que proporcionan plataformas para que los desarrolladores creen e implementen aplicaciones de LLM.
  3. Distribuidores de LLM: Empresas que desarrollan y venden productos y servicios impulsados por LLM a los usuarios finales.

📌

Industria de energía eléctrica:
En la industria de la energía eléctrica, hay generadores, líneas de transmisión y distribuidores. En la industria de la maestría, Tushar considera a los creadores de modelos básicos como generadores, a los proveedores de computación en la nube como líneas de transmisión y a las empresas emergentes como distribuidoras.

Código cerrado frente a código abierto:

Habrá un espacio para los LLM de código abierto y cerrado.
Modelos de código cerrado será el preferido de las grandes empresas que necesitan soluciones listas para la producción con soporte. Modelos de código abierto será preferido por las empresas e investigadores más pequeños que necesitan más flexibilidad y personalización.

El papel del middleware:

Se necesitará middleware para ayudar a los desarrolladores a utilizar los LLM de manera más fácil y eficiente. El middleware puede proporcionar funciones como la administración, el ajuste y la supervisión de modelos.

Beneficios y riesgos de los LLM:

Es imperativo ver los LLM como herramientas que pueden amplificar las capacidades humanas o plantear riesgos, según su aplicación. Como cualquier herramienta, el uso de los LLM está determinado por las elecciones e intenciones humanas. Tienen el potencial de avanzar en los tratamientos médicos, fomentar programas educativos innovadores y automatizar las tareas que actualmente realizan los humanos. Sin embargo, también pueden generar copias falsas, difundir información errónea y manipular a las personas.

El papel humano en el desarrollo y uso de los LLM:

A pesar de que los LLM crecen en sofisticación, nunca llegarán a comprender plenamente los matices de los valores humanos. En consecuencia, los seres humanos conservan un papel fundamental a la hora de garantizar que los LLM se alineen con nuestros valores. Esto incluye, Establecimiento de directrices éticas para el desarrollo y uso de LLM, Educar al público acerca de los beneficios y riesgos del LLM, y Reconocer que los seres humanos poseen la capacidad única de pensar de manera creativa y encontrar soluciones innovadoras, mientras que los LLM están limitados por sus datos de formación.

Creación de sistemas RAG genéricos: AWS frente a empresas emergentes

Cuando se trata de crear sistemas RAG genéricos, tanto AWS como las empresas emergentes aportan sus propias ventajas y desafíos.

Puntos fuertes de AWS: AWS está bien posicionada para desarrollar sistemas RAG genéricos debido a su importante base de clientes y a una amplia gama de servicios compatibles con RAG. Por ejemplo, AWS ofrece SageMaker, una plataforma de aprendizaje automático para entrenar e implementar modelos RAG. Además, AWS ofrece varios servicios de almacenamiento y procesamiento de datos ideales para los flujos de trabajo de RAG.

Debilidades de AWS: Es posible que AWS no esté a la altura de la agilidad de las empresas emergentes en términos de desarrollo y lanzamiento rápidos de nuevos productos. Además, es posible que el enfoque de AWS no sea tan específico como el de las empresas emergentes, especialmente en casos de uso como el de RAG para el sector sanitario.

Ventajas de inicio: Las empresas emergentes destacan por su agilidad, lo que les permite centrarse en casos de uso específicos e innovar rápidamente en el dominio de los RAG. Su enfoque especializado puede conducir a soluciones e innovaciones RAG únicas que las grandes entidades suelen pasar por alto.

Desafíos de las startups: Las empresas emergentes suelen enfrentarse a limitaciones de recursos, ya que carecen de la amplia cartera de servicios y de la base de clientes de AWS. Competir en precio con AWS puede resultar abrumador debido a la escala y los recursos del gigante tecnológico.

Consejos para empresas emergentes que están desarrollando sistemas RAG:

  1. Céntrese en casos de uso específicos: Las empresas emergentes deben centrarse en desarrollar soluciones RAG para casos de uso específicos. Esto les ayudará a diferenciarse de AWS y otras grandes empresas.
  2. Muévete rápido: Las empresas emergentes deben actuar con rapidez para desarrollar y lanzar sus soluciones RAG. Esto se debe a que AWS y otras grandes empresas pueden copiar fácilmente sus productos.
  3. Sea un candidato atractivo para fusiones y adquisiciones: Las empresas emergentes deben centrarse en desarrollar soluciones RAG que sean atractivas para los candidatos a fusiones y adquisiciones. Esto les permitirá abandonar sus negocios si no pueden competir con AWS y otras grandes empresas.

Navegando por el vertiginoso mundo de la IA generativa

Consejos para líderes

  1. Sé ágil y ágil. El campo de la IA generativa está en constante evolución, por lo que es importante tener una mentalidad y un equipo que puedan adaptarse rápidamente a los nuevos desarrollos.
  2. Concéntrese en resolver problemas reales. No se deje atrapar por el bombo publicitario de la IA generativa. En su lugar, céntrese en identificar los desafíos empresariales reales que se pueden resolver con esta tecnología.
  3. No tengas miedo de llegar tarde. No pasa nada si alguien más te gana en el mercado con una nueva solución de IA generativa. Lo importante es aprender de sus errores y crear un producto mejor.
  4. No lo fuerces. No todos los problemas necesitan una solución de IA generativa. Utilice su perspicacia empresarial para identificar los problemas correctos que debe resolver con esta tecnología.

Asesoramiento para líderes en ciencia e ingeniería de datos

  1. No empieces con el martillo. No se limite a buscar formas de utilizar la IA generativa. En su lugar, comience por identificar los desafíos de su empresa y, a continuación, compruebe si la IA generativa es la herramienta adecuada para resolverlos.
  2. Trabaje al revés desde el cliente. ¿Cuáles son las necesidades del cliente? ¿Cuáles son sus puntos débiles? Una vez que comprenda al cliente, puede empezar a pensar en cómo se puede utilizar la IA generativa para ayudarlo.
  3. No cedas a los mandatos jerárquicos. Si su equipo de liderazgo exige que todos los equipos presenten casos de uso de IA generativa, no se limite a seguir las instrucciones. Da marcha atrás y pregúntate por qué creen que la IA generativa es la solución adecuada para esos problemas.

Lea nuestros blogs anteriores de la serie True ML Talks:

Sigue viendo el TrueML serie youtube y leyendo el TrueML serie de blogs.

True Foundry es un PaaS de implementación de aprendizaje automático sobre Kubernetes para acelerar los flujos de trabajo de los desarrolladores y, al mismo tiempo, permitirles una flexibilidad total a la hora de probar e implementar modelos, al tiempo que garantiza una seguridad y un control totales para el equipo de Infra. A través de nuestra plataforma, permitimos a los equipos de aprendizaje automático implementar y supervisar modela en 15 minutos con un 100% de confiabilidad, escalabilidad y la capacidad de revertirse en segundos, lo que les permite ahorrar costos y lanzar los modelos a la producción más rápido, lo que permite obtener un verdadero valor empresarial.

La forma más rápida de crear, gobernar y escalar su IA

Inscríbase
Tabla de contenido

Controle, implemente y rastree la IA en su propia infraestructura

Reserva 30 minutos con nuestro Experto en IA

Reserve una demostración

La forma más rápida de crear, gobernar y escalar su IA

Demo del libro

Descubra más

October 26, 2023
|
5 minutos de lectura

True ML Talks #23: Apps MLOps and LLMS in GitLab

May 21, 2024
|
5 minutos de lectura

¿Qué son las incrustaciones en el aprendizaje automático?

April 22, 2026
|
5 minutos de lectura

Mercados de agentes de IA: el futuro de la automatización de nivel empresarial

No se ha encontrado ningún artículo.
Detailed Guide to What is an AI Gateway?
April 22, 2026
|
5 minutos de lectura

¿Qué es AI Gateway? Conceptos básicos y guía

No se ha encontrado ningún artículo.
April 22, 2026
|
5 minutos de lectura

Aprovechar la puerta de enlace de IA de TrueFoundry para el cumplimiento de FIPS

No se ha encontrado ningún artículo.
April 22, 2026
|
5 minutos de lectura

Integración de GraySwan con TrueFoundry

No se ha encontrado ningún artículo.
No se ha encontrado ningún artículo.

Blogs recientes

Realice un recorrido rápido por el producto
Comience el recorrido por el producto
Visita guiada por el producto