Blog

LangChain: cómo permite a las empresas hacer más con los LLM

Contenidos

Los LLM (Large Language Models) actuales pueden ayudar a las empresas a desbloquear más productividad que nunca, pero existen algunas limitaciones: todos los sistemas están sujetos a fechas de corte de los datos de formación y, por lo general, carecen de extensibilidad entre recursos web y otros modelos lingüísticos.

Para mejorar la interoperabilidad en todos los ámbitos, el sólido framework de LangChain ofrece varias herramientas valiosas que permiten a las empresas conectarse con distintos proveedores (incluidos otros LLM) e integraciones con una amplia colección de componentes de código abierto.

A continuación, examinaremos este producto y explicaremos sus capacidades, además de proporcionar un ejemplo que demuestra una pizca de lo que puede hacer.

¿Qué es LangChain?

LangChain es un framework diseñado para simplificar la creación de aplicaciones utilizando LLMs. Sus casos de uso se solapan en gran medida con los LLM, en general, proporcionando funciones como análisis y resumen de documentos, chatbots y análisis de código.

LangChain ofrece acceso a LLMs de varios proveedores como OpenAI, Hugging Face, Cohere, AI24labs, entre otros. Se puede acceder a estos modelos a través de llamadas API utilizando tokens API específicos de la plataforma, lo que permite a los desarrolladores aprovechar sus capacidades avanzadas para construir como mejor les convenga.

Empresas de cualquier tamaño, desde startups hasta empresas globales, pueden utilizar LangChain para crear chatbots multilingües, herramientas de traducción de idiomas e incluso páginas web multilingües.

El valor aquí es que con un poco de código, puedes hacer mucho más que, por ejemplo, iniciar sesión en tu cuenta de OpenAI y hacer que ChatGPT analice un archivo CSV que hayas exportado manualmente desde alguna base de datos.

Aunque algunas soluciones del mercado, como Bing ejecutando ChatGPT, pueden extraer datos de páginas web, sus capacidades tienen limitaciones significativas con lo que puede ser con datos y funciones externas.

¿Cómo funciona LangChain?

LangChain sirve esencialmente como intermediario entre otros LLMs, fuentes de datos y funciones accesibles por API – más concretamente, es una completa biblioteca de componentes de código abierto que permite a los usuarios construir mejores soluciones (es decir, más personalizadas) interconectando diferentes recursos.

Si añades LangChain a tu producto, podrás aprovechar el encadenamiento LLM (más adelante veremos por qué puede ser útil), así como otros tipos de integraciones y conjuntos de herramientas para analizar y manipular datos. 

Diferentes funciones de la API permiten el paso de datos generados o extraídos entre otros componentes, ya sea al almacenamiento, a otro sistema para su posterior análisis, para computar en una función, o a cualquiera de los muchos otros casos de uso.

La gente de LangChain está creando actualmente una plataforma de desarrollo completa llamada LangSmith que ofrecerá una visión profunda y en tiempo real del producto con una visibilidad completa de la cadena. Ahora mismo, los desarrolladores tienen que probar manualmente cualquier cosa que no funcione correctamente. Pronto, este conjunto completo de herramientas de depuración para probar, evaluar y supervisar hará que el desarrollo con LangChain sea mucho más fluido.

Ejemplos de lo que se puede hacer con LangChain

Hay muchos ejemplos en desarrollo, así que vamos a tocar algunos casos de uso valiosos en los que la manipulación del lenguaje es el tema central.

Localización y traducción de contenidos web o de aplicaciones

Uno de los problemas a los que se enfrentan las marcas internacionales es la creación de páginas web significativas para el público de otros países. A menudo, lanzar páginas web derivadas y llenarlas de contenido que no parezca que alguien «lo ha hecho lo mejor que ha podido» con Google Translate resulta caro y lleva mucho tiempo.

Crear sitios funcionales y atractivos para otros idiomas requiere mucho más trabajo que simplemente traducir el texto a otro idioma y pegarlo.

Por ejemplo, las frases de otros idiomas no se traducen palabra por palabra. Incluso cuando las tienen, la longitud de los caracteres puede ser radicalmente distinta, lo que significa que hay que ajustar el diseño de la interfaz de usuario para evitar que el texto desborde o no llene adecuadamente una zona.

Utilizando el encadenamiento LLM y otras herramientas, se podría automatizar la mayoría de los procesos necesarios para traducir contenidos a otros idiomas y publicar el material revisado adecuadamente en una web localizada.

Hay suficiente flexibilidad para permitir que las traducciones manuales se transmitan junto con (o en lugar de) las traducciones LLM, lo que a menudo será necesario, ya que con cualquier IA pueden producirse errores. Esto puede ayudar a garantizar que no surjan traducciones torpes o descuidadas debido a la disparidad en la longitud de los caracteres.

Con LangChain, puedes crear capas de herramientas de análisis LLM para filtrar las traducciones y reelaborar el fraseo adecuadamente. Con la mayoría de soluciones CMS y aplicaciones web personalizadas, puedes crear además scripts personalizados para automatizar la mayor parte de la publicación de contenidos desde una base de datos o un almacén de vectores a una web.

Crear un bot para las redes sociales que publique como tú

En las redes sociales ya hay suficientes bots que interactúan con la gente como si fueran personas reales, pero para poner un ejemplo funcional, nos fijaremos en un bot llamado AutoTweeter para la plataforma de redes sociales que todos seguimos llamando Twitter.

AutoTweeter utiliza una combinación de LangChain para utilizar una secuencia de tres LLMChains que comprueban tus tweets existentes con titulares extraídos de r/worldnews para crear y publicar de forma autónoma tweets humorísticos y no ofensivos con tu tono.

Aunque podrías utilizar esta misma técnica para contaminar las redes sociales con tu propio bot irreverente, hay una implicación más amplia para las empresas detrás de esta prueba de concepto.

Los chatbots tienen aplicaciones increíbles en el servicio de atención al cliente, a menudo como primera línea de apoyo y recepción. Sin embargo, estos productos deben ser flexibles para manejar toda la gama de problemas o escenarios que un cliente puede requerir al utilizar un sistema de este tipo.

Es probable que todos nos hayamos encontrado con chatbots tan malos como las operadoras telefónicas automáticas y los sistemas IVR mal configurados que te hacen perder el tiempo antes de transferirte a alguien que puede o no ser «el indicado» para resolver tu problema.

En lugar de crear un bot que tuitee en tu tono sobre tu amor por los aguacates, el fútbol y Eurovisión, podrías entrenar a un sistema de este tipo en la voz de tu marca, bases de conocimiento y otros recursos para crear una función muy valiosa para tus puntos de contacto digitales.

Una configuración similar a la de AutoTweeter permitiría a las empresas analizar las consultas pasadas y presentes de los clientes para comprender los puntos de abandono y crear los flujos adecuados para resolver los problemas de los clientes en el momento, en lugar de ponerlos en una cola para que esperen a una persona real.

Con un poco de magia de desarrollo, puedes crear rápidamente una solución que integre funciones como sistemas de pago, asistencia técnica, pedidos, gestión de cuentas y mucho más.

Como advertencia, debes comprender que la IA moderna es todavía relativamente nueva en todos los ámbitos, y que la automatización desatendida no es aconsejable para nada. Recuerda que la IA funciona mejor cuando se utiliza como multiplicador de la productividad y no como sustituto directo de un ser humano.

Artículos destacados

Artículo

From offline to online.

Comparte tus ideas con nosotros