Mejores prácticas para la ingeniería de prompts con Meta Llama 3 en casos de uso de Text-to-SQL

Elena Digital López

Con el rápido crecimiento de la inteligencia artificial (IA) generativa, muchos clientes de Amazon Web Services (AWS) buscan aprovechar los modelos fundacionales (FM) y tecnologías disponibles públicamente. Esto incluye Meta Llama 3, el modelo de lenguaje grande (LLM) disponible públicamente de Meta. La colaboración entre Meta y Amazon representa una innovación colectiva en IA generativa, y ambas empresas están trabajando juntas para ampliar los límites de lo que es posible.

Meta Llama 3 es el sucesor del modelo Meta Llama 2, manteniendo una capacidad de 70 mil millones de parámetros, pero logrando un rendimiento superior a través de técnicas de entrenamiento mejoradas en lugar de un aumento en el tamaño del modelo. Este enfoque subraya la estrategia de Meta de optimizar la utilización de datos y metodologías para impulsar las capacidades de la IA. La versión incluye nuevos modelos basados en la arquitectura de Meta Llama 2, disponibles en variantes de 8 mil millones y 70 mil millones de parámetros, cada una ofreciendo versiones base e instructivas.

Una mejora significativa en Meta Llama 3 es la adopción de un tokenizador con un vocabulario de 128.256 tokens, mejorando la eficiencia de la codificación de texto para tareas multilingües. El modelo de 8 mil millones de parámetros integra atención de consulta agrupada (GQA) para mejorar el procesamiento de secuencias de datos más largas, mejorando el rendimiento en aplicaciones del mundo real. El entrenamiento involucró un conjunto de datos de más de 15 billones de tokens en dos clústeres de GPU, significativamente más que Meta Llama 2. Meta Llama 3 Instruct, optimizado para aplicaciones de diálogo, fue afinado con más de 10 millones de muestras anotadas por humanos utilizando técnicas avanzadas como la optimización de políticas proximales y la afinación supervisada. Los modelos de Meta Llama 3 tienen una licencia permisiva, permitiendo la redistribución, afinación y creación de trabajos derivados, ahora requiriendo atribución explícita. Esta actualización de licencias refleja el compromiso de Meta de fomentar la innovación y colaboración en el desarrollo de IA con transparencia y responsabilidad.

Para el uso de Meta Llama 3, se han desarrollado prácticas recomendadas para la ingeniería de prompts. Los modelos base ofrecen flexibilidad sin necesidad de prompts específicos, destacando en tareas zero-shot o few-shot. Las versiones instruct ofrecen formatos de prompts estructurados para sistemas de diálogo, manteniendo interacciones coherentes. En tareas como la conversión de texto a SQL, se recomienda diseñar prompts que reflejen con precisión las necesidades de conversión de consultas de usuario a SQL. La práctica iterativa y la validación y prueba rigurosas son esenciales para mejorar el rendimiento del modelo y garantizar su precisión en diversas aplicaciones.

El uso de LLMs para mejorar las consultas de texto a SQL está ganando importancia, permitiendo a usuarios no técnicos acceder y consultar bases de datos utilizando lenguaje natural. Esto democratiza el acceso a la IA generativa y mejora la eficiencia en la redacción de consultas complejas. Por ejemplo, un cliente financiero con una base de datos MySQL de datos de clientes podría usar Meta Llama 3 para construir consultas SQL a partir de lenguaje natural. Otros casos de uso incluyen la mejora de la precisión, manejo de complejidad en consultas, incorporación de contexto y escalabilidad sin necesidad de reentrenamientos extensivos.

Para implementar esta solución, se siguen pautas y pasos utilizando AWS y herramientas como Amazon SageMaker JumpStart, que facilita la implementación y experimentación con modelos preentrenados como Meta Llama 3 sin necesidad de configuraciones complejas de infraestructura. SageMaker JumpStart proporciona acceso a diversos tamaños de modelos de Meta Llama 3, permitiendo elegir el más adecuado según los requisitos específicos del usuario. La solución también incluye el uso de motores de bases de datos vectoriales como ChromaDB para almacenar embeddings, integrando eficientemente los modelos de ML y NLP en flujos de trabajo de aplicaciones.

La arquitectura de la solución incluye un flujo de proceso que va desde el envío de una consulta en lenguaje natural hasta la generación y ejecución de una consulta SQL contra Amazon RDS para MySQL, manteniendo la seguridad de los datos en un entorno controlado por AWS VPC. La integración de motores vectoriales como ChromaDB permite modelar datos de manera flexible, realizar búsquedas semánticas eficientes y gestionar datos de manera rentable, fomentando un ecosistema colaborativo para aplicaciones de Text-to-SQL en IA generativa.

Para aquellos interesados en implementar esta solución, se proporcionan pasos detallados y recursos adicionales, como repositorios en GitHub y plantillas de AWS CloudFormation. Esta colaboración entre Meta y AWS facilita una mayor flexibilidad y control sobre las herramientas utilizadas, promoviendo el desarrollo y la adopción de tecnologías avanzadas de IA.

Scroll al inicio