Amazon ha dado un importante paso adelante en el ámbito de la inteligencia artificial generativa con el reciente lanzamiento de Amazon Bedrock Agents. Este servicio avanzado permite a las empresas desarrollar aplicaciones de IA generativa para llevar a cabo tareas complejas utilizando múltiples sistemas y fuentes de datos. Este lanzamiento responde a las crecientes demandas en algunas regiones y sectores regulados, donde las normativas de protección de datos imponen la necesidad de integrar servicios de IA en la nube con datos que deben permanecer en las instalaciones.
Para abordar estas necesidades, AWS ha añadido nuevas capacidades a Amazon Bedrock Agents que incluyen servicios híbridos y de borde, como AWS Outposts y AWS Local Zones. Esta expansión facilita la creación de aplicaciones de generación aumentada por recuperación (RAG) que emplean datos locales, brindando a las organizaciones la posibilidad de mantener sus datos sensibles dentro de sus propias infraestructuras, cumpliendo así con las regulaciones locales.
Las organizaciones que gestionan información sensible, como datos personales identificables, requieren que la infraestructura de AWS cumpla con normativas estrictas, asegurando así el almacenamiento y procesamiento conforme de la información. La oferta híbrida y de borde de AWS aporta la escalabilidad y flexibilidad de su nube, pero también preserva la capacidad de procesamiento local y de baja latencia, algo vital para el cumplimiento de regulaciones.
El diseño de estas soluciones RAG se presenta en dos formatos principales: RAG completamente local y RAG híbrido. El enfoque completamente local utiliza una instancia de Outposts para alojar tanto el modelo de lenguaje grande (LLM) como las bases de datos de conocimiento, garantizando que los datos más sensibles no salgan de las instalaciones. Por otro lado, el enfoque híbrido mezcla operaciones de IA entre la nube y entornos locales, asegurando que los datos regulados permanecen dentro de ciertos límites jurisdiccionales.
Amazon Bedrock Agents ofrece la posibilidad de crear y configurar agentes autónomos que optimizan la interacción con modelos, fuentes de datos y aplicaciones. Con ello, las empresas pueden, por ejemplo, utilizar funciones de AWS Lambda para ejecutar modelos autogestionados con borde. Un caso de uso concreto es el de un chatbot de atención al cliente de un minorista que aprovecha una base de conocimiento local para abordar preguntas detalladas sobre producción, mientras que preguntas más generales se gestionan en la nube.
Con este avance, AWS reafirma su compromiso de ayudar a las organizaciones a adoptar soluciones de IA generativa mientras se mantiene el respeto a la privacidad y seguridad de los datos, permitiendo así que las empresas no solo se beneficien de la innovación, sino que también fortalezcan su eficiencia operativa y cumplimiento regulatorio. La posibilidad de ejecutar modelos cerca de dispositivos y usuarios finales representa una mejora notable en términos de latencia y privacidad, siendo un paso significativo hacia un futuro más conectado y seguro.