robótica

Elena Digital López

Mejora la Experiencia del Cliente con el Plugin Personalizado de Amazon Q Business para New Relic AI

Las interrupciones en la experiencia digital pueden perjudicar gravemente tanto la satisfacción del cliente como el rendimiento empresarial en una variedad de sectores. Problemas como fallos en las aplicaciones, tiempos de carga lentos y falta de disponibilidad de servicios a menudo llevan a frustraciones por parte del usuario, reduciendo el compromiso y, en consecuencia, las ganancias. Estos riesgos y el

Elena Digital López

Amazon Finance Automation Lanza Asistente de Chat con IA Generativa Usando Amazon Bedrock

En un esfuerzo por optimizar el tiempo de respuesta ante consultas de clientes, Amazon ha desarrollado un asistente de chat basado en inteligencia artificial generativa en su plataforma Amazon Bedrock. Tradicionalmente, los analistas de Cuentas por Pagar y Cuentas por Cobrar de las operaciones financieras de Amazon se enfrentaban a un proceso laborioso al recibir solicitudes de clientes, ya que

Elena Digital López

Optimización del Autoescaleo para Inferencia de IA Generativa: Implementación del Caché de Contenedores en SageMaker Inference

En el reciente evento AWS re:Invent 2024, Amazon Web Services ha anunciado una actualización significativa para Amazon SageMaker, su plataforma de aprendizaje automático. La nueva funcionalidad, denominada Container Caching, promete revolucionar la eficiencia de escalado de los modelos de inteligencia artificial generativa durante las inferencias. Este avance responde a los crecientes desafíos que plantean la complejidad y el tamaño cada

Elena Digital López

Introducción Del Cargador Rápido De Modelos En SageMaker Inference: Optimización Del Autoscalado De Modelos Lingüísticos – Parte 2

En un reciente giro tecnológico, Amazon ha dado un paso notable en el ámbito de la inteligencia artificial con la implementación de una nueva característica en su servicio Amazon SageMaker, denominada Fast Model Loader. Esta innovación se centra en mejorar la eficiencia en la carga y el escalado de modelos de lenguaje grandes (LLMs), abordando el desafío significativo que representa

Elena Digital López

Introducción de Fast Model Loader en SageMaker Inference: Acelerando la Autoescalabilidad de tus Modelos de Lenguaje Extensos – Parte 1

En el vibrante y siempre cambiante campo de la inteligencia artificial generativa, los modelos de lenguaje de gran tamaño (LLMs) están experimentando una rápida evolución. Estos modelos, que ahora cuentan con cientos de miles de millones de parámetros, requieren vastas cantidades de memoria para funcionar eficientemente. Sin embargo, con este crecimiento también surgen desafíos significativos para los ingenieros que buscan

Elena Digital López

Descubre Ahorros con la Innovadora Funcionalidad de Escalado a Cero en SageMaker Inference

En el evento AWS re:Invent 2024, Amazon sorprendió al público con una nueva y prometedora funcionalidad para sus puntos de inferencia en Amazon SageMaker. Ahora, estos puntos de inferencia pueden escalarse a cero instancias, una capacidad largamente esperada que busca transformar cómo los clientes manejan la inferencia de inteligencia artificial (IA) y el aprendizaje automático (ML) en la nube. Anteriormente,

Scroll al inicio