Elena Digital López

Amazon Finance Automation Lanza Asistente de Chat con IA Generativa Usando Amazon Bedrock

En un esfuerzo por optimizar el tiempo de respuesta ante consultas de clientes, Amazon ha desarrollado un asistente de chat basado en inteligencia artificial generativa en su plataforma Amazon Bedrock. Tradicionalmente, los analistas de Cuentas por Pagar y Cuentas por Cobrar de las operaciones financieras de Amazon se enfrentaban a un proceso laborioso al recibir solicitudes de clientes, ya que

EAVE participará en los Tesla Xmas-Family Days, un evento para toda la familia

EAVE se Une a los Tesla Xmas-Family Days: Un Evento para Toda la Familia

El próximo 14 de diciembre, las ciudades de Madrid, Bilbao y Vigo serán sede de los Tesla Xmas-Family Days, un evento exclusivo diseñado para acercar a las familias al innovador ecosistema sostenible de Tesla. Este encuentro, que se desarrollará desde las 10:00 hasta las 14:00 horas, ofrecerá diversas actividades destinadas a involucrar a personas de todas las edades y resaltar

Elena Digital López

Optimización del Autoescaleo para Inferencia de IA Generativa: Implementación del Caché de Contenedores en SageMaker Inference

En el reciente evento AWS re:Invent 2024, Amazon Web Services ha anunciado una actualización significativa para Amazon SageMaker, su plataforma de aprendizaje automático. La nueva funcionalidad, denominada Container Caching, promete revolucionar la eficiencia de escalado de los modelos de inteligencia artificial generativa durante las inferencias. Este avance responde a los crecientes desafíos que plantean la complejidad y el tamaño cada

Elena Digital López

Introducción Del Cargador Rápido De Modelos En SageMaker Inference: Optimización Del Autoscalado De Modelos Lingüísticos – Parte 2

En un reciente giro tecnológico, Amazon ha dado un paso notable en el ámbito de la inteligencia artificial con la implementación de una nueva característica en su servicio Amazon SageMaker, denominada Fast Model Loader. Esta innovación se centra en mejorar la eficiencia en la carga y el escalado de modelos de lenguaje grandes (LLMs), abordando el desafío significativo que representa

Elena Digital López

Introducción de Fast Model Loader en SageMaker Inference: Acelerando la Autoescalabilidad de tus Modelos de Lenguaje Extensos – Parte 1

En el vibrante y siempre cambiante campo de la inteligencia artificial generativa, los modelos de lenguaje de gran tamaño (LLMs) están experimentando una rápida evolución. Estos modelos, que ahora cuentan con cientos de miles de millones de parámetros, requieren vastas cantidades de memoria para funcionar eficientemente. Sin embargo, con este crecimiento también surgen desafíos significativos para los ingenieros que buscan

Elena Digital López

Descubre Ahorros con la Innovadora Funcionalidad de Escalado a Cero en SageMaker Inference

En el evento AWS re:Invent 2024, Amazon sorprendió al público con una nueva y prometedora funcionalidad para sus puntos de inferencia en Amazon SageMaker. Ahora, estos puntos de inferencia pueden escalarse a cero instancias, una capacidad largamente esperada que busca transformar cómo los clientes manejan la inferencia de inteligencia artificial (IA) y el aprendizaje automático (ML) en la nube. Anteriormente,

Scroll al inicio