Ángel Carrero

Elena Digital López

Implementación de Pipelines de Amazon SageMaker usando AWS Controllers para Kubernetes

Kubernetes es una plataforma de orquestación popular para la gestión de contenedores, ideal para manejar cargas de trabajo variables típicas de aplicaciones de machine learning (ML) gracias a sus capacidades de escalabilidad y balanceo de carga. Los ingenieros de DevOps suelen utilizar Kubernetes para gestionar y escalar aplicaciones de ML. Sin embargo, antes de que un modelo de ML esté

Belén Garmendiaz

Iniciativa de Humanismo Digital para un Futuro Centrado en las Personas

Una nueva propuesta del consultor y divulgador Jesús García Fernández busca ayudar a individuos y organizaciones a integrar la inteligencia artificial e innovación tecnológica, potenciando a las personas. En un contexto donde la tecnología avanza rápidamente, nace una propuesta que busca equilibrar el progreso tecnológico con los valores humanos fundamentales. La iniciativa integral de humanismo digital. Este proyecto multidimensional tiene

Elena Digital López

Construcción de una aplicación de descripción de imágenes generativas con Claude 3.5 Sonnet de Anthropic en Amazon Bedrock y AWS CDK

Crear descripciones de imágenes es una necesidad común en muchas industrias. Una de las aplicaciones más frecuentes es la etiquetación de imágenes con metadatos descriptivos para mejorar la capacidad de búsqueda en los repositorios de contenido de una organización. Las plataformas de comercio electrónico también utilizan descripciones de imágenes generadas automáticamente para proporcionar a los clientes detalles adicionales sobre los

Elena Digital López

Procesa documentos a gran escala con LangChain, PySpark, Amazon SageMaker Studio y Amazon EMR Serverless

Aprovechar el poder del big data se ha vuelto fundamental para las empresas que buscan obtener una ventaja competitiva. Desde la obtención de conocimientos hasta la potenciación de aplicaciones impulsadas por inteligencia artificial generativa, la capacidad de procesar y analizar grandes conjuntos de datos de manera eficiente es una capacidad vital. Sin embargo, gestionar la compleja infraestructura necesaria para las

Scroll al inicio