Optimización De Modelos De Razonamiento: DeepSeek Potenciado Con Prompting En Amazon Bedrock

Elena Digital López

Los modelos de inteligencia artificial DeepSeek-R1 han irrumpido en el mercado tecnológico, destacando por su capacidad de razonamiento avanzado. Disponibles en Amazon Bedrock Marketplace y Amazon SageMaker JumpStart, estos modelos han sido testigos de un rendimiento impresionante en pruebas matemáticas exigentes como AIME-2024 y MATH-500. Además, se han mostrado competitivos frente a avances tecnológicos de la talla de Claude Sonnet 3.5 de Anthropic, GPT-4 y OpenAI O1.

Durante su desarrollo, los investigadores descubrieron que el modelo DeepSeek-R1-Zero mejora su capacidad de resolución de tareas al proporcionarle más tiempo para el pensamiento reflexivo. Sin embargo, un desafío significativo es la utilización eficiente de los «tokens de pensamiento» durante la inferencia, un factor crucial dado el costo de generarlos antes de llegar a una respuesta.

Para superar este obstáculo, se ha recurrido a la optimización de prompts en Amazon Bedrock, demostrando ser una solución viable. Un caso de estudio involucra un problema matemático relacionado con un perro llamado Nate, donde se observó que la limitación de tokens a veces impide al modelo alcanzar una conclusión satisfactoria. Ampliar el límite de tokens de 2,048 a 4,096 permitió un razonamiento más amplio y una salida más precisa.

La optimización de prompts ha demostrado ser especialmente efectiva al aplicarse al «Último Examen de la Humanidad» (HLE), una serie de preguntas complejas que desafían los conocimientos profundos más allá de las búsquedas simples en internet. En este contexto, la técnica ha logrado reducir los tokens de pensamiento en un 35% sin comprometer la respuesta correcta. Aplicada a 400 preguntas del HLE, la precisión se elevó del 8.75% al 11%, al tiempo que disminuyó el tiempo y el costo de procesamiento.

Estos avances subrayan el potencial de la optimización de prompts como una herramienta esencial para el despliegue eficiente de modelos de razonamiento en entornos productivos. En un futuro donde los modelos de inteligencia artificial siguen avanzando, técnicas como esta serán fundamentales para asegurar aplicaciones prácticas de alto rendimiento y precisión.

Scroll al inicio