Logo Yulieth Martínez

AWS Nova Forge: El regalo navideño para crear tus propios LLMs sin morir en el intento

diciembre 3, 2025 | -

Olvídate de entrenar desde cero. AWS lanza Nova Forge y mejora Bedrock para que startups y empresas en LatAm por fin puedan tener su «propio» modelo sin hipotecar la oficina.


AWS acaba de soltar una bomba en re:Invent 2025 que se siente como regalo de Navidad adelantado para los equipos de ingeniería: un enfoque masivo en Custom LLMs (modelos de lenguaje personalizados). La joya de la corona es Nova Forge, un servicio que permite a las empresas tomar modelos «a medio cocinar» (checkpoints intermedios) o pre-entrenados y terminarlos de cocinar con sus propios datos, ahorrando meses de cómputo. Además, potenciaron Bedrock con capacidades de destilación de modelos (hacer que un modelo gigante enseñe a uno pequeño y barato) y mejoras en Custom Model Import. Para Colombia y la región, esto cambia el juego: ya no necesitas el presupuesto de Silicon Valley para tener una IA que entienda de verdad tu negocio, tu jerga local o tu regulación financiera.


Qué pasó y por qué importa

Los Hechos: AWS anunció hoy (3 de diciembre de 2025) una serie de herramientas enfocadas en simplificar la creación de modelos personalizados, admitiendo que el enfoque «talla única» (one-size-fits-all) tipo GPT-4 no sirve para todo el mundo corporativo.

  1. Lanzamiento de Nova Forge: Un entorno gestionado para ajustar y finalizar el entrenamiento de modelos fundacionales (incluida la familia Amazon Nova y otros open source).
  2. Destilación de Modelos en Bedrock: Ahora puedes usar un modelo «profesor» (grande, costoso) para entrenar un modelo «alumno» (pequeño, rápido) con tus datos específicos de forma automatizada.
  3. Evaluación Automatizada (AgentCore): Herramientas para auditar la seguridad y alucinaciones de estos modelos personalizados antes de salir a producción.

Por qué importa: Porque el hype de usar un chatbot genérico se acabó. Las empresas serias se dieron cuenta de que necesitan modelos que no alucinen (literalmente) con la TRM del peso colombiano ni confundan una tutela con una demanda. AWS está bajando la barrera técnica de «Imposible» a «Difícil pero lograble» para que los equipos de ingeniería dejen de ser meros consumidores de API y pasen a ser dueños de su IP (Propiedad Intelectual).


Análisis Técnico

Aquí es donde la cosa se pone técnica («geek out» moment).

  • Arquitectura de Nova Forge: Piénsalo como un pipeline de fine-tuning glorificado y seguro. En lugar de montar tu clúster de GPUs con Kubernetes (un dolor de cabeza garantizado), AWS te da la infraestructura lista. Lo interesante es el acceso a checkpoints inestables o intermedios. Normalmente, solo recibes el modelo final «congelado». Nova Forge te deja entrar un paso antes, permitiendo inyectar conocimiento de dominio profundo (ej. leyes tributarias colombianas) durante las fases finales del pre-entrenamiento, no solo como un parche al final (LoRA/QLoRA).
  • Model Distillation: Funciona capturando los logits (las probabilidades de salida) del modelo maestro y usándolos para calcular la función de pérdida del modelo estudiante. AWS abstrajo toda la matemática compleja. Tú solo subes el dataset de tus prompts típicos, y Bedrock se encarga de transferir el «razonamiento» del modelo caro al barato.
  • Límites: No es magia. Si tus datos son basura, tu modelo personalizado será basura (Garbage In, Garbage Out). Y el throughput (capacidad de procesamiento) sigue dependiendo de la disponibilidad de chips Trainium2 o GPUs, que en regiones como us-east-1 vuelan, pero en sa-east-1 (São Paulo) a veces escasean.

Impacto para Colombia / Bogotá / LatAm

Esto es música para los oídos de los CTOs en la región por tres razones:

  1. Adiós al «Gringo-centrismo»: Los modelos genéricos suelen fallar con matices culturales o legales nuestros. Un banco en Bogotá ahora puede destilar un modelo específicamente entrenado con la regulación de la Superfinanciera, reduciendo el riesgo de respuestas erradas que sí daría un modelo entrenado solo con data de EE.UU.
  2. Costos en Pesos (indirectamente): Al usar destilación, puedes correr tus cargas de trabajo diarias en modelos pequeños (tipo Llama 3 8B o Amazon Nova Micro) que cuestan una fracción de un modelo frontier. Para una startup que factura en COP y paga AWS en USD, bajar la factura de inferencia un 60-70% es vital.
  3. Talento Local: No necesitamos PhDs en Deep Learning que cobren $300k USD al año. Con estas herramientas low-code o mid-code, un buen equipo de ingenieros de software colombianos (que son unos tesos) puede implementar pipelines de ML ops sin ser científicos de datos puros.

Riesgos y Trade-offs

No todo es color de rosa. Ojo con esto:

  • El precio del «regalo»: Nova Forge no es barato. Se habla de un fee de entrada o suscripción anual (rumores de ~$100k/año para acceso enterprise full) más el cómputo. Para una PyME, sigue siendo prohibitivo; es herramienta para scale-ups o corporativos (Bancolombia, Rappi, Ecopetrol).
  • Vendor Lock-in (El matrimonio forzoso): Si entrenas y destilas tu modelo usando las herramientas propietarias de AWS y sus chips Trainium, sacar ese modelo para correrlo en Azure o on-premise va a ser un camello (muy difícil). Te estás casando con la infraestructura de Jeff Bezos.
  • Seguridad de Datos: Aunque AWS promete que tus datos no entrenan sus modelos base, la responsabilidad de qué datos subes al fine-tuning es tuya. Si subes bases de datos de clientes sin anonimizar para «entrenar mejor», estás a un hackeo de un escándalo de privacidad masivo.

Checklist Accionable (Para CTOs y Arquitectos)

  • Auditoría de Costos: ¿Gastas más de $5,000 USD/mes en tokens de LLMs? Si no, ni mires esto todavía; sigue con prompt engineering.
  • Limpieza de Datos: Pon a tus data engineers a limpiar datasets históricos. Sin datos limpios y estructurados, Nova Forge es un pisapapeles caro.
  • Prueba de Concepto (PoC) de Destilación: Selecciona un caso de uso repetitivo (ej. clasificación de tickets de soporte) y prueba destilar un modelo pequeño. Mide latencia vs. costo.
  • Revisión Legal: Habla con compliance. ¿Puedes legalmente usar los datos de tus usuarios para re-entrenar un modelo? (En Colombia, la ley de Habeas Data es estricta).
  • Evaluar Infra: ¿Tienes los quotas de GPU/Trainium necesarios en tu cuenta? Pídelos ya, que en diciembre se agotan.

Mini-glosario

  • Distillation (Destilación): Proceso de transferir conocimiento de un modelo grande y complejo (profesor) a uno más pequeño y eficiente (estudiante).
  • Checkpoint: Una «foto» del estado de un modelo en un punto específico de su entrenamiento.
  • Fine-tuning: Ajuste fino. Tomar un modelo que ya sabe hablar y enseñarle una tarea específica (ej. medicina, derecho).
  • Trainium: El chip diseñado por AWS específicamente para entrenar modelos, rival de las GPUs de Nvidia.
  • Inferencia: El momento en que el modelo ya entrenado responde a una pregunta (es lo que pagas día a día).

Fuentes

  • [TechCrunch / Rebecca Szkutak, 2025] – AWS doubles down on custom LLMs.
  • [AWS Blog / Swami Sivasubramanian, 2024-2025] – Top announcements of AWS re:Invent.
  • [Ecosistema Startup, 2025] – AWS facilita la creación de LLM con Nova Forge.