DeepSeek anunció el lanzamiento de un nuevo modelo experimental conocido como DeepSeek-V3.2-Exp, concebido como “paso intermedio” hacia su próxima generación de arquitecturas de IA.
Presentado públicamente el 29 de septiembre en foros de desarrolladores (Hugging Face y la plataforma china ModelScope), este modelo introduce una innovación técnica destacada llamada DeepSeek Sparse Attention (“atención dispersa” DeepSeek).
Dicha técnica optimiza la forma en que el modelo maneja contextos largos de texto, seleccionando de manera inteligente los fragmentos y tokens más relevantes dentro de entradas extensas para focalizar su poder de cómputo en ellos.
En esencia, V3.2-Exp emplea un módulo denominado “lightning indexer” (indexador relámpago) para priorizar secciones clave del contexto, y un subsistema de “selección fina de tokens” que extrae las piezas de información más pertinentes dentro de esos fragmentos priorizados.
El resultado, según DeepSeek, es la capacidad de procesar textos muy amplios con una carga computacional significativamente menor. Pruebas iniciales realizadas por la compañía indican que, en situaciones de contexto extenso, el costo de una consulta a la API podría reducirse hasta en un 50% gracias a esta optimización.
De hecho, DeepSeek aprovechó el anuncio para comunicar en la red X (antes Twitter) que reducirá sus precios de API en “más del 50%” para los usuarios, reflejando las ganancias de eficiencia del nuevo modelo.
Además de la promesa de ahorro, V3.2-Exp busca mejorar el rendimiento en ciertas tareas, aunque la propia empresa reconoce que serán necesarias evaluaciones independientes para confirmar sus ventajas.
Al igual que versiones anteriores, el modelo se publicó con pesos abiertos bajo una licencia permisiva, estando disponible gratuitamente para la comunidad de IA. Esto ha generado expectativa entre desarrolladores e investigadores, que podrán someter a prueba las afirmaciones de DeepSeek de inmediato.
Analistas del sector señalan que este movimiento de DeepSeek se inscribe en una tendencia reciente de la industria por abaratar los costos de inferencia de los grandes modelos, un aspecto crítico distinto al costo de entrenamiento.
Con sede en Hangzhou, China, DeepSeek ha sido un actor atípico en el auge de la IA, especialmente para quienes enmarcan la carrera tecnológica como una competición geopolítica.
Su modelo R1, lanzado a inicios de 2025, causó revuelo internacional al lograr un desempeño notable con una fracción del presupuesto que emplean sus rivales occidentales.
Aunque aquel impacto inicial no se tradujo en una “revolución” inmediata en las prácticas de entrenamiento de IA, la empresa siguió desarrollando mejoras incrementales.
Este nuevo enfoque de “atención dispersa”, si bien probablemente no genere el mismo estruendo que R1, podría enseñar valiosas lecciones a proveedores de EE. UU. sobre cómo mantener bajos los costos de operación sin sacrificar la capacidad de manejar tareas complejas.
Observadores apuntan que, de lograr replicar el éxito de R1 y la serie V3, DeepSeek-V3.2-Exp pondría presión competitiva tanto sobre rivales locales –como el modelo Qwen de Alibaba– como sobre gigantes estadounidenses tipo OpenAI, siempre que demuestre un alto rendimiento con costes sustancialmente menores.
Por ahora, la comunidad tecnológica internacional sigue de cerca este lanzamiento “intermedio”, a la espera de la siguiente generación “definitiva” que DeepSeek promete en un futuro próximo.

