El 25 de marzo de 2025, la startup china DeepSeek lanzó discretamente DeepSeek V3-0324, una actualización de su modelo DeepSeek V3 orientado a lenguaje natural.
Esta versión, publicada bajo licencia MIT y disponible en Hugging Face, marca un importante avance técnico respecto a sus predecesores.
DeepSeek, fundada en 2023 en Hangzhou por Liang Wenfeng, había presentado en diciembre de 2024 la versión V3 original (671 mil millones de parámetros) como sucesora de la serie V2 lanzada en 2024.
Ahora, con V3-0324, la compañía consolida su misión de IA abierta y de alto rendimiento, introduciendo mejoras significativas en razonamiento, programación y eficiencia, al tiempo que se posiciona como un desafiante serio frente a modelos propietarios de primera línea.
Fecha de lanzamiento y contexto del modelo
DeepSeek V3-0324 se anunció oficialmente el 24 de marzo de 2025, señalado por el sufijo “0324” en su nombre
Este lanzamiento no vino acompañado de un comunicado de prensa tradicional, sino que se liberó directamente en plataformas técnicas, reflejando el enfoque open-source de DeepSeek.
La empresa desarrolladora, DeepSeek Inc., es un laboratorio de IA con sede en China (Hangzhou) que desde 2023 ha ganado atención por publicar modelos masivos de código abierto.
Versiones anteriores incluyen DeepSeek V2 (mayo 2024) y DeepSeek V2.5 (septiembre 2024), que introdujeron innovaciones como la atención latente multIcabeza (Multi-Head Latent Attention, MLA) y la arquitectura de mezcla de expertos (Mixture-of-Experts, MoE).
En diciembre de 2024 llegó DeepSeek V3 con 671B parámetros y 14,8T tokens de entrenamiento, estableciendo una base que ahora ha sido refinada en V3-0324.
DeepSeek V3-0324 se presenta así como una actualización menor en nombre pero de gran impacto, diseñada para mejorar eficiencia y rendimiento manteniendo la filosofía de democratizar la IA mediante apertura y ciencia abierta.
Mejoras técnicas clave en DeepSeek V3-0324
DeepSeek V3-0324 trae cambios técnicos significativos respecto a la versión V3 inicial, orientados a potenciar sus capacidades en tareas complejas y optimizar su uso en entornos prácticos:
- Modelo más grande – 685B de parámetros: El conteo de parámetros aumentó de 671 mil millones a 685 mil millones, permitiendo manejar razonamientos más complejos y respuestas más matizadas. Aun así, gracias a la arquitectura Mixture-of-Experts, solo se activan ~37 mil millones de parámetros para cada consulta, lo que mejora la eficiencia computacional al no utilizar todo el modelo en cada tarea. En esencia, DeepSeek V3-0324 funciona como un “equipo de especialistas” donde cada token en la entrada activa únicamente a los expertos necesarios para esa petición, evitando cómputo redundante.
- Arquitectura MoE optimizada: El modelo mantiene y refina la arquitectura DeepSeek-MoE introducida en V2/V3, es decir, una mezcla de expertos con decenas de expertos especializados. Esta arquitectura implementa un mecanismo inteligente de enrutamiento que selecciona dinámicamente los expertos de red neuronal más adecuados para cada parte del texto. Así, se logra un equilibrio entre potencia y eficiencia, ya que el modelo escala a cientos de miles de millones de parámetros sin requerir que todos participen en cada inferencia.
- Ventana de contexto ampliada: La longitud de contexto se ha ampliado hasta 128.000 tokens (128K), el doble que en la versión anterior, permitiendo al modelo tener en cuenta documentos o conversaciones de gran tamaño en una sola consulta. En la práctica, la API oficial limita el contexto a 64K por cuestiones de rendimiento, pero localmente el modelo puede aprovechar los 128K completos. Esta expansión lo hace ideal para tareas de análisis de texto extenso, como procesar artículos científicos, código fuente largo o múltiples páginas de documentación en una sola pasada.
- Atención Latente Multicabeza (MLA): DeepSeek V3-0324 incorpora una innovación en su mecanismo de atención. La técnica MLA comprime conjuntamente las keys y values de la atención en vectores latentes, reduciendo drásticamente el tamaño de la caché K-V durante la inferencia. Esto significa que incluso con contextos de 100k+ tokens, el modelo maneja la memoria de forma más eficiente, evitando cuellos de botella. En términos prácticos, MLA disminuye el uso de memoria sin sacrificar calidad en las respuestas, optimizando el procesamiento de textos largos.
- Predicción Multi-Token (MTP): Una de las mejoras más llamativas es la introducción de MTP (Multi-Token Prediction). A diferencia de los transformadores autoregresivos tradicionales que generan un token a la vez, DeepSeek V3-0324 puede predecir varios tokens simultáneamente en cada paso de inferencia. Esto rompe un cuello de botella clásico en los LLM, incrementando la velocidad de generación hasta en un 80% según reportes técnicos. En otras palabras, el modelo escribe respuestas más rápidamente manteniendo (e incluso mejorando) la coherencia, lo que es crucial para aplicaciones interactivas en tiempo real.
- Precisión mixta y optimizaciones de inferencia: El modelo emplea aritmética de precisión mixta (por ejemplo FP8 para inferencia), combinando cálculos en diferentes formatos numéricos para ganar velocidad sin pérdida significativa de calidad. Esto, sumado a técnicas de cuantificación (por ejemplo, conversiones a formato GGUF de 4 y 8 bits), hace posible ejecutar V3-0324 en hardware más accesible de lo esperado dada su escala. De hecho, se ha logrado correr inferencias cuantizadas en estaciones de trabajo avanzadas (como un Mac Studio con chip M3 Ultra) a más de 20 tokens/segundo, algo impresionante para un modelo de este tamaño.
En conjunto, estas mejoras arquitectónicas le permiten a DeepSeek V3-0324 escalar de forma inteligente.
El modelo aumentó en tamaño y capacidades, pero al mismo tiempo redujo la carga computacional relativa por token y aceleró la generación.
Esto refleja un diseño sofisticado donde cada innovación (MoE, MLA, MTP) contribuye a un rendimiento superior sin requerir necesariamente infraestructuras prohibitivas.
Comparación de rendimiento con versiones anteriores y competidores
Mejora frente a V3 y versiones previas
Aunque DeepSeek V3-0324 fue descrito oficialmente como una «actualización menor» de V3, las evaluaciones independientes revelan saltos sustanciales en rendimiento respecto a la versión anterior.
En benchmarks internos, V3-0324 superó consistentemente a V3 (2024) en múltiples tareas:
- En el benchmark de conocimiento multitarea MMLU-Pro, pasó de un 75,9% a 81,2% de aciertos, ganando más de 5 puntos porcentuales. Esta métrica refleja una mayor capacidad del modelo para responder preguntas de diversas áreas (historia, ciencia, etc.) correctamente.
- En GPQA (General Physics/Problem QA, un test de preguntas de conocimiento), subió de 59,1% a 68,4%, una mejora de más de 9 puntos.
- En el exigente examen matemático AIME (American Invitational Mathematics Exam), su puntuación saltó de 39,6% a 59,4%, casi 20 puntos más que la versión previa. Este incremento notable sugiere una gran mejora en la capacidad de resolver problemas matemáticos de competición.
- De forma similar, en LiveCodeBench (evaluación de habilidades de codificación en vivo) pasó de 39,2% a 49,2% (+10 puntos), indicando un avance en generación de código y depuración en tiempo real.
Estos datos cuantitativos confirman que V3-0324 no solo incrementó su escala, sino que tradujo esos recursos adicionales en mejor desempeño real.
Desarrollos particulares como el MTP y mejoras en el entrenamiento lograron elevar significativamente el razonamiento lógico, la capacidad de programación y la resolución de problemas matemáticos del modelo.
Los comentarios iniciales de la comunidad destacaron que tareas antes problemáticas para V3 ahora son manejadas con mayor facilidad por V3-0324, rompiendo la idea de que sería una mera actualización menor.
En suma, la nueva versión se posiciona claramente por encima de sus predecesoras V3 y V2 en todos los ejes evaluados (conocimiento general, código, matemáticas, etc.), reduciendo la brecha que la separa de los referentes líderes.
Frente a modelos competidores (GPT-4, Gemini, Claude, etc.)
DeepSeek V3-0324 ha irrumpido en la escena como el modelo open-source con mejor rendimiento en tareas “no de razonamiento”, compitiendo de tú a tú con algunos de los mejores modelos propietarios.
En el Artificial Analysis Intelligence Index (AAII) –un índice global que compara desempeño en múltiples dominios– V3-0324 alcanzó la máxima puntuación entre los modelos sin razonamiento explícito, superando a Google Gemini 2.0 Pro, Anthropic Claude 3.7 Sonnet e incluso al Llama 3.3 (70B) de Meta.
Según este informe, DeepSeek V3-0324 aventajó en 7 puntos a dichos rivales en los indicadores clave, estableciendo un nuevo estándar para modelos abiertos en tareas de respuesta directa.
A pesar de su enfoque “generalista” (no centrado exclusivamente en razonamiento profundo), V3-0324 alcanza o excede a los gigantes cerrados en diversos tests.
Por ejemplo, en el benchmark de comprensión DROP (Descent-Reading for Open-domain QA), obtuvo 91,6% de rendimiento, comparado con 83,7% de GPT-4 (referencia de OpenAI) y 88,3% de Claude 3.5.
Esto demuestra que, en tareas de comprensión y cálculo factual bajo presión de tiempo, el modelo open-source de DeepSeek puede igualar e incluso superar a las ofertas de OpenAI y Anthropic.
Asimismo, en evaluaciones de programación como HumanEval, la versión V3 original ya lograba ~82,6% (pass@1) –un nivel equiparable o superior al de GPT-4o y Claude 3.5 en ese momento– y V3-0324 mantiene esa ventaja competitiva en código.
De hecho, se reporta que V3-0324 resuelve problemas avanzados de cálculo y coding con una sofisticación comparable a GPT-4, atribuido a su integración de técnicas de razonamiento durante el entrenamiento.
No obstante, cabe matizar que en tareas de razonamiento explícito de múltiples pasos (donde se requiere elaborar una cadena de pensamientos interna), los modelos especializados siguen llevando la delantera.
El propio DeepSeek R1 (otra línea de la compañía enfocada 100% en razonamiento) aún supera a V3-0324 en pruebas que demandan explicaciones detalladas.
Del mismo modo, los últimos modelos con “razonamiento” de OpenAI o Alibaba quedan por encima en ese subcampo específico.
Sin embargo, lo importante es que V3-0324 reduce significativamente la brecha: por primera vez un modelo de pesos abiertos se acerca al rendimiento de GPT-4 en muchas métricas, mostrando que la comunidad open-source puede desafiar el dominio de los sistemas cerrados en aplicaciones prácticas.
Este logro ha sido calificado como un “cambio de paradigma” en eficiencia y accesibilidad de IA, poniendo en aviso a gigantes como OpenAI sobre la rapidez de evolución de sus contrapartes abiertas.
Resultados en benchmarks públicos (MMLU, HumanEval, MATH, etc.)
Las mejoras mencionadas se reflejan en puntuaciones sobresalientes en benchmarks públicos ampliamente reconocidos por la comunidad de IA.
A continuación, algunos hitos de DeepSeek V3-0324 en estas evaluaciones estandarizadas:
- MMLU (Massive Multitask Language Understanding): Obtuvo ~81% de precisión promedio, mejorando la marca anterior de ~76% de V3 y acercándose al nivel de GPT-4. MMLU evalúa conocimiento en 57 áreas académicas; un 81% coloca a V3-0324 por encima de prácticamente todos los modelos open-source previos en esta prueba, e incluso compite con modelos cerrados de última generación.
- HumanEval (Python Coding Challenges): Al evaluar la generación de código correcto en problemas de programación, DeepSeek logró alrededor de 82-83% en pass@1, superando ligeramente a Claude 3.5 y otros modelos como Llama 3, y acercándose al desempeño de GPT-4 en esta métrica. Este resultado confirma la fortaleza de V3-0324 en tareas de coding, equiparando su habilidad a la de los mejores modelos generalistas en la resolución de problemas de software.
- MATH (Competición de problemas matemáticos): En conjuntos de problemas matemáticos de nivel olímpico, DeepSeek V3 ha alcanzado aproximadamente 90% de aciertos, el valor más alto registrado entre los LLM evaluados. Esto implica que puede resolver con éxito ejercicios complejos de matemáticas avanzadas, un ámbito tradicionalmente desafiante para las IA. Supera así a GPT-4 en este benchmark específico (donde GPT-4 rondaría ~76-85%) y marca un nuevo techo para modelos abiertos en matemáticas.
- Otros Benchmarks: En pruebas de live coding y depuración como LiveCodeBench, ya mencionadas, V3-0324 demuestra su progreso con respecto a modelos anteriores (49% frente ~39% de V3). En GPQA (preguntas de conocimiento general), su ~68% lo coloca muy cerca del tope absoluto logrado por modelos cerrados. Adicionalmente, en evaluaciones como DROP (razonamiento de lectura) y HellaSwag (sentido común), DeepSeek figura entre los puntajes líderes de su categoría, confirmando la solidez de su comprensión de lenguaje y mundo real. Finalmente, en el índice global Chatbot Arena (conversacional), las comparativas previas situaban a DeepSeek V3 con ~95 de puntaje relativo, empatando o superando a muchos sistemas comerciales en calidad de respuesta.
En conjunto, estos resultados pintan un cuadro claro: DeepSeek V3-0324 alcanza o supera el estado del arte en múltiples benchmarks, al menos dentro del ecosistema open-source.
Aunque persisten áreas puntuales donde modelos cerrados ultra-entrenados (como GPT-4) mantienen ventaja, la diferencia se ha estrechado dramáticamente.
Para la comunidad investigadora, disponer de un modelo abierto que logra >80% en MMLU y HumanEval, y ~90% en MATH, es un desarrollo muy relevante, ya que habilita experimentación y mejoras sobre una base de rendimiento casi tan alta como la de los líderes propietarios.
Capacidades lingüísticas: multilingüismo y desempeño en español
Como modelo de propósito general entrenado con una ingente cantidad de datos textuales (~14.8 billones de tokens), DeepSeek V3-0324 posee capacidades multilingües notables. Si bien buena parte de su entrenamiento estuvo centrado en inglés y chino (lenguas dominantes en la web y en los esfuerzos de DeepSeek), también abarcó una diversidad de idiomas –incluido el español– dado el volumen masivo y global de sus datos. Los desarrolladores indican que V3 ha sido expuesto a textos en numerosos idiomas y que sus habilidades lingüísticas son robustas y equilibradas. De hecho, en un benchmark políglota diseñado para probar comprensión en varios idiomas, V3-0324 logró alrededor de 55% de desempeño, quedando apenas por detrás del modelo Claude 3.7 (Sonnet) que obtuvo el primer puesto en ese test. Este resultado sugiere una fuerte retención de conocimiento multilingüe y capacidad de resolución de problemas en distintos idiomas, posicionando a DeepSeek entre los mejores sistemas abiertos también en este aspecto.
En cuanto al español específicamente, no se ha reportado públicamente una métrica aislada de precisión para este idioma, pero podemos extrapolar su rendimiento.
Modelos de su categoría (por ejemplo Llama 2 o GPT-3.5) generalmente alcanzan alta calidad en español gracias a la transferencia desde el inglés y datos bilingües.
DeepSeek V3-0324, por su escala y entrenamiento diverso, se espera que ofrezca respuestas en español con un alto grado de coherencia y exactitud, muy cercanas a las obtenidas en inglés. Usuarios hispanohablantes tempranos han indicado que el modelo puede redactar textos en español fluidos y con buena comprensión contextual, sin problemas notables de gramática o sentido.
Además, su fuerte desempeño en traducción automática ha sido destacado: estudios independientes señalan que la traducción multilingüe de DeepSeek es competitiva con soluciones comerciales, aunque recomiendan evaluaciones más profundas por expertos lingüísticos.
Por otra parte, la versión V3-0324 introdujo mejoras explícitas en estilo y calidad de escritura en chino (uno de sus mercados objetivo), lo cual indica que los desarrolladores refinaron el modelo para adaptarse mejor a distintos idiomas y registros culturales.
Es razonable suponer que muchas de esas mejoras de estilo y consistencia también benefician indirectamente al español.
En resumen, DeepSeek V3-0324 es plenamente multilingüe. Puede comprender y generar texto en múltiples idiomas, y su rendimiento en español –si bien no afinado específicamente como en chino– debería ser muy alto para un modelo open-source, rivalizando con los mejores modelos generales en la mayoría de tareas (traducción, resumen, preguntas y respuestas) en nuestro idioma.
Esto lo vuelve una herramienta atractiva para desarrolladores e investigadores hispanos que busquen una IA grande capaz de interactuar en español con precisión.
Aplicaciones potenciales en investigación y desarrollo técnico
Orientado a un público de investigadores y desarrolladores, DeepSeek V3-0324 abre un amplio abanico de aplicaciones técnicas y casos de uso gracias a sus capacidades mejoradas.
A continuación, se destacan algunas áreas donde este modelo puede aportar valor:
- Asistentes conversacionales y chatbots avanzados: Por su rapidez de respuesta y manejo de lenguaje natural, V3-0324 es ideal para construir chatbots inteligentes en entornos de atención al cliente, tutorías educativas o asistentes personales. Puede sostener conversaciones coherentes en tiempo real y en múltiples idiomas, incluyendo español, lo que permite automatizar soporte a usuarios manteniendo calidad humana. Su alta velocidad (hasta decenas de tokens por segundo) lo hace apto para aplicaciones interactivas con baja latencia, y funciones como la generación de traducción simultánea o la explicación de contenidos sobre la marcha están dentro de su alcance.
- Generación y depuración de código fuente: Las mejoras en programación se traducen en un excelente desempeño como ayudante de codificación. DeepSeek V3-0324 resuelve problemas de programación competitivos y puede sugerir código correcto en varios lenguajes (Python, Java, C++, etc.), superando incluso a modelos como Codex en ciertos retos. Esto habilita su uso en entornos de desarrollo asistido por IA: desde autocompletar funciones y scripts, hasta debugar errores o generar algoritmos a partir de descripciones en lenguaje natural. Empresas de software podrían integrarlo en IDEs o sistemas de revisión para aumentar la productividad de los desarrolladores.
- Resolución de problemas científicos y matemáticos: Dada su capacidad para razonamiento lógico-matemático mejorado, V3-0324 puede emplearse como apoyo en investigación científica, ingeniería y matemáticas. Por ejemplo, puede ayudar a demostrar pasos en problemas de álgebra, calcular soluciones aproximadas a ecuaciones complicadas, o verificar la consistencia lógica en un argumento científico. Si bien para razonamientos extremadamente complejos la versión R1 es superior, V3-0324 puede manejar gran cantidad de tareas académicas de forma directa –desde contestar preguntas de examen tipo MMLU, hasta asesorar en experimentos de pensamiento o resumir hallazgos de papers de forma accesible.
- Procesamiento y análisis de documentos extensos: Gracias a su enorme ventana de 128K tokens, este modelo resulta valioso para análisis de textos largos. En investigación, podría digerir un conjunto de artículos o un informe extenso y entregar un resumen consolidado. En el ámbito empresarial o legal, puede revisar contratos, reportes o documentación técnica voluminosos en una sola pasada, extrayendo puntos clave. Esto abre la puerta a herramientas de búsqueda semántica y RAG (Retrieval-Augmented Generation) donde DeepSeek responde a consultas basadas en una base de conocimiento grande proporcionada en el prompt. Por ejemplo, combinándolo con una base vectorial, se puede construir un sistema de pregunta-respuesta sobre documentación corporativa en cuestión de minutos.
- Integración en agentes y herramientas automatizadas: DeepSeek V3-0324 soporta características como llamadas a funciones, formato de salida JSON estructurado y completado de texto con instrucciones insertadas (FIM, Fill-In-the-Middle). Esto lo hace fácil de integrar en flujos de trabajo automatizados y agentes de IA. Por ejemplo, puede conectarse vía API para que, dado cierto input, ejecute cálculos a través de una función externa (usando su capacidad de function calling con sintaxis estándar). Del mismo modo, puede rellenar automáticamente plantillas o código incompleto (gracias a FIM), facilitando su uso en generación de emails, informes técnicos o incluso diseño de frontends web. De hecho, uno de los focos de esta versión fue mejorar la creación de interfaces web y frontends de juegos, generando código HTML/CSS/JS más limpio y visualmente atractivo. Desarrolladores pueden aprovechar esto para prototipado rápido de aplicaciones con ayuda de la IA.
En esencia, DeepSeek V3-0324 actúa como un modelo multipropósito de nivel avanzado, que puede encajar en numerosos escenarios: desde ser el núcleo de un asistente virtual multilingüe, hasta un motor de respuesta en sistemas de soporte, una herramienta de ayuda para investigadores analizando datos, o una pieza en la construcción de agentes autónomos de IA.
Su combinación de razonamiento competente, habilidades de código, manejo de lenguaje natural y gran contexto lo hacen particularmente versátil para tareas técnicas exigentes que antes requerían múltiples modelos especializados.
Accesibilidad y disponibilidad del modelo
Una de las mayores ventajas de DeepSeek V3-0324 es su disponibilidad abierta y flexible para la comunidad.
A diferencia de modelos de punta como GPT-4 o Claude, que solo se pueden utilizar mediante API de pago y cuyos pesos son cerrados, DeepSeek V3-0324 se ha lanzado como modelo open-source de “pesos abiertos”.
Concretamente, sus pesos completos (685B) están publicados en Hugging Face bajo una licencia MIT permisiva, lo que permite su uso, modificación y distribución libre con fines tanto académicos como comerciales.
Cualquier investigador o desarrollador puede descargar el modelo (formato safetensors) y ejecutarlo en su propia infraestructura, sin coste de licencia.
Evidentemente, por su tamaño colosal, correr DeepSeek V3-0324 localmente requiere recursos de hardware significativos.
Según la documentación, la inferencia en precisión FP8 de todo el modelo requiere más de 700 GB de VRAM, por lo que en su forma completa está pensado para centros de datos o clústeres GPU de gran escala (de hecho, DeepSeek entrenó este modelo en un clúster de 32.000 GPU A100).
Sin embargo, gracias a técnicas de cuantificación y optimización, es posible cargarlo en entornos más asequibles: por ejemplo, una versión cuantizada a 4 bits ocupa ~352 GB en disco y ha logrado ejecutarse con ~<200 W de consumo, combinando memoria de GPUs de gama alta y RAM compartida.
Esto ha permitido correr el modelo en estaciones de trabajo avanzadas (p.ej., equipos con múltiples GPUs o en nuevas Macs con chips M3 Ultra de gran memoria unificada) a velocidades sorprendentes de hasta 20 tokens/segundo.
En suma, aunque alcanzar su desempeño pleno sigue requiriendo hardware potente, la comunidad ya está explorando configuraciones para democratizar su inferencia, acercándolo gradualmente a entornos de laboratorio e incluso de entusiastas particulares.
Para quienes no dispongan del hardware necesario, DeepSeek ofrece alternativas en la nube. El modelo está integrado en la plataforma DeepSeek Chat y su API, que permite utilizarlo de forma similar a los servicios de OpenAI.
De hecho, la API de DeepSeek es compatible en gran medida con la de OpenAI, facilitando la migración de aplicaciones existentes hacia este modelo.
Existen endpoints para generar texto con V3-0324 simplemente enviando solicitudes a los servidores de DeepSeek (con esquemas de precio significativamente más bajos que los de GPT-4).
Asimismo, proyectos de terceros como OpenRouter brindan acceso unificado a modelos open-source, incluyendo DeepSeek V3-0324, mediante claves de API únicas.
Adicionalmente, hay demostraciones públicas en línea y entornos colaborativos donde probar el modelo, gracias a la naturaleza abierta de su lanzamiento.
En cuanto a software, el ecosistema también ha facilitado la adopción: se han liberado implementaciones optimizadas en frameworks populares (Transformers de Hugging Face, vLLM, etc.) y contenedores listos para desplegar.
Herramientas como BentoML han incluido ejemplos de despliegue para DeepSeek, demostrando cómo self-hostear una instancia tipo ChatGPT con V3-0324.
Todo esto significa que la accesibilidad del modelo es amplia: desde un investigador que puede bajarse los pesos y experimentar libremente en su propia máquina, hasta empresas que sin incurrir en los altos costes de OpenAI pueden integrar este modelo open-source en sus productos.
En resumen, DeepSeek V3-0324 está al alcance de la comunidad IA en un grado inédito para un modelo de su calibre. La convergencia de su potencia cercana a los líderes cerrados con una filosofía de apertura total habilita un sinfín de posibilidades de innovación.
Investigadores pueden examinar, auditar y modificar el modelo para propósitos específicos, fomentando la transparencia científica.
Desarrolladores pueden utilizarlo sin barreras de pago por uso, simplemente afrontando el desafío técnico de la infraestructura (que con el tiempo seguirá disminuyendo gracias a la optimización comunitaria).
Este equilibrio de alto rendimiento y apertura convierte a DeepSeek V3-0324 en un hito técnico y, potencialmente, en una pieza clave de muchas aplicaciones de inteligencia artificial de próxima generación.