DeepSeek AI: Datos clave, cifras y estadísticas de crecimiento

DeepSeek Chat es un modelo de inteligencia artificial de rápido ascenso que ha sacudido el panorama tecnológico en tiempo récord.

Lanzado por una startup china a inicios de 2025, este asistente de IA de código abierto logró alcanzar el primer puesto en las tiendas de aplicaciones en cuestión de días, superando incluso a la app de ChatGPT de OpenAI.

Su debut generó tal impacto que llegó a provocar una caída cercana a 1 billón de dólares en valor de mercado de empresas tecnológicas (por ejemplo, las acciones de Nvidia cayeron hasta 17% tras la noticia).

¿Cómo logró DeepSeek este crecimiento explosivo y en qué se diferencia de sus competidores? A continuación, presentamos los hechos, cifras y hitos clave detrás de la meteórica trayectoria de DeepSeek AI.

Crecimiento de usuarios y adopción global

DeepSeek AI alcanzó 22,15 millones de usuarios activos diarios en enero de 2025, reflejando su adopción viral a nivel mundial.

DeepSeek se ha convertido en una de las aplicaciones de consumo de más rápido crecimiento en la historia.

Tras el lanzamiento público de su chatbot gratuito en enero de 2025, su base de usuarios despegó vertiginosamente.

En solo 14 días alcanzó el primer millón de usuarios (aunque ChatGPT lo logró en 5 días), y en 20 días superó los 10 millones – el doble de rápido que lo que tardó ChatGPT en llegar a esa cifra.

En otras palabras, una vez que el boca a boca comenzó, la adopción de DeepSeek aceleró incluso más rápido que la de ChatGPT.

Este ritmo la coloca entre las aplicaciones virales más destacadas, comparable a fenómenos como Threads en términos de velocidad de crecimiento.

Al mismo tiempo, la aplicación móvil de DeepSeek dominaba las listas de descargas.

En la última semana de enero de 2025 alcanzó el #1 en la App Store de iOS en 52 países (incluyendo EE.UU.) y subió puestos rápidamente en Google Play.

Para el 27 de enero de 2025, acumulaba más de 2,6 millones de descargas móviles combinadas (iOS + Android), habiendo saltado de 1 millón a 2,6 millones en un solo fin de semana gracias a su tendencia viral.

Más del 80% de sus descargas ocurrieron en apenas una semana, demostrando un efecto de bola de nieve en su adopción.

Aproximadamente 15 días después del lanzamiento, la app superó los 10 millones de descargas globales, y a inicios de febrero de 2025 ya se estimaba que sobrepasaba los 20 millones de instalaciones.

Todo esto se tradujo en una base de usuarios activos diarios extraordinaria: más de 22 millones de usuarios cada día a nivel mundial para finales de enero.

En cuanto a usuarios activos mensuales, alcanzó unos 33,7 millones en su primer mes, convirtiéndose en la 4.ª aplicación de IA más popular del mundo por conteo de usuarios.

Alcance internacional: Aunque DeepSeek nació en China, su adopción ha sido verdaderamente global.

De hecho, China representaba solo alrededor del 23% de las descargas totales a finales de enero de 2025.

Otros países han contribuido masivamente a su crecimiento: por ejemplo, el 15% de las descargas provinieron de Estados Unidos y un 6% de Egipto.

us mercados más grandes combinados fueron China, India e Indonesia (juntos sumando ~51% de usuarios) pero también tuvo amplia acogida en Norteamérica, Europa y Medio Oriente.

Esta adopción global demuestra que la demanda por herramientas de IA potentes y gratuitas se extiende por múltiples idiomas y regiones, no solo en China.

Cabe destacar que este crecimiento explosivo también enfrentó desafíos.

A finales de enero, la propia DeepSeek reportó haber sufrido ataques maliciosos a gran escala, lo que les llevó a limitar temporalmente el registro de nuevos usuarios fuera de China para estabilizar la plataforma.

Aun así, la tendencia ascendente de sus usuarios dejó claro que DeepSeek había logrado penetrar el mercado mundial de forma impactante en muy poco tiempo.

¿Qué es DeepSeek y qué la hace especial?

DeepSeek AI es un laboratorio independiente de investigación en IA fundado en 2023 por Liang Wenfeng bajo el paraguas del fondo de inversión High-Flyer en Hangzhou, China.

A diferencia de muchos proyectos occidentales, DeepSeek adoptó desde el inicio un enfoque de código abierto y acceso gratuito para sus modelos.

Esto significa que no solo cualquiera puede usar su chatbot sin costo, sino que incluso han publicado los pesos de sus modelos para que la comunidad pueda examinarlos y construir sobre ellos – un marcado contraste con los modelos propietarios y de pago de empresas como OpenAI o Google.

Esta apertura, combinada con técnicas de entrenamiento innovadoras, permitió a DeepSeek desarrollar modelos de tamaño enorme a una fracción del costo típico.

Por ejemplo, la compañía afirma que entrenó su modelo insignia DeepSeek-V3 de 2024 (671 mil millones de parámetros) con solo ~6 millones de dólares, frente a los ~$100 millones estimados que costó entrenar GPT-4 de OpenAI.

En la práctica, esto supuso lograr un rendimiento comparable gastando solo ~1/18 de los recursos financieros.

Para alcanzar tal eficiencia, DeepSeek empleó alrededor de 2.000 GPUs Nvidia H800 y acumuló unos 2,78 millones de horas de computación en el entrenamiento de sus modelos – una hazaña técnica considerable pese al presupuesto reducido.

Desde su creación, DeepSeek ha lanzado múltiples modelos de lenguaje de última generación en menos de dos años, cada uno empujando los límites en tamaño o capacidad.

Su línea evolutiva incluye, entre otros:

  • DeepSeek Coder (Nov 2023): primer modelo de la empresa, enfocado a asistencia en programación, con versiones de 1B hasta 33B parámetros entrenadas mayormente en código.
  • DeepSeek LLM 67B (Dic 2023): primer modelo generalista (67.000M de parámetros), capaz de aproximar el desempeño de GPT-4 en muchas tareas lingüísticas.
  • DeepSeek-V2 236B (Mayo 2024): modelo de 236 mil millones de parámetros que introdujo una arquitectura Mixture-of-Experts (MoE) innovadora, permitiendo activar solo ~21B parámetros por consulta. Este diseño mejoró drásticamente la eficiencia de inferencia y redujo costos de entrenamiento, logrando resultados punteros con menos recursos.
  • DeepSeek-Coder V2 (Jul 2024): segunda versión del modelo de código, también de 236B parámetros, destacada por su ventana de contexto ampliada a 128.000 tokens (permite entradas inmensas) y por soportar más de 300 lenguajes de programación. Esto le permite analizar archivos de código completos o proyectos enteros de una sola vez. Nota: 128.000 tokens equivalen aproximadamente a 100.000 palabras, lo que significa que DeepSeek puede procesar textos cuatro veces más largos de lo que ChatGPT (con ~32K tokens) podría manejar en su máximo, facilitando el análisis de documentos extensos de una sola pasada.
  • DeepSeek-V3 671B (Dic 2024): tercer modelo generalista, con asombrosos 671 mil millones de parámetros (de los cuales ~37B activos a la vez). Empleó capas MoE avanzadas y entrenamiento de precisión mixta FP8, alcanzando nuevos récords en rendimiento multi-dominio (lenguaje general, matemáticas, código, etc.) manteniendo costos bajos. Con este modelo, DeepSeek entró al club de ultra-gran escala manteniendo licencia abierta MIT.
  • DeepSeek-R1 671B (Ene 2025): lanzamiento de su modelo más avanzado hasta la fecha, orientado especialmente a razonamiento y resolución de problemas. R1 también suma ~671B parámetros y fue entrenado con estrategias de aprendizaje por refuerzo para tareas complejas de lógica. Se publicó totalmente abierto junto con la salida de la app pública. DeepSeek-R1 rivaliza con los mejores modelos de OpenAI en muchos ámbitos, llegando a igualar o superar su desempeño en evaluaciones de matemáticas y programación. Este lanzamiento libre del equivalente a un “GPT-4 chino” a costo ínfimo es lo que provocó “ondas de choque” en la industria.

En resumen, en un año el equipo de DeepSeek pasó de un prototipo enfocado en código a un competidor directo de GPT-4, reiterando rápidamente e innovando con cada versión.

Todos sus modelos principales han salido con licencias abiertas (MIT), lo que ha impulsado una comunidad de desarrolladores alrededor.

Se reporta que los archivos de sus modelos se han descargado más de 5 millones de veces en plataformas como Hugging Face, generando cientos de derivados creados por la comunidad.

Esta filosofía abierta y colaborativa ha multiplicado el alcance de DeepSeek más allá de lo que una sola compañía podría lograr, marcando un contraste fuerte con los modelos propietarios que dominaban el mercado.

Características técnicas y rendimiento

Más allá de los números de usuarios, DeepSeek ha llamado la atención por sus capacidades técnicas y su desempeño en tareas especializadas:

  • Ventana de contexto masiva: Como se mencionó, puede manejar entradas de hasta 128.000 tokens en sus modelos más recientes. Esto le permite ingerir documentos completos, códigos fuente extensos o múltiples archivos a la vez, sin recortar por límite de tamaño. En comparación, la versión GPT-4 de ChatGPT típicamente maneja 8K a 32K tokens máximo. Para ilustrarlo, 128K tokens son alrededor de 100 mil palabras (unas 150-200 páginas de texto), cuatro veces más que el contexto extendido de ChatGPT – lo cual amplía enormemente el horizonte de usos (análisis de investigaciones largas, revisión de contratos legales enteros, depuración de proyectos de software complejos, etc.).
  • Multilingüismo y código: DeepSeek fue diseñado desde cero con un fuerte soporte tanto para lenguaje natural multilingüe como para programación. Su modelo de código puede desenvolverse en hasta 338 lenguajes (incluyendo lenguajes de programación y de marcado), y su modelo general ha demostrado alta competencia en inglés, chino y otras lenguas. De hecho, la primera versión general (67B) ya superó a muchos rivales en comprensión del chino, a la vez que mantenía sólidas habilidades en inglés y tareas globales. Esto hace a DeepSeek atractivo para comunidades tecnológicas fuera del ámbito angloparlante tradicional.
  • Razonamiento y precisión: Diversos tests han mostrado que DeepSeek ofrece respuestas más lógicas y concretas en áreas técnicas. En benchmarks de programación y matemáticas, DeepSeek-R1 ha igualado o superado a los modelos de OpenAI. Por ejemplo, en un examen de matemáticas avanzado (AIME 2024) obtuvo 79,8% vs 79,2% del modelo de referencia de OpenAI, y en un test de ingeniería de software logró 49,2% vs 48,9% de OpenAI. La diferencia es pequeña, pero demuestra que está a la par de los mejores en varias tareas – un logro notable para un recién llegado. Analistas también destacan que suele dar respuestas concisas y con menos divagaciones en temas de hechos o código, reduciendo el riesgo de alucinaciones en comparación con otros chatbots. Por otro lado, en creatividad y conversación casual, ChatGPT aún lleva ventaja por su estilo más natural y pulido. En resumen, DeepSeek sobresale en usos de investigación, técnicos y de largo contexto, mientras que ChatGPT sigue siendo preferido para tareas creativas y conversaciones informales.
  • Costo por uso imbatible: Gracias a su eficiencia, DeepSeek opera con costos computacionales bajísimos. Se estima que su modelo V3 tiene un costo de inferencia de $0,01 por cada millón de tokens de entrada – órdenes de magnitud menor que GPT-4 o Claude, cuyos accesos comerciales rondan $2 a $30 por millón de tokens. Esto significa que ofrecer DeepSeek gratuitamente es sostenible para sus creadores, y de hecho no cobran nada a los usuarios finales. En contraste, acceder al modelo GPT-4 de OpenAI requiere una suscripción (ChatGPT Plus por $20/mes) o pagos por API, lo que puede limitar su uso masivo. La gratuidad de DeepSeek ha sido sin duda un factor crucial en su adopción viral, al eliminar barreras de entrada para millones de personas que buscan probar herramientas de IA avanzadas sin pagar.

Impacto en la industria y competencia

El ascenso de DeepSeek ha tenido repercusiones notables en la industria tecnológica en general.

Su capacidad de lograr resultados de vanguardia con recursos menores ha sido denominada por algunos como un momento “Sputnik” para la IA occidental, al señalar que la carrera internacional en inteligencia artificial se ha intensificado.

Empresas establecidas han tomado nota: por ejemplo, el lanzamiento de DeepSeek R1 coincidió con un fuerte retroceso en acciones de gigantes del hardware (la ya mencionada caída de Nvidia) y puso en alerta a todo el sector sobre la llegada de un nuevo competidor inesperado.

Los competidores directos también sienten la presión. Google presentó su modelo Gemini alrededor de las mismas fechas, y OpenAI continúa iterando sobre GPT-4, pero DeepSeek demostró que un actor emergente puede alcanzar un nivel élite rápidamente.

Se reportó que compañías como Meta crearon “war rooms” internas para analizar las técnicas de entrenamiento de DeepSeek y cómo este logró tales avances con menos inversión.

Por su parte, Microsoft se ha mostrado interesado: la versión DeepSeek R1 ya está disponible a través de Azure AI (la plataforma en la nube de Microsoft) y en GitHub, indicando cierto respaldo de Microsoft hacia este modelo abierto.

Esto sugiere que incluso los gigantes podrían integrar o aprovechar a DeepSeek para reducir su dependencia de modelos como los de OpenAI.

En cuanto al espacio de las aplicaciones de IA de consumo, el éxito de DeepSeek plantea preguntas sobre la fortaleza de las ventajas competitivas (moats) de apps como ChatGPT.

Aunque ChatGPT y Bard (Google) cuentan con cientos de millones de usuarios mensuales actualmente, DeepSeek ha probado que el mercado sigue siendo volátil y que nuevos rivales pueden surgir y escalar rápidamente antes de que los líderes se consoliden.

El hecho de que una app desconocida lograra encabezar las descargas a nivel global en cuestión de días sugiere que los usuarios valoran la combinación de gratuito + potente, y que están dispuestos a probar alternativas cuando ofrecen ventajas claras (como más contexto, menos costo, etc.).

Conclusión: Perspectivas a futuro

Las cifras y logros de DeepSeek AI en tan corto plazo subrayan un cambio de paradigma en la industria de la inteligencia artificial.

Por un lado, demuestran que los modelos de IA de código abierto pueden competir de tú a tú con las ofertas de gigantes bien financiados, lo que podría llevar a una democratización de la tecnología.

La rápida adopción de DeepSeek también indica una enorme apetito global por herramientas de IA avanzadas y accesibles, lo que presionará a empresas establecidas a innovar más rápido y quizás reconsiderar sus esquemas de precios y apertura.

Para OpenAI, Google y otros líderes, el ascenso de DeepSeek es un llamado a no dormirse en sus laureles.

Si un startup pudo crear un modelo clase GPT-4 con menos de $10 millones y regalárselo al mundo, la ventaja de disponer de presupuestos multimillonarios podría disminuir.

Es probable que veamos una competencia más reñida en los próximos años, donde los usuarios se beneficien de mejoras constantes, ya sea en capacidad (p. ej., contextos aún mayores), en calidad de respuestas o en costo (más modelos gratuitos o asequibles).

DeepSeek, con su estrategia híbrida de reporte de datos (mostrar resultados medibles) y apertura comunitaria, ha conseguido no solo usuarios sino también el apoyo de desarrolladores e investigadores, lo cual alimenta un ciclo virtuoso de mejoras y adopción.

En conclusión, DeepSeek AI se ha posicionado como un caso de estudio de crecimiento exponencial en el sector de la IA: en cuestión de meses pasó de ser un proyecto poco conocido a un competidor serio de los titanes del campo.

Sus datos de crecimiento asombran, pero igual de importante es lo que significan: la innovación en IA ya no es exclusivo patrimonio de unas cuantas grandes compañías, y el modelo de compartir abiertamente conocimiento puede rendir frutos impresionantes.

Habrá que observar de cerca cómo responden los demás actores; por lo pronto, los beneficiados somos los usuarios, que tendremos acceso a herramientas cada vez más poderosas, diversas y posiblemente más económicas gracias a esta nueva ola de competencia desencadenada por DeepSeek.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *