DeepSeek-R2 es un nuevo modelo de lenguaje de inteligencia artificial (IA) que ha generado gran expectación en 2025 por su enfoque eficiente y abierto.
Desarrollado por la start-up china DeepSeek, este modelo de última generación promete un rendimiento comparable al de gigantes como GPT-4, Claude, LLaMA 3 o Gemini, pero con una fracción del costo y requisitos de hardware.
En este artículo explicamos qué es DeepSeek-R2, por qué es relevante, cómo se compara con otros modelos punteros, y qué casos de uso prácticos habilita, todo en un lenguaje claro pero preciso para la comunidad hispanohablante interesada en IA.
¿Qué es DeepSeek-R2 y por qué es importante?
DeepSeek-R2 es la segunda generación de modelos avanzados de DeepSeek, una empresa fundada en 2023 en Hangzhou, China.
La compañía se hizo conocida a principios de 2025 al lanzar DeepSeek-R1, un modelo open-source con licencia MIT que ofrecía resultados comparables a GPT-4 pero entrenado con un presupuesto sorprendentemente bajo.
R1 (enfocado en tareas de razonamiento) demostró que era posible acercarse al rendimiento de los líderes usando técnicas eficientes en lugar de enormes inversiones.
Esto tuvo un impacto enorme: por ejemplo, la salida de R1 a bajo costo provocó incluso caídas bursátiles de empresas de IA establecidas, generando debate sobre la sostenibilidad de los enfoques tradicionales.
Ahora, DeepSeek-R2 representa el siguiente salto evolutivo.
¿Qué hace especial a R2?
Es un modelo de gran tamaño – alrededor de 1,2 billones de parámetros (1.2 trillion en terminología anglosajona) – pero construido con una arquitectura híbrida de “Mixture-of-Experts” (MoE) que aprovecha sus recursos de forma inteligente.
En lugar de activar todos sus parámetros para cada petición, R2 utiliza solo una parte (78 mil millones de parámetros activos por consulta, aproximadamente el 6,5%) gracias al sistema MoE.
Esto significa que logra la potencia de un modelo masivo sin incurrir en el costo computacional completo en cada interacción.
Además, DeepSeek-R2 se distingue por ser un proyecto abierto y colaborativo.
Al igual que su predecesor, se espera que R2 tenga pesos abiertos (bajo condiciones tipo MIT) que permitan a desarrolladores y empresas usarlo y afinarlo en sus propios datos.
Esto contrasta con modelos propietarios como GPT-4, y sugiere un movimiento hacia la democratización de la IA, donde comunidades más amplias pueden beneficiarse e innovar sobre la base de este modelo.
Arquitectura y detalles técnicos de DeepSeek-R2
Arquitectura híbrida MoE: tamaño masivo con eficiencia
El núcleo de DeepSeek-R2 es su innovadora arquitectura híbrida Mixture-of-Experts 3.0.
En un modelo MoE, en vez de un único gigantesco transformador denso activando todos los parámetros a la vez, el modelo se divide en varios “expertos” especializados.
Un mecanismo de enrutamiento determina qué subconjunto de expertos se activa para cada pregunta o dato de entrada.
De este modo, R2 puede tener un total enorme de ~1,2 billones de parámetros, pero solo utiliza ~78 mil millones en cada inferencia.
Esta activación selectiva le permite mantener alto rendimiento con menos cómputo efectivo, incrementando drásticamente la eficiencia.
La idea de MoE combina eficiencia y rendimiento: cada “experto” maneja ciertos tipos de tareas o datos especialmente bien, y el modelo aprende a delegar al experto correcto según el contexto.
Por ejemplo, un experto puede especializarse en lenguaje legal y otro en código fuente; R2 activaría diferentes subconjuntos de su red dependiendo de la consulta.
Gracias a esto, DeepSeek-R2 rompe con la filosofía de solo aumentar parámetros, demostrando que la innovación arquitectónica puede ser igual o más importante que simplemente hacer modelos más grandes.
En palabras de analistas, este enfoque desafía la noción de “más grande es mejor” imperante en el campo.
En cuanto a arquitectura base, R2 se construye sobre la tecnología de transformers (similar a la usada en GPT-4 o LLaMA), pero integrando MoE de manera avanzada (denominado Hybrid MoE 3.0).
También incorpora optimizaciones adicionales señaladas en informes técnicos, como mecanismos de atención dispersa (sparse attention) para manejar contextos largos eficientemente, y capas densas mejoradas junto con las de expertos para equilibrar la carga.
Todo esto posiciona a DeepSeek-R2 como un modelo técnicamente sofisticado diseñado para maximizar la relación calidad-computación.
Entrenamiento y hardware: chips alternativos y menor costo
Otro aspecto clave de DeepSeek-R2 es cómo fue entrenado. Las filtraciones y reportes indican que DeepSeek optó por usar hardware alternativo al estándar de la industria: en lugar de las típicas GPU de NVIDIA, R2 fue entrenado en un clúster de chips Huawei Ascend 910B. Esto tiene varias implicaciones.
Por un lado, evita las limitaciones impuestas por restricciones de exportación de chips avanzados a China, demostrando que se puede entrenar un modelo punta con hardware de menores prestaciones individuales.
Por otro lado, DeepSeek-R2 logró exprimir estos chips al máximo, alcanzando un 82% de utilización de clúster y ~512 petaFLOPs de rendimiento en precisión FP16.
Son cifras de eficiencia de hardware sobresalientes, comparables o superiores a las obtenidas con las últimas GPU en proyectos tradicionales.
Gracias a estas estrategias, el costo de entrenamiento de R2 fue dramáticamente menor que el de modelos equivalentes en Occidente.
DeepSeek ya había afirmado que entrenar su modelo previo ( DeepSeek-V3) costó solo ~$6 millones de dólares, frente a estimados ~$100 millones invertidos para GPT-4.
En el caso de R2, se menciona que su arquitectura híbrida permitió reducir los costos de inferencia a apenas 2,7% de los de GPT-4.
De hecho, se reporta que utilizar R2 podría ser 97% más barato que GPT-4 en términos de coste por operación, un salto enorme en eficiencia.
Con números concretos, la tarifa objetivo de DeepSeek-R2 rondaría $0,07 por millón de tokens de entrada y $0,27 por millón de tokens de salida, en contraste con las tarifas de OpenAI que son decenas de veces mayores para GPT-4.
En otras palabras, R2 busca democratizar el acceso a IA avanzada, abaratando hasta 140 veces el costo por procesamiento comparado con la competencia.
La escala de datos de entrenamiento también es notable. Según información filtrada, DeepSeek-R2 habría sido entrenado con un conjunto masivo de datos de ~5,2 PB (petabytes) de textos e información.
No solo es enorme en volumen, sino que habría incorporado datasets especializados en dominios profesionales (finanzas, leyes, patentes, investigación científica), reforzando así sus capacidades en esos ámbitos.
Esto sugiere que R2 no solo domina conversación general, sino que también tiene profundidad en áreas técnicas y especializadas, al cruzar conocimientos de sectores verticales en su entrenamiento.
Rendimiento, capacidades y benchmarks iniciales
Si bien al momento de su lanzamiento muchos detalles de rendimiento de R2 provienen de pruebas internas o datos no publicados oficialmente, los indicios apuntan a que DeepSeek-R2 compite de tú a tú con los mejores modelos de IA actuales en múltiples tareas.
Por ejemplo, en evaluaciones de razonamiento estándar, se afirma que R2 alcanza resultados equivalentes a GPT-4 Turbo (una versión optimizada del modelo de OpenAI).
En un benchmark de instrucciones en chino conocido como CEval 2.0, se le atribuye a R2 una puntuación de ~89,7% de precisión, muy cercana a la de GPT-4, lo que respalda la afirmación de rendimiento comparable.
De confirmarse de manera independiente, esto sería impresionante dado su enfoque de eficiencia.
Otro frente importante es la multimodalidad. Los grandes modelos modernos tienden a ampliar sus habilidades más allá del texto, incorporando visión, audio, etc.
DeepSeek-R2, según filtraciones, habría logrado un avance notable en visión por computador, alcanzando 92,4 mAP en tareas de segmentación de imágenes del conjunto COCO.
Esto supone mejorar en 11,6 puntos porcentuales el desempeño de CLIP, un conocido modelo de visión-texto, lo cual insinúa que R2 puede entender y analizar imágenes con alta precisión.
Sería, por tanto, un modelo multimodal, capaz de procesar tanto lenguaje natural como contenido visual (y potencialmente audio o código), alineándose con la tendencia que marcó GPT-4 de aceptar imágenes.
La capacidad multimodal de R2 ampliaría sus casos de uso a campos como análisis de imágenes médicas, reconocimiento en vídeo, etc., además de las clásicas aplicaciones lingüísticas.
Por último, cabe destacar la polivalencia lingüística. DeepSeek-R1 inicialmente se centró en inglés y chino, pero con R2 la compañía ha indicado que busca un modelo que razone en múltiples idiomas con mayor eficacia.
Es decir, R2 apunta a ofrecer un rendimiento sólido no solo en inglés, sino también en otros idiomas como el español.
Dado el énfasis en contenidos multi-región en su entrenamiento, es de esperar que maneje bien tanto lenguajes occidentales como asiáticos.
Esto es crucial para la adopción global: un modelo capaz de entender y generar texto en español con alta calidad sería muy atractivo para la comunidad hispanohablante, rivalizando con GPT-4 que ya demuestra buen desempeño multilingüe.
En resumen, técnicamente DeepSeek-R2 sobresale por combinar escala masiva, eficiencia MoE, entrenamiento estratégico y capacidades amplias (razonamiento, código, visión, multilingüismo).
Ahora bien, ¿cómo se traduce todo esto cuando lo comparamos con los otros titanes de la IA generativa actuales? A continuación, veremos una comparativa directa.
Comparativa: DeepSeek-R2 frente a GPT-4, Claude, LLaMA 3 y Gemini
A fin de entender la relevancia de DeepSeek-R2, es útil situarlo en el contexto de los modelos líderes del mercado.
En la siguiente tabla resumimos las características de R2 en comparación con GPT-4 (el motor de ChatGPT de OpenAI), Claude 2 (de Anthropic), LLaMA 3 (open-source de Meta) y Gemini (de Google DeepMind).
Cada uno de estos modelos representa lo más avanzado en IA generativa, con distintos enfoques:
- GPT-4 es el referente general por su desempeño sobresaliente en multitud de tareas.
- Claude 2 destaca por su enfoque en seguridad y una enorme ventana de contexto.
- LLaMA 3 por su apertura y enfoque comunitario, con versiones de altísimo tamaño.
- Gemini por ser la apuesta de Google que integra multimodalidad y el legado de DeepMind.
Tabla: Comparativa de DeepSeek-R2 vs modelos de IA líderes (2024-2025)
Modelo | Organización | Tamaño & Arquitectura | Modalidad | Ventajas clave | Limitaciones |
---|---|---|---|---|---|
DeepSeek-R2 (2025) | DeepSeek (Start-up China) | ~1,2 billones de parámetros (MoE híbrido, ~78B activos). | Multimodal (texto, visión) | Costo ultrabajo (hasta 97% más barato que GPT-4). Modelo abierto (pesos disponibles). Alto rendimiento en razonamiento y tareas especializadas (finanzas, legal). Fuerte en chino/inglés y orientado a multi-idioma. | Nuevo y poco probado públicamente (falta verificación independiente plena). Posibles incógnitas de seguridad o sesgos no detectados por ser tan reciente. Adopción fuera de China por verse (empresas occidentales podrían mostrar cautela inicial). |
GPT-4 (2023) | OpenAI (EE. UU.) | Parámetros no divulgados (estimado ~trillón, arquitectura densa transformador). | Multimodal (texto e imágenes) | Rendimiento líder en diversidad de tareas (razonamiento, código, comprensión). Amplia integración comercial (ChatGPT, Bing, plugins). Elevada calidad y fine-tuning con refuerzo humano (RLHF) para respuestas útiles. | Cerrado (modelo propietario, sin acceso a pesos). Coste elevado de uso y límites de tasa. Contexto limitado (8K-32K tokens máx.). Menor personalización: no se puede afinar localmente. |
Claude 2 (2023) | Anthropic (EE. UU.) | Parámetros no públicos (arquitectura similar a GPT-4 con énfasis en seguridad). | Solo texto (chat) | Ventana de contexto masiva (hasta 100K tokens) ideal para analizar documentos largos. Filosofía de IA constitucional: muy seguro y difícil de que genere contenido dañino. Buen rendimiento general cercano a GPT-4 en lenguaje y útil en resúmenes largos. | No open-source (acceso vía API). Aún ligeramente inferior a GPT-4 en tareas muy complejas o de programación. Menos conocida fuera del ámbito angloparlante. Disponibilidad comercial limitada (servicio en nube, sin despliegue privado). |
LLaMA 3 (2024) | Meta (Open Source) | Versiones de 8B, 70B y hasta 405B parámetros (LLaMA 3.1).Transformer denso optimizado; entrenamiento con 15T tokens y contexto ampliado (128K max). | Texto (algunas variantes con visión) | Modelo abierto de última generación: cualquiera puede descargar pesos y afinar. Soporte nativo a multilingüismo y código (entrena con múltiples idiomas). Comunidad activa desarrollando mejoras y aplicaciones. Versión 405B rivaliza con modelos top en varios benchmarks. | Requiere gran infraestructura para usar modelos mayores (405B es difícil de desplegar sin supercomputación). Aunque potente, puede quedar por detrás de GPT-4 en ciertos idiomas o tareas especializadas. Necesita ajustes (fine-tuning) para casos específicos; las versiones base pueden ser menos alineadas que las comerciales. |
Gemini (2024) | Google DeepMind (EE. UU.) | Múltiples versiones (Nano, Pro, Ultra); arquitectura Mixture-of-Experts en Gemini 1.5. Tamaño exacto no revelado, pero Ultra es de los más grandes de Google (se rumorea >1 billón de parámetros). | Multimodal (texto, imágenes, código, audio) | Multimodal completo: diseñado para manejar texto, imágenes y más en un mismo modelo. Alto rendimiento en razonamiento y coding: Gemini Ultra superó a GPT-4 en ciertos benchmarks y fue el primero en exceder nivel humano en MMLU (90%). Fuerte integración con el ecosistema Google (Bard, búsquedas, Workspace). | No abierto (servicio propietario). Disponibilidad restringida: Gemini Ultra inicialmente solo a socios y servicios Google. Enfoque inicial solo en inglés (lanzamiento limitado en ese idioma). Coste de uso potencialmente elevado vía Google Cloud. |
Nota: Las comparaciones reflejan información disponible hasta mediados de 2025.
GPT-4 y Claude no han revelado sus tamaños exactos; las cifras de parámetros son estimaciones o se indican solo cuando son públicas.
GPT-4o se refiere a la versión optimizada/turbo de GPT-4 mencionada en algunas fuentes.
Como vemos, DeepSeek-R2 sobresale especialmente en costo y apertura, mientras que los modelos establecidos mantienen ventajas en madurez y ecosistema.
R2 adopta algunas de las tendencias punteras (mixture-of-experts como Gemini, multimodalidad, grandes contextos) pero en un marco de código abierto y bajo costo, lo cual puede ser disruptivo.
Fortalezas de DeepSeek-R2 frente a sus rivales
- Eficiencia económica: La ventaja más evidente de R2 es su coste de uso dramáticamente menor. Ofrece API (y posibilidad de autohospedaje) a precios decenas de veces inferiores a GPT-4, haciendo viable la IA avanzada para startups y usuarios con presupuesto limitado. Esta presión de precios podría forzar a toda la industria a abaratar sus servicios.
- Modelo abierto y personalizable: A diferencia de GPT-4 o Gemini, DeepSeek-R2 estará disponible bajo licencia abierta MIT, lo que permite a empresas y desarrolladores afinarlo con sus datos privados y adaptarlo a nichos específicos sin enviar información sensible a terceros. Esto es similar a LLaMA 3 en filosofía, pero R2 combina esa apertura con un rendimiento de primer nivel.
- Especialización vertical: Gracias a su entrenamiento con datos financieros, legales y técnicos, R2 podría ofrecer respuestas más expertas en dominios especializados que un modelo generalista. Por ejemplo, en finanzas o jurisprudencia, sus resultados podrían superar a los de GPT-4 base, al haberse optimizado deliberadamente en esos campos.
- Multilingüismo y adaptabilidad: R2 está concebido para trabajar bien en diversos idiomas desde su núcleo, potenciando su adopción global. Modelos como GPT-4 también son buenos multilingües, pero R2 podría tener la ventaja de entrenar con más datos locales (ej. gran corpus en chino y otros idiomas). Además, la comunidad podrá traducirlo y mejorar sus prompts o alineamiento en cada lengua, algo que con modelos cerrados es más lento.
- Independencia de proveedores dominantes: Al funcionar óptimamente en hardware alternativo (Ascend, chips locales) y ser open-source, R2 reduce la dependencia del ecosistema NVIDIA/US. Esto democratiza la infraestructura y aumenta la resiliencia: países o empresas que no accedan a GPUs de última generación podrían usar clusters con otras soluciones para correr IA avanzada.
Debilidades y desafíos de DeepSeek-R2
- Menor madurez y pruebas: Hasta su lanzamiento público, R2 carece del extenso feedback que modelos como GPT-4 han recibido de millones de usuarios. Pueden aparecer errores, sesgos o vulnerabilidades no detectados. La falta de validación independiente extensa invita a tomar con cautela algunas afirmaciones de rendimiento hasta tener más datos reales.
- Ecosistema incipiente: OpenAI y Google ofrecen no solo el modelo, sino un ecosistema (herramientas, integraciones, soporte, comunidad global desarrollando aplicaciones). DeepSeek, siendo una start-up nueva, debe construir su ecosistema. Aunque R2 sea abierto, necesitará tiempo para que florezcan suficientes implementaciones, foros de ayuda, paquetes de soporte, etc., especialmente fuera de China.
- Recelo fuera de China: Algunas organizaciones occidentales podrían mostrarse cautelosas en adoptar tecnología china por temas de confianza, soporte o incluso regulaciones gubernamentales. DeepSeek ya enfrentó escrutinio sobre privacidad de datos en algunas jurisdicciones. De igual modo, la guerra tecnológica EE. UU.-China podría influir en la percepción y uso de R2 internacionalmente. Esto podría limitar inicialmente su impacto global a pesar de sus méritos técnicos.
- Requisitos computacionales al escalar: Si bien R2 es eficiente en uso relativo, sigue siendo un modelo enorme. Para aprovecharlo plenamente (por ejemplo, autohospedar la versión completa de 1,2T parámetros) hace falta un poder de cómputo considerable. Las empresas más pequeñas tal vez opten por servicios en la nube o versiones reducidas. DeepSeek podría necesitar ofrecer distintos tamaños de modelo o servicios alojados para llegar a todos los segmentos, algo en lo que sus rivales ya tienen experiencia (ej. OpenAI con GPT-3.5 vs GPT-4, Meta con gamas de LLaMA de diferentes tamaños).
- Competencia e innovación constante: El panorama de IA es muy dinámico. OpenAI, Google, Anthropic, Meta y otros no se detienen: lanzan mejoras (GPT-4 Turbo, Claude Instant, LLaMA 3.2, Gemini 2.5, etc.). DeepSeek-R2 deberá mantener un ritmo de innovación (ya planean R3, R4) para no quedar alcanzado rápidamente. La ventaja de costo podría reducirse si otros optimizan sus modelos o bajan precios en respuesta.
En balance, DeepSeek-R2 aporta aire fresco al sector con su propuesta de alto rendimiento asequible y abierto, pero deberá respaldar sus promesas con resultados consistentes en el mundo real para consolidarse como alternativa de confianza a los jugadores tradicionales.
Casos de uso y aplicaciones de DeepSeek-R2
¿Qué posibilidades prácticas abre un modelo como DeepSeek-R2 para usuarios, empresas y desarrolladores? Al combinar la potencia de un GPT-4 con costos más bajos y apertura, R2 habilita numerosos casos de uso que antes podían ser difíciles por barreras de coste o acceso.
Algunos ejemplos destacados:
- Asistentes virtuales avanzados y chatbots empresariales: Empresas medianas o startups podrán integrar chatbots con capacidad casi humana para atención al cliente, soporte técnico o asesoría interna, sin pagar tarifas prohibitivas a un proveedor externo. Por ejemplo, un e-commerce podría desplegar su propio asistente R2 que responda en español coloquial, resuelva dudas de productos y procese pedidos, entrenado además con información específica de sus catálogos.
- Análisis de documentos extensos y especializados: Gracias a su gran ventana de contexto y bajo costo por token, DeepSeek-R2 puede digerir informes largos, contratos legales o publicaciones científicas y ofrecer resúmenes o extraer conclusiones. Un despacho legal, por ejemplo, podría usar R2 para revisar cientos de páginas de jurisprudencia en minutos y obtener puntos clave, manteniendo los datos confidenciales in-house. De igual forma, investigadores podrían cargar conjuntos de papers académicos para que R2 los compare y resuma tendencias.
- Codificación asistida y depuración de software: Dado que R2 está entrenado también con enormes cantidades de código y pretende mejorar frente a R1 en esta área, es ideal como pareja de programación. Desarrolladores podrían emplearlo para autocompletar funciones, encontrar bugs o incluso generar módulos enteros a partir de una descripción en lenguaje natural. Compite aquí con herramientas como GitHub Copilot (basado en modelos OpenAI) pero con la ventaja potencial de ajustarlo a un stack o repositorio concreto, ya que es fine-tuneable localmente.
- Traducción y localización de contenido: Con su soporte multilingüe, R2 puede servir como motor de traducción automática de alta calidad y adaptación cultural de texto. Esto va desde traducir documentos técnicos preservando su precisión, hasta localizar chatbots o videojuegos al español con los giros lingüísticos adecuados. Si bien existen modelos dedicados a traducción, la flexibilidad de R2 permite integrarlo en flujos donde entienda contexto amplio y luego traduzca, todo en una misma conversación IA.
- Aplicaciones en salud y finanzas (IA vertical): La especialización de R2 en datos médicos, financieros y de patentes sugiere aplicaciones muy interesantes. En salud, un sistema basado en R2 podría ayudar a médicos a diagnosticar o proponer tratamientos, analizando síntomas a la luz de millones de artículos médicos (siempre con verificación humana). En finanzas, R2 podría usarse para automatizar análisis de mercado, generar informes de riesgo, o detectar patrones en datos financieros complejos, algo valioso para bancos o fondos de inversión que buscan aprovechar IA sin exponer datos sensibles a servicios externos.
- Educación personalizada: Las instituciones educativas o incluso gobiernos podrían aprovechar un modelo abierto como R2 para crear tutores virtuales personalizados que enseñen en español (u otras lenguas locales) con un alto nivel. Al ser de costo accesible, podría implementarse en plataformas públicas de aprendizaje, respondiendo preguntas de estudiantes las 24 horas, explicando conceptos difíciles o generando materiales didácticos adaptados al currículo nacional, todo con supervisión docente.
En todos estos casos de uso, la accesibilidad económica y técnica de DeepSeek-R2 es el factor habilitador.
Organizaciones que antes no podían costear GPT-4 para ciertos proyectos ahora tendrán una alternativa competitiva.
Asimismo, la posibilidad de autónomamente alojar el modelo (on-premise) es crucial para sectores con regulaciones estrictas de datos (gobierno, salud, banca), que por políticas de privacidad no pueden enviar información a servidores de terceros.
Con R2, pueden tener un modelo de clase mundial detrás de su propio firewall.
Conclusión
DeepSeek-R2 representa una nueva generación de modelos de IA que priorizan la eficiencia, la colaboración abierta y la especialización, sin sacrificar capacidad.
Su irrupción ha sido señalada como un posible «punto de inflexión» en la industria, con potencial de iniciar una democratización de la IA avanzada similar a cómo otras tecnologías se abarataron y masificaron en el pasado.
Si las promesas técnicas se confirman, podríamos ver en los próximos meses una mayor competencia que beneficie a usuarios finales: más opciones de asistentes inteligentes, precios más bajos y soluciones adaptadas a idiomas y nichos específicos.
Para la comunidad hispanohablante interesada en IA, DeepSeek-R2 es una noticia emocionante.
Un modelo potente que hable español con soltura, que pueda instalarse localmente y cuyas mejoras sean compartidas abiertamente, puede acelerar la adopción de la IA en empresas y proyectos de España, Latinoamérica y otros países.
Por supuesto, habrá que seguir de cerca las evaluaciones independientes y la evolución post-lanzamiento de R2 – la transparencia y utilidad real del modelo serán clave para su éxito (alineado con las directrices de contenido de calidad que buscan experiencias útiles y confiables).
Pero sin duda, DeepSeek-R2 ya ha ganado relevancia por plantear una visión de IA más accesible.
En un campo dominado por unos pocos actores, la entrada de competidores innovadores como DeepSeek impulsa el progreso y ofrece a los usuarios más oportunidades de aprovechar la inteligencia artificial en sus propios términos.