Saltar al contenido
Nm NoumorDevs

Conocimiento · 07

Modelos del mercado: comparativa por caso de uso

Los modelos se parecen cada vez más en promedio y se diferencian cada vez más en los bordes. Esta comparativa te ayuda a elegir por caso de uso real, no por moda, y está diseñada para mantenerse viva vía MCP.

Snapshot local — última actualización 2026-04-17

Filtrar

¿Para qué rol o tarea lo necesitas?

Comparativa

Modelos relevantes

claude-opus-4-7

Anthropic · Claude 4.X

premium razonamiento · alta
Ventana de contexto
200K tokens
Modalidades
textvisioncode

Destaca en

  • Razonamiento complejo sostenido sobre contexto largo
  • Planificación y descomposición de tareas de ingeniería
  • Codificación de alta calidad con buen juicio arquitectónico
  • Seguimiento fiel de specs detalladas

Mejor para

arquitectoai-engineerrevieweranalista-tecnico

Referencia para tareas que requieren criterio, diseño y código robusto.

claude-sonnet-4-6

Anthropic · Claude 4.X

balance razonamiento · media-alta
Ventana de contexto
200K tokens
Modalidades
textvisioncode

Destaca en

  • Muy buen balance calidad/coste
  • Rápido y fiable en tareas de desarrollo asistido
  • Buen soporte de tool use y agentes

Mejor para

coderai-engineerqaanalista-funcional

Caballo de batalla para workflows agénticos y generación continua.

claude-haiku-4-5

Anthropic · Claude 4.X

eficiente razonamiento · media
Ventana de contexto
200K tokens
Modalidades
textcode

Destaca en

  • Latencia muy baja
  • Eficiente en coste para orquestación y clasificación
  • Útil como router de agentes

Mejor para

routerclasificacionresumentooling

Ideal para nodos rápidos dentro de pipelines multi-agente.

gpt-5-class

OpenAI · Frontier general

premium razonamiento · alta
Ventana de contexto
128K–1M según variante
Modalidades
textvisionaudiocode

Destaca en

  • Razonamiento estructurado y herramientas integradas
  • Multimodal amplio (texto, visión, audio)
  • Ecosistema maduro de SDKs

Mejor para

productoanalista-funcionalinvestigacionui

gemini-pro-class

Google · Gemini

balance razonamiento · media-alta
Ventana de contexto
hasta 2M tokens
Modalidades
textvisionaudiocode

Destaca en

  • Ventanas de contexto muy amplias (1M+)
  • Buena integración con productividad y datos
  • Multimodalidad nativa

Mejor para

analista-datosinvestigaciondocumentacionrag-masivo

llama-3-class

Meta (open weight) · Llama 3

eficiente razonamiento · media
Ventana de contexto
8K–128K según variante
Modalidades
textcode

Destaca en

  • Despliegue on-premise
  • Control de datos y privacidad
  • Fine-tuning accesible

Mejor para

privacidadedgedominios-reguladosfine-tuning

Cuando el modelo no puede salir de la infraestructura del cliente.

mistral-large

Mistral AI · Mistral

balance razonamiento · media-alta
Ventana de contexto
32K–128K
Modalidades
textcode

Destaca en

  • Razonamiento sólido europeo
  • Cumplimiento y soberanía de datos
  • Buen rendimiento en francés/europeo

Mejor para

europareguladobackend-general

deepseek-coder

DeepSeek · DeepSeek

eficiente razonamiento · media
Ventana de contexto
128K
Modalidades
textcode

Destaca en

  • Especializado en código
  • Competitivo en benchmarks de coding
  • Buena relación calidad/coste

Mejor para

code-genautocompletadorefactor

Criterios

Cómo elegir modelo

Por tarea

No uses el mismo modelo para clasificar un email y para diseñar una arquitectura. Haz matching tarea ↔ capacidad.

Por coste real

Coste = tokens × precio × reintentos × reevaluaciones. Mide, no estimes.

Por gobernanza

Residencia, compliance, logging, rate limiting y vendor lock-in. Define política antes de decidir.

Actualización

Este catálogo está preparado para MCP

Este módulo lee sus datos del servicio ContentService con origen static. Cuando conectes un servidor MCP a nm://models, la web cambiará de origen static a mcp sin tocar estos componentes — solo el adaptador.