GribStream

GribStream para herramientas de AI

Esta página es el punto de partida para integrar GribStream con herramientas de AI como ChatGPT, Claude, Gemini, Codex, Claude Code, Cursor, agentes propios o cualquier runtime que pueda llamar herramientas y hacer requests HTTP.

La integración recomendada es el conector MCP alojado de GribStream. Ayuda a descubrir datasets, resolver selectores exactos, construir requests válidos para /timeseries y /runs, validar expressions y devolver requests HTTP listos para usar.

Conector MCP alojado

Usa el conector MCP alojado cuando tu herramienta de AI soporte remote MCP sobre Streamable HTTP.

https://gribstream.com/mcp

El conector es read-only y no requiere un token de API de GribStream. No consulta datos meteorológicos directamente; descubre metadata y construye requests normales de la API que puedes ejecutar contra /api/v2/{dataset}/timeseries o /api/v2/{dataset}/runs.

Ejemplos de setup

ChatGPT

Si tu cuenta o workspace soporta conectores MCP personalizados, agrega un conector con:

Claude

En Claude, agrega un conector personalizado desde la configuración de Connectors:

Gemini CLI

Agrega esto a ~/.gemini/settings.json:

{
  "mcpServers": {
    "gribstream": {
      "httpUrl": "https://gribstream.com/mcp",
      "timeout": 30000
    }
  }
}

Después inicia Gemini CLI y ejecuta /mcp para confirmar que el conector está disponible.

Qué aporta el MCP

Usa el MCP para crear el request. Usa la API normal de GribStream para ejecutarlo.

De una conversación a un análisis

Un request de pronóstico puede parecer razonable y aun así estar mal. El conector ayuda a la AI a revisar el catálogo, usar selectores exactos, elegir el endpoint correcto y validar el request antes de ejecutarlo.

¿Qué modelos soporta GribStream para pronósticos globales?

Construye un request para temperatura, velocidad del viento y humedad relativa en Lisboa mañana.

  1. Conviértelo en una grid sobre Portugal a 0.5 grados.
  2. Muestra cómo se habría visto usando solo pronósticos disponibles hace 18 horas.
  3. Dame los últimos tres model runs para esas mismas horas válidas.
  4. Cambia de GFS a IFS y vuelve a resolver los selectores.

Recursos principales

Autenticación

El conector MCP alojado no requiere autenticación. Las consultas reales a datos de GribStream sí requieren un API token cuando ejecutas el request generado.

  1. Crea una cuenta o inicia sesión en /auth/login.
  2. Crea un API token en /app/dashboard.
  3. Configúralo como variable de entorno GRIBSTREAM_API_TOKEN.
  4. Inicia la herramienta de AI desde esa misma shell o configura la herramienta para exponer esa variable al runtime.
export GRIBSTREAM_API_TOKEN='YOUR_TOKEN_HERE'

Usa variables de entorno o un secret store del proveedor. Evita pegar tokens en prompts, archivos versionados o scripts reutilizables.

Workflow recomendado para herramientas de AI

  1. Conecta el MCP alojado en https://gribstream.com/mcp si tu herramienta soporta remote MCP.
  2. Pide a la herramienta que use GribStream MCP para descubrir datasets, resolver selectores y construir un request validado.
  3. Revisa el request generado: tiempos, coordenadas, tamaño de grid, variables y expressions.
  4. Ejecuta el request contra la API normal con tu GRIBSTREAM_API_TOKEN.
  5. Usa OpenAPI, el skill, inicio rápido y expressions como referencias o fallback.

El skill público se puede descargar directamente desde:

https://gribstream.com/skills/gribstream-query.md