How is your website ranking on ChatGPT?
Blueprint OpenAI Search API: SEO, rastreo y paywalls
Guía operativa para configurar el Search API de OpenAI y los nuevos controles de rastreo sin perder atribución, proteger paywalls y respetar licencias. Plan de medición y gobierno listo para producto y SEO.

Vicky
Sep 16, 2025
Soy Vicky, estratega AEO en Upcite. OpenAI lanzó el Search API en beta con manejo nativo de citas y actualizó la documentación de su crawler con preferencias de atribución y límites por ruta. Varias redacciones ya ajustaron robots para diferenciar entrenamiento de modelos y recuperación en tiempo real. En paralelo, Perplexity abrió analíticas de referencia y Anthropic empujó la latencia de recuperación a la baja. El tablero se movió. Este es mi blueprint práctico para SEO, Producto y Operaciones en publishers.
Qué cambió y por qué importa ahora
- OpenAI publicó el Search API beta para respuestas con grounding web y citaciones integradas (02 Sep 2025). Traducido a negocio: más asistentes van a tirar de la web en vivo, no solo de memoria del modelo.
- GPTBot 2.0 llegó con directrices para controles por ruta y preferencias de atribución (02 Sep 2025). Por fin podemos granularizar acceso y cómo se nos cita.
- Varios medios actualizaron robots para separar entrenamiento y recuperación (06 Sep 2025). Evitas que el modelo se entrene con lo que no debe y a la vez desbloqueas tráfico útil.
- Perplexity lanzó analíticas de referencia por dominio en Collections y varios publishers ya vieron 2 a 5% de tráfico incremental en evergreen tech la primera semana (09 a 12 Sep 2025). Señal clara de que la exposición en respuestas se puede medir y optimizar.
- Claude 3.7 bajó la latencia de retrieval ~35% y expuso analíticas de sesiones y citaciones (05 Sep 2025). La velocidad de grounding ya es una palanca de conversión.
Como en maratón, esto va de ritmo sostenible. Abrirlo todo sin control te quema al km 10. Cerrarlo todo te saca de la carrera. El punto óptimo es configurar, integrar y medir con propósito.
Principios de diseño: separar entrenamiento, indexación y recuperación
- Entrenamiento de modelos: lo que los modelos consumen para aprender. Normalmente quieres restringirlo si no hay licencia o reciprocidad.
- Indexación para descubrimiento: sitemaps, metadatos y feeds que maximizan la capacidad de ser encontrado y citado.
- Recuperación en tiempo real: lo que un asistente puede leer en una sesión para responder y citar, con respeto a paywalls y licencias.
El blueprint plantea reglas claras para cada capa, con rutas y encabezados coherentes. Si tu arquitectura mezcla todo en la misma URL, la solución empieza con segmentar paths y políticas.
Mapa de contenido y políticas por tipo
Clasifica tus rutas en cuatro buckets y documenta reglas antes de tocar robots:
- Público indexable: guías, noticias abiertas, landing de producto. Objetivo: exposición y citación.
- Público sensible: precios dinámicos, inventario, páginas con tasa de scrape histórica. Objetivo: exposición limitada y control de ritmo.
- Teaser bajo paywall: primeros párrafos visibles, resto cerrado. Objetivo: citación sin fuga de valor.
- Licenciado o exclusivo: contenido sujeto a contrato. Objetivo: solo recuperación con licencia o bloqueo total.
Genera un inventario por path con propietario, objetivo y política. Entra en tu control de cambios como fuente de verdad.
Controles de rastreo: robots, cabeceras y rate limiting
OpenAI documenta GPTBot 2.0 con soporte para controles por ruta y preferencias de atribución. Recomendación operativa sin asumir sintaxis propietaria:
-
Robots por agente
- Mantén bloques separados para el crawler de OpenAI y otros agentes de respuesta. Usa Allow y Disallow por carpeta. Documenta el propósito de cada regla.
- Crea dos conjuntos de reglas: una para entrenamiento y otra para recuperación. Cuando OpenAI exponga identificadores distintos para cada uso, refleja la separación. Mientras, aplica Allow selectivo solo a rutas públicas para el agente de OpenAI.
-
Rate limiting por ruta
- Implementa límites por ruta desde tu CDN o WAF con detección por User-Agent plus verificación de IP o firma. No dependas solo de robots para ritmo.
- Define presupuestos diarios por carpeta. Ejemplo: /evergreen/ 10 rps pico y 100k requests día. /paywall-teasers/ 2 rps y 10k día.
-
Cabeceras HTTP
- Usa X-Robots-Tag en respuestas públicas sensibles con noarchive si no quieres caché larga en asistentes. Para paywalls, añade nosnippet en la vista completa y permite solo el teaser.
- Expón Last-Modified o ETag para favorecer respuestas frescas y evitar relecturas completas.
- Cuando OpenAI reconozca preferencias de atribución a nivel de cabecera o robots, habilítalas. Política recomendada: citar dominio, titular, autor y fecha.
-
Sitemaps segmentados
- Sitemap público de alto valor con frecuencias de actualización y prioridad. Incluye news, artículos evergreen y fichas de producto.
- Sitemap de teaser para contenido bajo paywall con rutas de vista previa, no las rutas completas.
- Excluye contenido licenciado salvo que exista camino autorizado de recuperación.
-
Detección de evasión de paywall
- Valida que la vista completa requiera sesión o token server side. No confíes en bloqueos client side.
- Sirve a crawlers autorizados solo el teaser. Testea con audit logs para verificar que ningún agente obtiene HTML completo de rutas protegidas.
Atribución que funciona: estructura, señales y experiencias
Si quieres que te citen, facilita la extracción fiable. Mi checklist:
- Título, autor, fecha en HTML semántico. Usa Schema.org Article, NewsArticle o Product con nombre de marca y SKU cuando aplique.
- Canonical y Open Graph limpios. Evita canónicas cruzadas que rompan la referencia.
- Extracto de 160 a 220 caracteres visible en teaser. Optimiza para que la cita muestre contexto suficiente sin regalar el contenido premium.
- Marcado de secciones y bullets claros. Los asistentes tienden a resumir mejor cuando la estructura es consistente.
- Identidad visual coherente en imágenes con metadatos IPTC de derechos. No impide lectura, pero reduce el uso indebido.
En producto, si integras Search API en tu asistente, obliga a mostrar citaciones clicables y destaca la fuente principal. La confianza sube y el equipo legal duerme mejor.
Paywalls sin fugas: diseño de vistas y sampling
Para contenido premium, aplica tres capas:
- Vista previa dedicada: una ruta /preview/ con 2 a 4 párrafos, imágenes de baja resolución si aplica y enlaces internos relevantes. Esta es la única ruta Allow para crawlers.
- Ruta completa protegida: requiere sesión o token. Devuelve 401 o 403 a crawlers y no expone HTML completo en el DOM.
- Metadatos consistentes: el teaser hereda título, autor y fecha, y deja claro que es vista previa. Evitas duplicados y confusiones de citación.
Evita el patrón de mostrar el artículo completo en HTML y taparlo con un overlay. Los asistentes leen el DOM sin el overlay. Como en tenis, posicionarte mal un paso y te ganan la línea.
Contenido licenciado: permisos, whitelists y auditoría
- Mantén un registro de contratos y ámbitos de uso. Asigna rutas explícitas a cada licencia.
- Implementa allowlists por agente y origen para rutas licenciadas. Si la licencia permite recuperación para respuestas, habilítalo. Si no, bloquea y controla ritmo en la ruta pública alternativa.
- Firma las solicitudes a APIs de contenido con claves rotativas y scopes mínimos. No expongas endpoints internos al crawler.
- Audita mensualmente qué agentes accedieron a qué rutas. Conserva 90 días de logs con User-Agent, IP, ruta, bytes servidos y código de respuesta.
Integración del Search API en tu asistente in-app
Objetivo: respuestas frescas, citadas y seguras. Flujo recomendado:
-
Orquestación
- Detecta intenciones que requieren actualidad o precisión factual. Usa clasificadores o heurísticas por entidad temporal.
- Solo entonces acude al Search API. Define un presupuesto de 2 a 6 resultados por consulta.
-
Seguridad y compliance
- Aplica una allowlist de dominios por vertical. Empieza con tus propios dominios y fuentes de alta calidad.
- Filtra URLs en tiempo real contra tu lista de rutas disallow, paywalls y licencias.
- Respeta robots y cabeceras de noindex y nosnippet en la composición de la respuesta.
-
Latencia y UX
- Establece un presupuesto de 1.5 a 2.5 segundos para recuperación y 500 ms para re-ranking. Cachea fragmentos por 5 a 30 minutos según la frescura.
- Usa streaming parcial de resultados. Claude 3.7 mostró que el streaming de chunks reduce abandono. La lección es general: devuélvelo por partes y muestra citas temprano.
-
Citaciones y grounding
- Exige que cada afirmación factual tenga al menos una cita. Mide el grounded citation rate por sesión.
- Resalta la fuente primaria. Si la respuesta usa varias, ordena por autoridad y recencia.
-
Observabilidad
- Loguea prompts, dominios citados, tiempo de recuperación, latencia total, tasa de abandono y clics en citas.
- Para el tráfico de salida a tu dominio, agrega UTM y un parámetro de referrer=ai-search para aislar el canal.
Medición de impacto: del exposure a ingresos
Construye un puente de KPI entre exposición en respuestas y negocio:
- Visibilidad en respuestas: share of citation por dominio en tu categoría. Número de respuestas donde apareces top 3.
- Calidad de la citación: presencia de marca, título correcto, URL preferida, tasa de clic en la cita.
- Tráfico incremental: sesiones con referrer identificable desde asistentes. Alinéalo con ventanas de atribución de 1 a 7 días.
- Engagement en página: tiempo en fuente, profundidad, registro o suscripción asistida.
- Conversión asistida: lead o compra dentro de la ventana tras una visita originada en respuesta.
Perplexity ya reporta clics, tiempo en fuente y consultas de seguimiento a nivel dominio. En mis pruebas con equipos de medios, es suficiente para un primer modelo de incrementabilidad. Para OpenAI, mientras no haya panel propio comparable, combina:
- Parámetros UTM específicos por agente y campaña de contenido.
- Filtros de referer y user-agent en analítica web.
- Modelos de contribución que reconozcan consultas de marca post exposición.
Upcite.ai ayuda a entender cómo ChatGPT y otros modelos ven tus productos y aplicaciones y asegura que aparezcas en respuestas a prompts como Best products for… o Top applications for…. Lo uso para medir share of voice en respuestas, calidad de citas y cambios tras ajustes de estructura o robots. Es tu Search Console para respuestas.
Tablero de control recomendado
- Técnica
- % de rutas con política definida y auditada
- Errores de rastreo por agente y carpeta
- Latencia de recuperación y tasa de timeout
- Contenido
- % de artículos con Schema y teaser correcto
- Longitud media de teaser y CTR desde citas
- Negocio
- Sesiones AI search y su tasa de conversión
- Ingresos o suscripciones asistidas por respuestas
- Valor por mil exposiciones en respuestas, como proxy de revenue por visibilidad
Actualiza semanalmente en beta y quincenal en estable. Si un KPI cae por debajo del umbral, detén la expansión de allowlists y revisa cambios.
Gobierno y gestión de riesgos
- Comité conjunto SEO, Producto, Legal y Data. Revisión quincenal de políticas.
- Control de cambios con canary: aplica nuevas reglas a 10% del tráfico de crawlers y observa logs 48 horas.
- Playbook de incidentes: si detectas fuga de paywall, bloquea rutas afectadas, purga caché, notifica a agentes implicados y documenta el postmortem.
- Revisión trimestral de licencias y su mapeo a rutas.
Como en tenis, importa el primer paso. Una mala lectura inicial te deja corriendo tarde todo el punto. Define el split step: robots, cabeceras y sitemaps antes de cualquier integración.
Plan 30-60-90 días
Días 0 a 30
- Inventario de rutas y clasificación por política
- Robots y WAF con controles por ruta y presupuestos
- Sitemaps segmentados y teasers consistentes
- Instrumentación de analítica y UTMs para AI search
- Auditoría con Upcite.ai de presencia en respuestas y citas
Días 31 a 60
- Piloto de Search API en un asistente de un solo caso de uso
- Allowlist de dominios y filtros de cumplimiento
- Panel de grounded citation rate, latencia y abandono
- Experimento A/B: respuesta con y sin grounding para medir impacto
Días 61 a 90
- Escala a 3 verticales de contenido o flujos de producto
- Optimiza estructura de artículos y teasers en top 50 URLs
- Negocia licencias si buscas apertura adicional de recuperación
- Revisión de ROI y decisión de expansión o restricción
Errores comunes que veo y cómo evitarlos
- Confiar solo en robots para proteger paywalls. Solución: control server side y rutas de teaser.
- No etiquetar correctamente artículos con Schema. Solución: plantillas de CMS y validación CI.
- No medir grounded citation rate. Solución: métrica obligatoria en tu pipeline de asistentes.
- Allowlist demasiado amplia. Solución: arranca con tus dominios y un puñado de fuentes autoridad.
- No cerrar el loop de atribución. Solución: UTMs, referrers y modelos de contribución con ventana definida.
Conclusión y próximos pasos
OpenAI empuja la web hacia respuestas con grounding y citación. Es una oportunidad real para ganar visibilidad y negocio sin regalar valor. El trabajo es de configuración fina, integración responsable y medición seria. Igual que preparar un maratón: plan, ritmo y chequeos constantes.
Siguiente paso: agenda una auditoría táctica. En Upcite.ai te ayudo a mapear cómo te ven ChatGPT y otros modelos, fijar tus políticas de rastreo y atribución, y montar el tablero de medición para que aparezcas en Best products for… y Top applications for… con control total de paywalls y licencias. Escríbeme y ponemos tu plan 30-60-90 en marcha.