u/PomberoSEO

GEO es un campo minado de fragmentación y volatilidad: datos y realidades que deberíamos normalizar

GEO es un campo minado de fragmentación y volatilidad: datos y realidades que deberíamos normalizar

Esto lo comenta Juan González Villa en su LinkedIn:

El GEO es un canal muy fragmentado. Los dos buscadores con respuestas de IA de mayor uso en estos momentos son las AI Overviews de Google y ChatGPT, y ambos arrojan respuestas muy diferentes a las mismas preguntas. No son sólo ellos. Según el estudio de Kevin Indig y Omnia, sólo el 2% de las URLs son citadas por 3 chatbots a la vez (ChatGPT, Perplexity y Gemini). Mientras que un 91% de las URLs aparecen sólo en uno de los asistentes.

Estas cifras no son una anomalía de este preciso momento, sino que se han mantenido constantes desde enero de 2025. ¿Puede que en el futuro los resultados de chatbots IA sean más homogéneos entre unos y otros asistentes? Sí, podría ser, pero la tendencia actual no sugiere esto.

Además, este fenómeno se mantiene por intenciones de búsqueda. Los prompts con intención comercial o transaccional están tan fragmentados como los de intención informativa. Podrías tener mucha visibilidad en Gemini, pero mucho menor en ChatGPT y Perplexity.

https://preview.redd.it/u2i83wfrv91h1.png?width=480&format=png&auto=webp&s=b8bd4624c46d6d2e011b954856dc5438bcdfb95e

Incluso dentro de un chatbot concreto, por ejemplo ChatGPT, hay diferencias por modelo. Cada vez que OpenAI actualiza el modelo usado por ChatGPT se dan diferencias considerables en los resultados, e incluso en el número de citaciones (ya que cambia el propio proceso interno de query fan-out).

Y puede haber diferencias también entre lo que ven los usuarios del plan gratuito y los usuarios de pago, ya que los gratuitos están limitados en su uso del modelo más avanzado, y el enrutador puede dirigir sus preguntas hacia modelos más sencillos, mientras que en planes de pago tienes control sobre el modelo usado.

Por si esto no fuera reto suficiente, tenemos el problema de la volatilidad de las respuestas de un mismo asistente, por su naturaleza probabilística, en la que siempre se da un elemento de aleatoriedad (están programados por sistema para no dar respuestas idénticas a una pregunta abierta, por lo que pueden variar también las entidades recomendadas y las fuentes citadas).

Y pensábamos que el SEO era volátil y difícil de medir…

reddit.com
u/PomberoSEO — 2 hours ago

Google utiliza datos históricos de clics para la ampliación de consultas (Query Augmentation)

Koray Tugberk ha publicado esto en LinkedIn y me pareció muy interesante para la comunidad.

Lo que Google denomina técnicamente "query fan-out" está directamente ligado a lo que sus patentes más antiguas describen como query augmentation. Uno de los inventores, Anand Shukla, también figura en patentes relacionadas con Search with Stateful Chat, lo que conecta esta mecánica con los sistemas de recuperación modernos y con la evolución hacia entornos conversacionales y de estado persistente.

Cuando armamos un brief de contenido para una red semántica, no lo optimizamos para la consulta cruda (raw query). Lo construimos para la consulta ampliada.

La razón es técnica: Google evalúa la relevancia a través de variantes expandidas, sintéticas y validadas históricamente, no solo por las palabras exactas que introduce el usuario.

La patente de Query Augmentation utiliza long clicks para puntuar consultas sintéticas, recuperar documentos y extraer pasajes. El flujo simplificado del sistema es:

  1. Recibe la consulta del usuario.
  2. Parsea términos, frases, entidades, ubicaciones y marcas.
  3. Busca consultas de ampliación similares o relacionadas.
  4. Las rankea por similitud, coste de transformación y señales de rendimiento.
  5. Selecciona las mejores consultas ampliadas.
  6. Recupera resultados mediante la consulta ampliada.
  7. Las combina con los resultados de la consulta original.
  8. Actualiza el almacén de consultas con CTR, long clicks y feedback implícito.
  9. Genera consultas sintéticas a partir de datos estructurados, títulos, anchors y listings de negocio.
  10. Ajusta el peso de la consulta sintética según si el intent es general o específico.

Implicación directa para el SEO técnico y de contenidos:

Una página ya no se evalúa únicamente contra la keyword principal. El sistema la contrasta contra:

  • La consulta cruda
  • La consulta ampliada
  • La consulta de siguiente paso (next-step query)
  • Recuperación por pasajes
  • La red de contenido semántico

Por esto, los briefs modernos no deben estructurarse alrededor de una única keyword. Deben mapearse en torno a la red de consultas ampliadas. Esta es también la razón por la que priorizamos variaciones con 0 volumen en herramientas de terceros: el motor de Google sí las procesa, las valida mediante comportamiento histórico y las inyecta en el grafo de recuperación aunque no aparezcan en dashboards comerciales.

u/PomberoSEO — 2 days ago

No, añadir datos estructurados no te hace aparecer más en ChatGPT ni ningún otro LLM. Otro bulo 'GEO'

Ahrefs publicó hace tan solo un par de días un estudio donde probó como su implementación en 1.885 páginas diferentes no supuso cambio alguno en sus apariciones en IA tras más de 6 meses.

Aquí lo tienes: https://ahrefs.com/blog/schema-ai-citations/

¿Por qué? Fácil, simplemente porque no saben interpretarlos. Los leen, sí... como hacen con el resto de texto de la web. No lo entienden.

Esto lleva ya meses más que probado, pero aquí más de uno te va a seguir intentando vender la moto.

Sí, la mayoría de URL's que aparecen en los LLM tiene Schema ¿Sabes por qué?

'Porque los sitios que implementan datos estructurados suelen invertir también en SEO técnico, publicar contenido de autoridad, generar enlaces, mantener sus páginas y posicionarse bien en las búsquedas orgánicas.'

Via: Carlos Ortega Roldán

u/PomberoSEO — 2 days ago

El rol evolutivo del índice: De rankear páginas a soportar respuestas

Esta es una traducción y resumen de este artículo del blog de Bing: https://blogs.bing.com/search/May-2026/Evolving-role-of-the-index-From-ranking-pages-to-supporting-answers

Durante décadas, los motores de búsqueda han dependido de sistemas de indexación a gran escala para ayudar a las personas a descubrir información en la web. La infraestructura detrás de esto —rastrear miles de millones de páginas, evaluar la calidad del contenido, rankear resultados por relevancia— se convirtió en la columna vertebral de cómo navegamos por internet. Este modelo ha funcionado extraordinariamente bien, y sigue haciéndolo.

Pero los sistemas de IA (por ejemplo, agentes de IA, asistentes y respuestas generativas integradas en búsqueda y aplicaciones) no navegan por internet de la misma forma que los humanos. Y eso cambia el problema de indexación de manera fundamental.

Dos sistemas, dos responsabilidades

La búsqueda tradicional y los sistemas de grounding (fundamentación) comparten la misma base —rastreo, comprensión y rankeo de la web—, pero están optimizados para resultados fundamentalmente distintos.

La búsqueda tradicional pregunta: ¿qué páginas debería visitar un usuario?
El grounding pregunta: ¿qué información puede usar responsablemente un sistema de IA para construir una respuesta?

Estas preguntas suenan similares. No lo son. La siguiente tabla desglosa las consideraciones clave:

Dimensión Búsqueda tradicional Grounding para respuestas de IA
Pregunta principal ¿Qué páginas debería visitar un usuario? ¿Qué información puede usar responsablemente un sistema de IA para construir una respuesta?
Unidad de valor El documento (página) Información fundamentable (hechos discretos, verificables y con procedencia clara)
Rol del usuario Humano evalúa resultados y se autocorrige Usuario ve una respuesta sintetizada; la verificación independiente requiere consultar las fuentes citadas
Dinámica de errores Un rankeo imperfecto es tolerable; la recuperación es fácil Los errores pueden acumularse a través de pasos de razonamiento
Resultados válidos Devolver opciones rankeadas Responder cuando hay soporte; abstenerse cuando la evidencia es insuficiente
Responsabilidad Mostrar opciones relevantes Proveer evidencia de alta calidad que pueda soportar una respuesta comprometida

¿Para qué optimiza la indexación de búsqueda tradicional?

La indexación tradicional responde a una pregunta simple: ¿qué páginas debería visitar un usuario? El objetivo es recall y amplitud: mostrar tantas opciones relevantes como sea posible y dejar que el usuario elija. La unidad de valor es el documento: una página que rankea bien, que un humano puede escanear, evaluar y actuar sobre ella.

Esa simplicidad es una característica. La búsqueda fue diseñada para humanos que pueden escanear una página de resultados, saltar los resultados que no encajan y corregir el rumbo en tiempo real. El índice no necesita tener razón en cada resultado —necesita tener la razón suficiente para que el usuario encuentre lo que busca.

¿Qué cambia cuando el objetivo es fundamentar respuestas de IA?

Fundamentar una respuesta generada por IA introduce una restricción fundamentalmente distinta: el sistema ya no solo está señalando información, la está usando. El objetivo cambia de "obtener los mejores documentos" a "obtener la mejor información para sintetizar una respuesta fiable y verificable".

En lugar de solo rankear páginas, el índice debe ayudar a un sistema de IA a determinar qué información específica puede soportar responsablemente una respuesta. La unidad de valor cambia de documentos a información fundamentable: hechos discretos, verificables y con procedencia clara. Cuando un sistema de IA presenta una respuesta, múltiples fuentes pueden colapsar en una sola afirmación y los errores pueden acumularse a través de pasos de razonamiento.

Por ello, las prácticas de grounding enfatizan la identificación de fuentes para que los usuarios puedan validar afirmaciones o profundizar cuando sea necesario. En este contexto, el sistema debe decidir no solo qué responder, sino si la evidencia es suficiente para responder en absoluto. La abstención es un resultado válido cuando el soporte falta, está desactualizado o es conflictivo —refleja un juicio deliberado sobre lo que la evidencia disponible puede justificar.

¿Qué debe medir el índice de forma diferente?

Aquí es donde los dos sistemas divergen de manera más concreta. Las métricas que optimiza la búsqueda no son las mismas que necesita rastrear el grounding —y cerrar esa brecha requiere repensar desde cero qué significa "calidad del índice".

Qué medir En búsqueda tradicional En grounding
Fidelidad factual El rankeo tolera cierto desajuste; el usuario puede hacer clic e interpretar Crítico: el chunking/transformaciones deben preservar significado y afirmaciones usadas en la respuesta
Calidad de atribución de fuentes La atribución es útil, pero los usuarios eligen en quién confiar Señal central: la evidencia necesita procedencia clara y peso probatorio variable
Actualización (Freshness) Contenido desactualizado degrada principalmente la utilidad del rankeo Hechos desactualizados pueden producir directamente respuestas incorrectas
Cobertura de hechos de alto valor Cobertura amplia; perder un documento suele ser recuperable mediante resultados alternativos Debe asegurar que los hechos y fuentes que la gente pregunta sean realmente recuperables y fundamentables
Contradicciones / conflicto Puede mostrar una fuente por encima de otra y dejar que el usuario arbitre Debe detectar y representar el conflicto; la arbitraje silencioso arriesga respuestas erróneas con confianza

La calidad de la búsqueda tradicional se mide principalmente a través del comportamiento del usuario y el rendimiento del rankeo. El índice pregunta: ¿se está mostrando el contenido más relevante en la parte superior? ¿Encuentran los usuarios lo que necesitan? ¿Está el contenido lo suficientemente actualizado para ser útil en el rankeo? ¿Se están colapsando eficientemente las páginas casi duplicadas? Todas estas métricas asumen un humano en el bucle que puede escanear, saltar y autocorregirse. Un resultado desactualizado es un problema de rankeo. Un documento perdido es una brecha de cobertura. Ambas importan, pero ninguna es catastrófica, porque el usuario puede recuperarse.

El grounding cambia lo que el índice necesita considerar, de formas que son tanto más exigentes como más difíciles de medir. La fidelidad factual se vuelve crítica: ¿la representación indexada de una página preserva con precisión el significado del contenido original? Los procesos de fragmentar contenido en chunks recuperables y transformarlo para búsqueda rápida pueden distorsionar la sustancia de la página de formas que nunca aparecen en ninguna señal de rankeo.

La calidad de atribución de fuentes importa de una manera totalmente nueva: no todo el contenido indexado tiene el mismo peso probatorio para una respuesta de IA, y el índice necesita entender esa distinción.

El fallo en freshness tiene un costo categóricamente distinto. En búsqueda, el contenido desactualizado degrada el rankeo. En grounding, un hecho desactualizado produce una respuesta engañosa. El índice también debe considerar brechas de cobertura en contenido de alto valor —no solo si la web está indexada de forma amplia, sino si los hechos y fuentes específicos que la gente probablemente pregunte están realmente disponibles y fundamentables.

Y cuando dos fuentes indexadas se contradicen, un índice de grounding no puede simplemente mostrar una por encima de la otra y seguir. Necesita registrar ese conflicto, porque un sistema de IA que arbitra silenciosamente entre fuentes contradictorias es uno que puede afirmar con confianza algo incorrecto.

El cambio en lo que se mide refleja un cambio más profundo en de qué es responsable el índice. Una función de búsqueda es responsable de mostrar opciones. Una función de grounding es responsable de la calidad de la evidencia que provee a un sistema de IA que se comprometerá con una respuesta que los usuarios pueden verificar posteriormente.

El grounding se construye sobre la búsqueda

Un error común es que el grounding reemplaza a la búsqueda. No es así. El grounding se construye sobre la misma infraestructura fundamental —los mismos crawlers, las mismas señales de calidad, la misma comprensión profunda de la web—, pero añade una nueva capa de optimización encima.

El grounding trata de determinar qué información puede soportar responsablemente una afirmación y tener la disciplina de abstenerse cuando la evidencia no está ahí. La infraestructura es compartida. El propósito es diferente.

La recuperación se convierte en un sistema, no en un paso

La búsqueda tradicional es típicamente una interacción única: consulta entra, resultados rankeados salen. La simplicidad de ese modelo es una característica —es rápido, predecible y fácil de razonar.

El grounding opera en bucles. Un sistema que fundamenta una respuesta de IA puede necesitar hacer preguntas de seguimiento, refinar la recuperación basándose en resultados intermedios, combinar evidencia de múltiples fuentes y reevaluar cuando la confianza es baja. Esto cambia completamente el perfil de error del índice —en particular, de los sistemas de recuperación. Si los pasos iniciales de recuperación introducen errores sutiles, esos errores se acumulan a través de pasos de razonamiento subsiguientes de formas que ningún revisor humano detectaría en tiempo real.

Los sistemas de grounding no pueden depender de la red de seguridad que proporciona la búsqueda —donde un usuario escanea resultados, salta hits irrelevantes y corrige el rumbo sobre la marcha. Por ello, los sistemas de recuperación deben optimizar no solo para recuperación de un solo disparo, sino para un comportamiento consistente y repetible a través de uso iterativo.

La imagen completa

Indexar para respuestas de IA fundamentadas no es una reinvención de la búsqueda —es una evolución importante de la misma. El grounding se compromete con una respuesta. Esta no es una evolución superficial.

El cambio que describimos al inicio vale la pena reiterarlo claramente: la indexación de búsqueda se construyó para ayudar a humanos a decidir qué leer. La indexación de grounding se está construyendo para ayudar a sistemas de IA a decidir qué decir. La infraestructura requerida para hacer bien esas dos cosas no es la misma —incluso cuando parte de la misma base.

Lo que hace difícil esto no es la brecha tecnológica —es la brecha de medición. Tenemos décadas de práctica midiendo calidad de búsqueda. Todavía estamos aprendiendo qué significa medir rigurosamente la calidad del grounding: no solo si una respuesta fue recuperada, sino si la evidencia detrás de ella era precisa, actualizada, atribuible y consistente.

>La búsqueda optimiza por probabilidad de relevancia.
El grounding debe medir fuerza de la evidencia.

Entender esa diferencia no es solo una preocupación de ingeniería. Es el punto de partida para construir sistemas de IA en los que las personas puedan realmente confiar.

🔗 Para una perspectiva práctica sobre lo que este cambio significa para creadores de contenido, consultad nuestro post de noviembre de 2025 sobre Optimizar contenido para inclusión en la era de la IA, que describe pasos concretos para hacer la información más fácil de interpretar, citar y verificar en experiencias de IA. Bing Webmaster Tools puede complementar esa guía, ayudándoos a usar datos reales de rendimiento para refinar lo que publicáis y cómo lo estructuráis para descubrimiento impulsado por IA.

— Krishna Madhavan, Knut Risvik, Meenaz Merchant
Microsoft AI

u/PomberoSEO — 3 days ago

Según el estudio State of Search Q1 2026, las visitas a buscadores tradicionales en Europa no sólo no bajan, sino que aumentaron

Los buscadores tradicionales han aumentado en el primer trimestre de 2026 su cuota respecto al añoa pasado, y respecto a todos los trimestres entre medias.

Y por cierto, en Europa decir "buscador tradicional" es decir Google, ya que Google tiene actualmente el 96% de la cuota de uso dentro de buscadores tradicionales en Europa. Bing llegó a tener un 5% a finales de 2025, pero ahora está de nuevo en el 3,5%. El siguiente es Duck Duck Go con un 1,2%

Todo según el estudio State of Search Q1 2026, de Datos, que ha analizado decenas de millones de usuarios activos en desktop en EE.UU. y Europa, entre el primer trimestre de 2025 y el primer trimestre de 2026.

Aquí el enlace al estudio: https://datos.live/report/state-of-search-q1-2026/

Fuente: Juan González Villa, en su post de LinkedIn

u/PomberoSEO — 3 days ago

[Estudio] Análisis de los 22 Factores de Ranking para Citas de IA (GEO/AIO)

Link al estudio: https://signal.zyppy.com/p/ai-citation-ranking-factors , presentado por Cyrus Shepard en LinkedIn.

Hola a todos,

Parece que hoy en día todo el mundo habla de las Citas de IA como la nueva vía para ganar visibilidad y captar una parte del tráfico, pero ¿qué es lo que realmente funciona?

Para intentar responder a esto, me di a la tarea de recopilar prácticamente todos los artículos académicos, estudios, experimentos y casos de éxito publicados en los últimos dos años. Extraje, catalogué y califiqué los hallazgos más relevantes de docenas de las investigaciones más sólidas hasta la fecha.

El resultado: 22 "Factores de Ranking" asociados con la obtención de citas en respuestas de IA.

La buena noticia es que la mayoría de estos factores de ranking para IA se alinean con el SEO tradicional, aunque con algunos matices y ajustes técnicos.

Además, basándome en estos datos, he preparado una Checklist de 7 pasos para Citas de IA que publicaré la próxima semana.

Sinceramente, no habría podido realizar este análisis sin las contribuciones de los investigadores de IA y los referentes de nuestra industria. Si les interesa este tema, estas son las personas a las que deberían seguir: Dan Petrovic, Ann Smarty, Kevin Indig, Rand Fishkin, Metehan Yeşilyurt, Andrea Volpini, Britney Muller, Oshen Davidson, Michael King, Lily Ray, Dawn Anderson, David McSweeney... y muchos otros investigadores académicos que no tienen tanta presencia pública.

https://preview.redd.it/p63qbswtnzzg1.png?width=800&format=png&auto=webp&s=1e597acc7fa0252e597bafa0e4971d2b44239c5b

reddit.com
u/PomberoSEO — 7 days ago

«El tráfico de IA convierte mejor que el orgánico». No, normalmente no, pero a veces sí, y aún así, traigo reflexiones

El amigo Carlos González comparte este pensamiento que está basado en sus investigaciones.

En Tasas de conversión puede ser mejor canal que el orgánico, por ejemplo.

Pero cuando miras los números absolutos, la cosa cambia tela.

Esto es un análisis de 12 meses de tráfico de un líder de su sector en España.

Marca muy consolidada, cientos de miles de sesiones al mes:

→ Orgánico (Google): 6,61% de conversión
→ Asistentes IA (ChatGPT, Gemini, Perplexity, Copilot): 9,46%

Pero en volumen:
→ Orgánico: 841.000 sesiones · 55.610 leads
→ Asistentes IA: 8.438 sesiones · 798 leads

El orgánico trae ×70 más leads que toda la IA junta.

El SEM, para que conste: 65.105 leads. Rey de este negocio concreto (invierten pasta a grifo abierto)

Y ahora la reflexión:

¿De verdad tanto ruido? ¿moverías el foco a la IA porque "convierte mejor"?

Y ahora súmale que para que ChatGPT, Gemini o Perplexity te citen, necesitas autoridad orgánica. Sin SEO sólido no hay SEO para IAs que valga

El SEO es el pasaporte para entrar en los LLMs — y, en una marca consolidada como esta, es justo lo que hace que la usen como referencia en sus respuestas.

Y otra cosa, si aíslas orgánico únicamente por el tráfico transaccional, la tasa de conversión supera al de la IA

Por tanto y ya lo he dicho muchas veces: foco. No os dejéis llevar por el ruído, ya llevamos muchos meses con la IA y el escenario no está cambiando.

Hacemos pequeñas modificaciones, medimos para no perdernos nada y para estar al loro de cuando la cosa cambie (si es que lo hace)

Pero a día de hoy, lo que genera negocio siguen siendo los canales de siempre

No es una opinión, son datos

https://preview.redd.it/jd8jobid5izg1.png?width=800&format=png&auto=webp&s=475af0699c21dceb753da3db997b606e3b3a8d2d

reddit.com
u/PomberoSEO — 9 days ago

Los agentes de IA son el nuevo "usuario" web: resumen técnico y implicaciones SEO (web.dev)

Hola comunidad,

Acabo de leer el artículo de web.dev sobre agentes de IA y quise compartir un resumen práctico enfocado en SEO y desarrollo web. Si gestionáis sitios para clientes, esto os va a interesar.

¿Qué son exactamente los agentes de IA?

Un agente de IA es un sistema que recibe una entrada, interpreta la intención, planifica una estrategia y ejecuta acciones en nombre de un usuario (humano o máquina). En el contexto web, representan una nueva categoría de "usuario no humano" que interactúa con tu sitio de forma autónoma, más allá del rastreo pasivo de los bots tradicionales.

Características principales:

  • Autónomos: operan sin intervención humana constante
  • Interactivos: pueden conversar con usuarios y otros agentes
  • Reactivos: perciben cambios en el entorno y se adaptan
  • Proactivos: toman iniciativa para cumplir objetivos

¿Cómo interactúan con tu sitio?

El flujo típico de un agente:

  1. Recibe la consulta del usuario final
  2. Procesa la información y genera un plan de acción
  3. Ejecuta el plan: navega, hace clic, rellena formularios, extrae datos
  4. Almacena aprendizajes en memoria para optimizar futuras interacciones

Importante: los agentes bien diseñados deben solicitar confirmación en pasos sensibles (compras, envío de datos personales).

Dos formas de "ver" tu sitio

Los agentes pueden interactuar de dos maneras:

Interacción visual: El agente "ve" la página renderizada como lo haría un humano, usando visión por computadora para identificar botones, formularios y estructuras.

Interacción semántica: El agente accede directamente al DOM, analiza el HTML, lee texto y metadatos estructurados.

Implicación directa: un sitio bien estructurado, accesible y con jerarquía semántica clara beneficia a ambos tipos de interacción. Si tu sitio depende demasiado de JS complejo sin SSR o tiene una estructura de contenido pobre, los agentes tendrán más dificultades para ayudarte.

Tipos de agentes según el acceso a datos

Tipo Relación con los datos Ejemplo Implicación para tu sitio
Terceros Agente y datos son locales (navegador) Extensión que procesa PII localmente Respeta privacidad; evita bloquear por user-agent sin criterio
Interno/Propio Mismo propietario para agente y datos Google Maps usando datos de usuario para generar rutas Puedes optimizar flujos si controlas ambas partes
Externo Agente y datos de fuentes distintas Agente que consulta tu sitio + API de reservas externas Necesitas documentar permisos y acceso de forma clara

Acciones prácticas para SEOs y desarrolladores

Lo que deberías implementar ya:

  • Accesibilidad como prioridad: etiquetas semánticas, ARIA, contraste adecuado, navegación por teclado. Los agentes se benefician de lo mismo que los usuarios con discapacidades.
  • Estructura de contenido clara: jerarquía de encabezados, uso estratégico de Schema.org (Product, Article, FAQ, Breadcrumb).
  • Rendimiento y Core Web Vitals: carga rápida, renderizado consistente, estabilidad visual. Los agentes operan en entornos con recursos limitados.
  • Documentación de APIs y flujos: si tu sitio tiene funcionalidades que podrían ser útiles para agentes, documenta endpoints y comportamientos esperados.
  • Consentimiento granular: implementa capas de confirmación para acciones sensibles (checkout, formularios con PII).

Lo que deberías monitorizar:

  • Patrones de rastreo no tradicionales en tus logs (agentes que interactúan, no solo GET)
  • Posible aumento de solicitudes automatizadas en formularios o procesos de checkout
  • Necesidad de segmentar tráfico humano vs. agente en tus herramientas de analytics

Tendencias a seguir de cerca:

  • WebMCP (Web Model Context Protocol): propuesta de Chrome para estandarizar interacciones entre agentes y sitios web.
  • E-E-A-T reforzado: los agentes priorizarán fuentes confiables, bien estructuradas y con señales de autoridad claras.
  • Evolución de AI Overviews/SGE: los agentes podrían usar estos resúmenes como punto de partida para sus propias acciones.

La idea central del artículo es potente: muchas de las prácticas que preparan tu sitio para agentes de IA son exactamente las mismas que mejoran la experiencia para todos los usuarios, especialmente en accesibilidad.

Como consultores SEO, nuestra ventaja está en anticipar estos cambios: auditar sitios pensando en interacción (no solo rastreo), asesorar sobre arquitectura de información que funcione para humanos y máquinas, y preparar a los clientes para flujos automatizados que ya están llegando.

Fuente: https://web.dev/articles/ai-agents?hl=es-419

u/PomberoSEO — 10 days ago

Cuando usas ChatGPT, Claude, Grok o Perplexity de forma gratuita en el navegador, parte de tu actividad (email, título de la conversación y URL del chat) acaba en manos de Meta, Google, TikTok y otros trackers

Y esto ocurre estés logueado o no... y en algunos casos, ni rechazando cookies te libras.

Recordemos además que en Grok y Perplexity los enlaces de conversación son públicos por defecto. Cualquiera con la URL podía leer tu conversación. Y esa URL se enviaba a Meta, Google y TikTok junto con cookies que te identifican.

Esto es lo que cada plataforma estaba compartiendo:

> Grok (xAI)
- Google Analytics + DoubleClick: URL y título de la conversación (siempre, incluso desde incógnito)
- TikTok: email hasheado, URL, título y captura de pantalla con el texto literal del mensaje en el alt de la imagen (al aceptar cookies)
Meta Pixel: URL con UUID de la conversación + cookie _fbp (al aceptar cookies)

> Perplexity
- Datadog: email en texto plano, URL, zona horaria, device ID (siempre, sin importar consentimiento)
- Singular: hash del email + metadatos (siempre)
- Meta Pixel: cookie _fbp + URL (descontinuado el 3 de abril, tras una class action en USA)

> ChatGPT (OpenAI)
- Google Analytics: URL de la conversación + título de la página (que revela el tema del chat)
- Se envía siempre en cuentas free logged-in, independientemente de si aceptas cookies o no

> Claude (Anthropic)
- Intercom: email + URL de la conversación (siempre que estés logueado)
- Datadog: ID anónimo, URL con GUID del chat, estadísticas de uso (al aceptar cookies)
- 11 destinos server-side: email, UUID de cuenta, plan, país, session IDs de Segment y Amplitude (al aceptar cookies)
- Meta Pixel: cookie _fbp + metadatos (al aceptar cookies)

reddit.com
u/PomberoSEO — 10 days ago