Durante más de una década, Google negó usar datos de clics para posicionar resultados. El juicio antitrust de 2023 y el leak de 2024 confirmaron que mentían. Análisis técnico de NavBoost y tres posturas contrarian para SEOs.
Federico
Equipo de Autoridad Digital
Durante más de una década, los portavoces oficiales de Google —John Mueller, Gary Illyes, Danny Sullivan— repitieron la misma línea cada vez que alguien preguntaba si los clics de los usuarios influían en el posicionamiento: no, no usamos el CTR como factor de ranking. Era falso. Y no lo sabemos por filtraciones anónimas de Reddit ni por paranoia de foros SEO: lo sabemos porque un ingeniero de Google lo admitió bajo juramento en un tribunal federal, y porque meses después filtraron por error 2.596 endpoints internos de su propia API.
Este artículo hace dos cosas. Primero, reconstruye técnicamente qué es NavBoost a partir del testimonio del juicio antitrust United States v. Google y del Content Warehouse leak de mayo de 2024. Segundo —y más importante— disecciona tres posturas contrarian que casi ningún analista español está defendiendo públicamente, pero que cambian por completo la asignación de presupuesto SEO para 2026.
Si llevas tiempo en el sector, algunas cosas no te sorprenderán. Pero la forma en que encajan —y lo que no deberías hacer ahora— probablemente sí.
NavBoost es un sistema de re-ranking interno de Google Search que utiliza datos agregados de clics y comportamiento del usuario para ajustar los resultados de búsqueda, desarrollado internamente desde aproximadamente 2005 y confirmado públicamente durante el juicio antitrust del Departamento de Justicia de EE. UU. contra Google en 2023.
A diferencia de los algoritmos de primera pasada (que deciden qué documentos entran en el conjunto candidato para una consulta), NavBoost actúa como una capa de ajuste posterior: toma un ranking inicial y lo modifica subiendo o bajando URLs en función de cómo los usuarios interactuaron históricamente con esos resultados para consultas similares.
El sistema no se alimenta de un solo clic aislado. Opera sobre pares consulta-documento agregados a lo largo de una ventana temporal que, según el testimonio de Pandu Nayak (VP of Search de Google), se redujo de 18 meses a 13 meses en los años previos al juicio. Esa ventana es crítica: explica por qué los efectos de NavBoost son lentos, acumulativos y difíciles de atribuir a un cambio concreto.
Existe además un sistema hermano llamado Glue, que aplica la misma lógica a elementos no-web de la SERP: imágenes, noticias, vídeos, paneles de conocimiento y otros módulos especializados. Mientras NavBoost ajusta los resultados orgánicos clásicos, Glue hace lo propio con todo lo demás.
Las categorías de clics que NavBoost distingue no son un detalle técnico menor. Son el núcleo de su funcionamiento.
Del testimonio del juicio y del leak de 2024 emergen al menos cinco tipos de interacción que NavBoost categoriza internamente:
La palabra clave aquí es agregación. NavBoost no reacciona a usuarios individuales; procesa patrones masivos. Esto tiene dos implicaciones que desarrollaré más abajo: hace que la manipulación con bots sea costosa e ineficaz, y explica por qué los sitios con volumen alto de búsqueda de marca tienen una ventaja estructural casi imposible de superar.
En octubre de 2023, durante las audiencias de United States v. Google —el mayor caso antimonopolio contra una tecnológica desde Microsoft en los noventa—, Pandu Nayak fue llamado a testificar. Lo que dijo bajo juramento contradecía directamente la línea pública de comunicación de la compañía durante más de una década.
Nayak confirmó que NavBoost existe, que utiliza datos de clics como señal de ranking, y que estos datos provienen en parte del navegador Chrome. Describió las «ABC signals» internas —Anchors (enlaces), Body (contenido), Clicks— como una forma simplificada de pensar en los componentes nucleares del ranking. También admitió que Google desplegó RankBrain primero en consultas head (alto volumen) porque ahí es donde tenían más datos de clics con los que entrenar.
En agosto de 2024, la jueza Amit Mehta dictó sentencia declarando a Google monopolio ilegal en el mercado de búsqueda. Pero lo más valioso para la comunidad SEO no fue el veredicto: fueron los miles de páginas de evidencia, emails internos y presentaciones técnicas que quedaron como registro público.
Documentos internos mostraron a ejecutivos discutiendo explícitamente cómo ajustar NavBoost, cómo las señales de click afectan al ranking, y cómo incluso en equipos internos había preocupación porque la dependencia del comportamiento del usuario podría crear feedback loops donde los sitios populares se vuelven más populares por inercia.
En mayo de 2024, un error en un repositorio de GitHub expuso accidentalmente documentación interna del Content Warehouse API de Google: 2.596 módulos con más de 14.000 atributos. Rand Fishkin (SparkToro) y Mike King (iPullRank) fueron los primeros en analizarlo públicamente, y lo que encontraron fue una confirmación técnica de prácticamente todo lo que Google había negado durante años.
Entre los hallazgos más relevantes:
siteAuthority: un score a nivel de sitio, después de que Illyes y Mueller insistieran durante años en que «Domain Authority no es un concepto que Google use». El atributo existe, está documentado, y tiene valor numérico.hostAge: la edad del dominio, usada como señal de confianza.siteFocusScore y siteRadius: métricas de enfoque temático, que miden cuán coherente es un sitio alrededor de sus temas principales. Validan empíricamente la hipótesis de topical authority.goodClicks, badClicks, lastLongestClicks, exactamente como se describieron en el juicio.Twiddlers: funciones de re-ranking que operan sobre los resultados antes de mostrarlos al usuario. NavBoost es, en esencia, un Twiddler.El leak no reveló el algoritmo completo de ranking —esos pesos viven en infraestructura separada— pero sí demostró que la arquitectura de datos que los SEOs técnicos habían inferido durante años es, en lo esencial, correcta. Y que los portavoces oficiales de Google habían sido, en el mejor de los casos, evasivos; en el peor, directamente falsos.
Aquí es donde el análisis de la mayoría de publicaciones españolas y latinoamericanas se queda corto. Se limitan a listar hallazgos. Pocas están dispuestas a defender conclusiones incómodas. Estas son las tres que yo defiendo —y que considero verificables.
La tentación es evidente: si Google usa clics para rankear, compremos clics. Hay growth hackers vendiendo servicios de «CTR boost» por Telegram y foros rusos desde 2015. La realidad técnica es que esto no funciona a escala útil, y cuando parece funcionar, es por razones distintas a las que vende el servicio.
Primero, NavBoost opera sobre datos agregados con ventanas de 13 meses. Mover la aguja requiere volumen sostenido durante meses, no días. Segundo, las good clicks no son simples clics: requieren sesión larga, engagement significativo, ausencia de pogo-sticking y, en muchos casos, un last longest click —es decir, que el usuario no vuelva a buscar después. Simular eso con bots es órdenes de magnitud más caro que generar clics vacíos.
Tercero, Google detecta patrones. No necesitan saber qué IP específica está haciendo clic; necesitan detectar que una URL tiene una distribución de comportamiento anómala respecto a su nicho. Los anti-spam systems de SpamBrain procesan exactamente esto.
Y cuarto, el riesgo es permanente. Las penalizaciones manuales por manipulación de señales de usuario son discretas pero duraderas. Nadie que gestione un activo serio debería arriesgar el dominio principal en estas tácticas.
¿Qué sí funciona en esta dirección? Optimizar el paquete de SERP —title, meta description, URL, rich snippets, structured data— para que los usuarios que ya están buscando esa intención hagan clic más. Eso no manipula NavBoost: lo alimenta con clics legítimos. La diferencia es enorme.
Esta es la conclusión más incómoda del leak, y por eso casi nadie la articula con claridad. El atributo siteAuthority y los datos de Chrome, combinados con la mecánica de NavBoost, generan un efecto de bola de nieve que favorece desproporcionadamente a los sitios con búsquedas de marca frecuentes.
La lógica es la siguiente: cuando un usuario busca «[tu marca]» y hace clic en tu dominio, eso genera una good click con lastLongestClick casi garantizado (el usuario encontró exactamente lo que buscaba). Esa señal, acumulada a escala, eleva el siteAuthority del dominio. Un siteAuthority alto hace que tus URLs se beneficien más de NavBoost en consultas non-brand donde compites con otros sitios. Esas consultas generan más visibilidad, más exposición, más menciones. Más menciones generan más búsquedas de marca. Y el ciclo se refuerza.
Para un mercado como el español o el latinoamericano, donde muchas agencias siguen obsesionadas con link building técnico hacia páginas transaccionales, esto implica reasignar presupuesto. La inversión en PR sectorial, apariciones en podcasts, YouTube con rostro visible, ponencias en eventos, newsletter con autoridad reconocible o colaboraciones con medios verticales genera —bien hecho— el tipo de exposición que produce búsquedas de marca orgánicas. Y esas búsquedas son, literalmente, gasolina para NavBoost.
El contra-argumento honesto: una startup sin marca puede ganar nichos long-tail específicos antes de construir brand equity. La secuencia correcta no es «marca primero, SEO después»; es «long-tail primero, marca construida en paralelo, head terms después». Pero en ningún escenario serio la marca es opcional en 2026.
Circularon tras el leak titulares del tipo «todo lo que sabíamos sobre SEO estaba mal». Son una tontería. Todo lo que los SEOs competentes hicieron durante la última década se apoya en hipótesis que el leak confirmó, no contradijo:
goodClicks y lastLongestClicks.siteFocusScore y siteRadius.siteAuthority y el peso de las search queries de marca.Lo único que el leak cambió, en términos prácticos, es que ahora tenemos evidencia documental para convencer a clientes y directivos escépticos. Ya no hace falta apelar a «la experiencia del sector» cuando un CFO pregunta por qué la partida de PR debe subir. Hay papers, hay documentación filtrada, hay transcripciones judiciales.
El riesgo real para 2026 no es ignorar el leak. Es sobreactuar: perseguir señales recién confirmadas (el hostAge, el siteAuthority, los unicornClicks) como si fueran palancas mágicas, cuando en realidad son efectos medibles de hacer bien los fundamentales. Los SEOs que ahora corren a comprar dominios caducados por su hostAge están cometiendo el error clásico de confundir correlación con palanca accionable.
Aterrizando lo anterior en asignación de presupuesto y decisiones operativas, esto es lo que sí cambia:
En SEO on-site: el foco debe desplazarse de «rankear en top 3» a «ganar el clic cuando ya estás en top 3». Eso significa: reescritura de titles para aumentar CTR genuino, meta descriptions que filtren intención (mejor menos clics pero más good clicks que más clics con pogo-sticking), URLs descriptivas, rich snippets siempre que sea aplicable. Un snippet con FAQ schema, HowTo schema o Product schema puede ganar o perder una consulta entera.
En link building: los enlaces de medios con exposición de marca pasan a ser estratégicamente superiores a los enlaces técnicos de sitios nicho. Un enlace de El País, Expansión o Cinco Días —aunque sea nofollow— genera exposición que produce búsquedas de marca medibles. Las menciones sin enlace también cuentan en el knowledge graph y en las señales de entidad. El link builder de 2026 es, parcialmente, un PR digital.
En contenido: la métrica de éxito se traslada de «ranking position» a «ranking position + engagement sostenido». Scroll depth, tiempo en página, return visits, absence of pogo-sticking. Un artículo en posición 4 con engagement excelente vencerá a uno en posición 2 con engagement mediocre, porque NavBoost hará ese trabajo en semanas.
En technical SEO: los fundamentals siguen siendo fundamentales. Core Web Vitals, crawl budget, indexación limpia, estructura de URLs, Schema completo, sitemap correcto. Sin base técnica sólida, todo lo anterior se evapora. La diferencia es que ahora ninguno de estos elementos es opcional ni diferencial: son requisitos de entrada.
En brand building off-SERP: es la nueva frontera competitiva. Un sector donde casi nadie invierte proporcionalmente. YouTube, LinkedIn personal branding del fundador o del equipo, podcasts propios o invitados, newsletter consolidada, eventos presenciales, colaboraciones cruzadas. Todo esto genera búsquedas de marca que, vía NavBoost, se convierten en tráfico orgánico non-brand.
No voy a cerrar este artículo con generalidades inspiracionales. Esto es lo que harías tú el lunes por la mañana si tomas en serio lo que acabas de leer:
¿Cuándo se confirmó oficialmente NavBoost? NavBoost se confirmó oficialmente durante el testimonio de Pandu Nayak (VP of Search de Google) en el juicio antitrust United States v. Google en octubre de 2023, y se documentó de nuevo en el Content Warehouse API leak de mayo de 2024.
¿Qué son las «good clicks» en NavBoost? Las good clicks son clics desde la SERP seguidos de una sesión suficientemente larga en la página de destino, sin retorno inmediato a Google para hacer clic en otro resultado. Son la señal de satisfacción más fuerte que NavBoost utiliza junto al last longest click.
¿NavBoost usa datos del navegador Chrome? Sí. Tanto el testimonio de Nayak en el juicio como el leak de 2024 confirmaron que datos agregados de Chrome se utilizan como input para sistemas de ranking, incluyendo NavBoost, pese a que Google lo había negado o minimizado en comunicaciones públicas previas.
¿Se puede manipular NavBoost con bots o clickfarms? No de forma sostenible. NavBoost opera sobre datos agregados con ventanas de 13 meses y distingue entre tipos de clic según engagement real. Simular good clicks con bots es técnicamente caro e ineficaz, y expone al dominio a detección por parte de los sistemas anti-spam de Google.
¿Qué es Glue y en qué se diferencia de NavBoost? Glue es un sistema de Google análogo a NavBoost pero aplicado a elementos no-web de la SERP: imágenes, noticias, vídeos, paneles de conocimiento y otros módulos especializados. Mientras NavBoost ajusta los resultados orgánicos clásicos, Glue reordena todo lo demás.
¿Por cuánto tiempo guarda Google los datos de clics para NavBoost? Según el testimonio del juicio antitrust, Google redujo la ventana de datos de 18 meses a 13 meses en los años previos al juicio. Estos son datos agregados, no vinculados a usuarios individuales identificables en el sistema de ranking.
El juicio antitrust y el leak de 2024 no cambiaron el SEO. Cambiaron qué se puede afirmar públicamente sobre el SEO sin que parezca especulación.
Primero: la arquitectura de ranking de Google depende del comportamiento real del usuario mucho más de lo que la compañía admitió durante una década. NavBoost es real, es poderoso, y alimentarlo legítimamente es tarea central. Segundo: la marca no es un vanity metric, es un foso estructural. Las búsquedas de marca generan el tipo de señal que NavBoost amplifica en consultas non-brand, creando un efecto compuesto. Tercero: los fundamentals SEO siguen siendo los fundamentals. El leak los confirmó, no los reemplazó.
Si trabajas en SEO o GEO en España o Latinoamérica y quieres análisis semanal de este tipo —developments del algoritmo, leaks, papers académicos relevantes, casos reales con números—, la newsletter técnica de AutoridadDigital.com te llegará cada martes. Sin humo, sin listicles de 10 tips. Una idea por semana, trabajada a fondo, con implicaciones accionables para tu cartera de proyectos.
→ Suscríbete aquí a la newsletter técnica de AutoridadDigital
¿Tienes datos contradictorios, casos reales que matizen alguna de las tres posturas contrarian o una tercera lectura del leak que no he cubierto? Escríbeme. Este artículo se actualizará conforme emerja nueva evidencia del juicio o leaks posteriores.
Solicita una auditoría gratuita y descubriremos juntos cómo dominar tu nicho.
Solicitar Auditoría Gratuita