Google e l'algoritmo predittivo per gli url dei contenuti duplicati

Google e l’algoritmo predittivo per gli url dei contenuti duplicati

Google usa un metodo predittivo per scovare gli URL duplicati?

Ebbene, si! Lo ha rivelato John Mueller durante una sessione del Search Central: i contenuti duplicati possono essere riconosciuti dall’algoritmo direttamente nell’url.

IN CHE MODO?

Per evitare di scansionare ed indicizzare pagine inutili, il crawler prova a farsi un’idea di quelle simili guardando il loro url. Ma questa funzione predittiva potrebbe sbagliare…

POTREBBERO ESSERCI ERRORI?

Quando Google pesca pagine con url simili e scopre che si somigliano anche nel contenuto, può dedurre che altre pagine con url simili siano altrettanto duplicate, pur essendo diverse nel contenuto.

Ciò significa che possiamo ritrovarci pagine cancellate dalla #serp anche se non sono duplicate solo perché hanno un URL simile a quello di un altro contenuto duplicato sul serio. Quindi, Google guarda il contenuto della pagina ma anche il suo url. Perciò, oltre ad usare i canonical dove serve, conviene fare molta attenzione e non trascurare gli url.

Ve lo aspettavate?

Link alle fonti:

John Mueller —> https://youtu.be/8UBSEiO87GM

Search Engine Journal —> https://www.searchenginejournal.com/google-may-see-web-pages-as-duplicates-if-urls-too-similar/398452/