Quando si parla di contenuti duplicati e originali, il velo del dubbio cala sull’argomento.

Il motivo principale è che le uniche fonti da analizzare sono le patenti  degli algoritmi, di cui non sappiamo neppure se sono applicate in toto o in parte.

La riflessione che vi propongo parte dall’assunto del link inversion di Dan Petrovic, testato al parossismo, per poi integrare il punto di vista di un altro nome blasonato del settore, Bill Slawski.

Il punto di partenza della trattazione inizia con una testimonianza difforme da quanto letto nel precedente articolo, il protocollo sull’identificazione della versione originale di un documento.

Versione primaria e contenuti duplicati

Secondo quanto espresso il sistema sceglie una versione primaria del documento, in base all’autorità e alle informazioni insite al suo interno.

In altre patenti si parla di sistemi che aggregano i documenti in base a parametri indipendenti dalle selezione delle query.

Secondo le fonti verrebbe favorita la versione dei dati che meglio risponde ai parametri di classificazione preesistenti.

Patente sui contenuti duplicati

Considerare un documento di rappresentanza permette al motore di ricerca di evitare contenuti duplicati nelle SERP.

Lo scopo è di evitare che l’utente debba scegliere tra risultati identici senza considerare l’autorità della fonte.

Un altro problema evitato riguarda la qualità della SERP, che altrimenti risulterebbe particolarmente bassa per colpa di un sovraffollamento di copie di una fonte.

Quando si fa riferimento ai sistemi di classificazione dei dati si prendono in considerazione la lunghezza del documento e i suoi metadati.

La lunghezza concorre insieme all’autorità della fonte a segnalare un contenuto esaustivo e di qualità.

Riguardo i metadati si prendono in considerazione le fonti dello scritto, i diritti di pubblicazione e gli indicatori di gradimento, come i like.

Senza considerare che informazioni come il nome dell’autore, date e luoghi di pubblicazione rappresentano dei segnali di qualifica della fonte.

Questi dati sembrerebbero così importanti da essere fondanti per l’ultimo grande roll-out update.

A quanto pare le strade seguite da Google e quella prospettata da Petrovic differiscono tra loro, pur avendo in comune la considerazione che i contenuti duplicati sono contrastati da metodi basati sull’autorità delle fonti.

Questo elemento è stato inserito in SEO e SEM e taggato .

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.