Contenuti duplicati e Link inversion

Link Inversione e pagine duplicate

Quando si parla di contenuti duplicati e originali, il velo del dubbio cala sull’argomento.

Il motivo principale è che le uniche fonti da analizzare sono le patenti  degli algoritmi, di cui non sappiamo neppure se sono applicate in toto o in parte.

La riflessione che vi propongo parte dall’assunto del link inversion di Dan Petrovic, testato al parossismo, per poi integrare il punto di vista di un altro nome blasonato del settore, Bill Slawski.

Il punto di partenza della trattazione inizia con una testimonianza difforme da quanto letto nel precedente articolo, il protocollo sull’identificazione della versione originale di un documento.

Versione primaria e contenuti duplicati

Secondo quanto espresso il sistema sceglie una versione primaria del documento, in base all’autorità e alle informazioni insite al suo interno.

In altre patenti si parla di sistemi che aggregano i documenti in base a parametri indipendenti dalle selezione delle query.

Secondo le fonti verrebbe favorita la versione dei dati che meglio risponde ai parametri di classificazione preesistenti.

Patente sui contenuti duplicati

Considerare un documento di rappresentanza permette al motore di ricerca di evitare contenuti duplicati nelle SERP.

Lo scopo è di evitare che l’utente debba scegliere tra risultati identici senza considerare l’autorità della fonte.

Un altro problema evitato riguarda la qualità della SERP, che altrimenti risulterebbe particolarmente bassa per colpa di un sovraffollamento di copie di una fonte.

Quando si fa riferimento ai sistemi di classificazione dei dati si prendono in considerazione la lunghezza del documento e i suoi metadati.

La lunghezza concorre insieme all’autorità della fonte a segnalare un contenuto esaustivo e di qualità.

Riguardo i metadati si prendono in considerazione le fonti dello scritto, i diritti di pubblicazione e gli indicatori di gradimento, come i like.

Senza considerare che informazioni come il nome dell’autore, date e luoghi di pubblicazione rappresentano dei segnali di qualifica della fonte.

Questi dati sembrerebbero così importanti da essere fondanti per l’ultimo grande roll-out update.

A quanto pare le strade seguite da Google e quella prospettata da Petrovic differiscono tra loro, pur avendo in comune la considerazione che i contenuti duplicati sono contrastati da metodi basati sull’autorità delle fonti.

Il problema del link inversion

Il processo diLink inversion si attiva quando i backlink puntano ad un documento duplicato. Il valore di autorità espressa dal link cambia algoritmicamente target e punta la versione canonica.

L’inversione non è un redirect, ma si parla di autorità del link e di quale risultato viene visualizzato su Google.

La versione canonica si assegna in base all’autorità del sito / documento / pagina, e non dipende dalla URL canonical.

In uno scenario del genere esistono due categorie di casi:

  • Il creatore del documento ha il sito più autorevole tra quelli che possiedono i duplicati.
  • Il creatore del documento non ha il sito più autorevole, contando anche l’opzione che l’avesse ma che abbia perso la posizione.

Nel primo caso nessun problema, i backlink che puntano a documenti duplicati valorizzano la versione canonica.

Nel secondo caso, il documento, anche se caricato temporalmente prima, cederà la qualifica di versione canonica al duplicato che possiede la più alta autorità, secondo la regola del link inversione.

In sostanza, Google non considera la paternità del documento (con il termine intendiamo sia parti di pagine che file PDF o similari), ma l’autorità dell’autore visibile sul sito.

La Storia del link inversion

Nel 2010 Frank Dabek e Daniel Peng, esperti di parallel computing e sistemi distribuiti di Google si ritrovano a dover rivoluzionare il sistema di indicizzazione corrente, mosso da MapReduce.

Lo scopo era velocizzare la visibilità dei nuovi contenuti presenti nelle SERP e aumentarne la freschezza.

I due inventarono un nuovo modo di trasformare i dataset, operando con un alto numero di piccole modifiche, indipendenti tra loro.

Il processo prese il nome di Percolator, ma l’applicazione più famosa di questa rivoluzione fu il sistema di l’indicizzazione algoritmica chiamata Caffeine.

Ma il vero protagonista della storia è Dan Petrovic, uno dei SEO australiani più famosi. Due anni dopo l’applicazione di Caffeine pubblica un articolo in merito al dirottamento di parti del blog di Rand Fishkin, in cui prova l’esistenza del problema di autorità delle fonti.

I rel=”canonical” non contrastano completamente il problema, ma sono una misura preventiva attivata discrezionalmente dal motore di ricerca.

La risposta a Google (2018)

Figure come quella di Petrovic aiutano Google nella scoperta dei bug. Non sempre però mostrare il nervo scoperto di un’azienda ti mette in buona luce.

I lavori di Dan hanno rivelato che documenti inseriti all’interno di accordion o tab, non visibili direttamente all’utente, vengono svalutati a livello di autorità rispetto a documenti visibili. 
Lo studio del consulente seo verteva sul posizionamento ed è stato effettuato il 12 settembre 2018.

Un tweet in particolare, in cui Gary Illyes sbeffeggia Petrovic, ha dato il via all’ultima fase del Link inversion:

link inversion applicato su Google Scholar

Come si vede dall’immagine l’utilizzo di un title copiato ha generato un testa a testa tra le due pagine, in cui la versione duplicata supera per autorità l’originale.

Se volete provare, la query è https://www.google.com.au/search?q=%22because+documents+with+the+same+title+are+often+considered+duplicates%22

Related Posts

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.