Francesco Giammanco Esci dalla modalità Reader

Trovare le pagine orfane e trasformarle

Nel lessico dei SEO, le pagine orfane (orphans) sono tutte quelle che, appartenenti ad un unico sito ma che non sono raggiungibili tramite i link interni, tanto da renderle invisibili per gli utenti che navigano.

In realtà molto spesso sono percepite e segnalate dalla sitemap, ma in ogni caso a meno che questa non venga riportata sul sito l’utente non avrà modo di scoprirle.

L’unico modo per percepire le pagine orfane è affidarsi ad un crawler, che effettuerà una scansione e dovrà comparare i dati delle pagine senza link entranti o uscenti, e confrontarle con i log del server o più semplicemente con una sitemap, qualora ci fosse.

Pagine orfane e SEO

Molto spesso la creazione di pagine orfane in un sito o in un e-commerce coincide con le operazioni di rinnovamento dello stock di inventario oppure con la creazione di archivi dove spostare articoli non più in voga.

Di norma la presenza di pagine del genere spende male una parte del crawl budget dedicato al sito, visto che si occuperà di investigare su pagine che non forniscono nessun valore semantico al resto dell’architettura, oltre che nessun modo di navigare verso loro o fuori da esse.

Dal punto di vista di Googlebot, la sua funzione è quella di seguire i link, esterni ed interni, e determinare la “forma” del sito; nel caso in cui non ci fossero collegamenti tra le pagine è ovvio che non si possano riportare molti dati o un profilo favorevole all’indicizzazione, e alla lunga al posizionamento.

Per essere più precisi, la presenza di un numero esiguo di pagine orfane non distrugge una strategia SEO, ma bisogna tenere sott’occhio il loro numero.

Strumenti per eliminare orphans pages

Di norma il modo migliore per scovare una pagina orfana è incrociare i dati di diverse fonti e guardare dove il sito non interagisce organicamente.

Da questo punto di vista non bisogna però scambiare una pagina di questo tipo con una pagina dead end, una pagina che riceve dei link ma da cui non ne esce nessuno. Sebbene anche queste possano creare qualche problema in una strategia SEO, a differenza delle orphans

La scoperta di questo tipo di pagine riguarda spesso le ricerche sull’ottimizzazione del crawl budget o delle visite/conversioni del sito, proprio perché è più semplice che sia necessario eliminarle durante una scansione sull’utilità delle pagine, e il rapporto che l’architettura della piattaforma ha con i bot che ne visitano le sezioni.

Il metodo più utilizzato o forse semplicemente più conosciuto è la gap analysis, che unisce i dati di Google Analytics con i server log relativi al sito ed evidenzia le discrepanze tra i dati.

Nel momento in cui una pagina riceve hit dai crawler ma non riceve attenzioni dagli utenti, allora si tratta di un contenuto rivedere, o da ricollocare o cancellare nel caso in cui staccato dal core della piattaforma.

Utilizzare la sitemap

Per rendere la sitemap efficace da questo punto di vista, bisogna personalizzare la ricerca e far funzionare il tool come un crawler e non come un normale navigatore.

Una volta effettuata la modifica, basta far partire una scansione e collezionare un file con i dati. Successivamente basterà controllare il numero di pagine collegate tra loro e rapportare il dato con le url presenti nella sitemap.

Utilizzare Search Console e Analytics

Anche in questo caso si gioca sulla differenza di pagine visualizzate con Analytics e quelle presenti su Search Console.

In questo caso si gioca sul fatto che la scansione di Google Search Console fornisce informazioni tratte con una ricerca “da crawler”, mentre Analytics inerisce alle ricerche esperienziali del sito.

Utilizzare un solo strumento per risolvere il problema

Il più grande limite delle operazioni descritte poco sopra è che richiedono una serie di passaggi “manuali”, ossia generati con strumenti esterni ai tools da cui si prendono i dati.

Di per sé non si tratta di un grande problema, anche se nel momento in cui si pensa ad una reiterazione delle operazioni sullo stesso sito o su siti differenti, come accade alle agenzie o ai consulenti SEO ci si pone davanti un problema metodologico.

In realtà esistono strumenti che implementano al loro interno dati differenti e forniscono una soluzione visiva facile da comprendere, come ad esempio quella offerta da Screaming Frog

Screaming Frog per le orphans pages

Il primo passaggio riguarda la configurazione del crawler che genererà la sitemap, così come potete vedere anche nell’articolo pubblicato dal software, qui.

Successivamente, si dovranno “agganciare” gli account di Analytics e Search Console, entrambi dal menu Configuration > API Access e alla fine selezionare il tools.

La parte importante è quella di selezionare come segmento “Organic“.

Successivamente, sempre nella stessa voce di menu bisogna raggiungere il pannello General, e flaggare “Crawl New URLs Discovered In Search Console“.

Successivamente bisognerà terminare l’aggancio via API di Search Console e far partire una scansione.

Finita la scansione, bisogna cliccare su Crawl Analysis >Start, selezionando le impostazioni che si trovano qui sotto, ossia controllando e integrando nella scansione i dati dei tre strumenti.

Finito questo passaggio, basterà selezionare il filtro Orphans Pages dopo aver scelto la voce Sitemap dal menu Overview che si trova in alto a destra.