Una SEO Audit è l'analisi di un sito web che prende in considerazione i fattori di posizionamento di un sito, nella fattispecie gli aspetti di SEO tecnica, di SEO copywriting e scansione dei server log.
Generalmente per eseguire una SEO audit c'è bisogno di un metodo, degli strumenti (monitoraggio, scansione) e un file per segnalare le modifiche da apportare.
Risorse per la SEO audit
Lo scopo di questa guida è di ottimizzare una SEO Audit valida per diversi scopi, al momento servito in un formato ma che verrà a breve riutilizzato per diversi strumenti simili ma pensati per utenti con bisogni differenti:
SEO Audit aziendale su Trello: si tratta di una lista semplificata utile per monitorare i membri del proprio team o effettuare una SEO audit veloce.
Per tutti coloro che volessero studiare come effettuare un audit professionale, la guida verrà divisa in:
Metodo di analisi
Strumenti
Come sviluppare una SEO audit
Metodo di analisi
Prima di iniziare a raccogliere dati ed analizzarli c'è bisogno di avere un metodo di analisi della piattaforma presa in considerazione.
Il metodo varia in base alla preparazione e al fine del consulente.
Solitamente si tende ad operare seguendo una prospettiva economica / commerciale, altre volte si preferisce un approccio squisitamente tecnico.
Nel primo caso si tende a mettere in evidenza un eventuale vantaggio delle operazioni SEO, con giudizi che riguardano la fattibilità del progetto o la sua convenienza.
Non è sempre necessario completare l'audit, a volte dai primi step risulta chiaro che non vale la pena procedere oltre.
In termini pratici non esiste una differenza tra i due metodi se vengono portati completamente a termine, ma nei due casi l'accento viene posto su elementi differenti in tempi differenti.
Qui di seguito un esempio di applicazione di una SEO audit:
I dati sull'autorità del sito: si effettua una prima disamina sulla dimensione del sito / traffico e sulle keywords utilizzate per posizionarsi, il profilo backlinks (ma senza scendere nel dettaglio) e il settore in cui l'azienda è presente e punta a ingrandirsi. In questa prima fase si effettua una stima sull'autorità del sito, considerandolo in maniera monadica.
I dati relativi al business del sito: si tratta di un'analisi che mira a comprendere il rapporto tra il sito e i competitor. In questa fase oltre alle parole chiave rilevanti si prendono in considerazione tutte le code lunghe sviluppate nelle SERP e gli argomenti meno rilevanti da un punto di vista di traffico, ma in cui sono compresenti articoli dei competitor.
SEO Tecnica: si prendono in considerazione tutti i fattori di tecnici del sito. Sono tante le operazioni da effettuare ed alcune di esse richiedono molta attenzione, motivo per cui si consiglia l'utilizzo di una buona checklist da seguire.
Architettura del sito: si prendono in considerazione gli argomenti trattati dalla piattaforma in relazione alla link building interna, alla duplicazione di contenuti e ad altri fattori che sottendono alla strutturazione architettonica del sito.
Pubblicazioni: riguardano gli aspetti contenutistici e redazionali del sito. Rientrano almeno in parte nella competenza del SEO copywriter. Si prendono in considerazione la frequenza di pubblicazione, quella su Google News e Google Discover.
Link Building: si scende nei dettagli della link building sviluppata in precedenza, dando attenzione alle ridondanze generate al momento della richiesta di backlinks (se innaturali).
Usabilità del sito: molto del codice HTML che compone un articolo e più in generale il sito nel corso degli anni ha perso almeno in parte la loro importanza semantica, riguadagnandola da un punto di vista di User Experience. La dimensione di un testo, il tag HTML utilizzato hanno un valore relativo alla funzione svolta per gli utenti.
Controllo penalizzazioni: in questa sezione si controlla anche la presenza di eventuali tentativi di Negative SEO effettuati ai danni. Di norma, per piccole audit queste operazioni vengono accorpate a quelle relative alla link building.
Web semantico: i motori di ricerca sono sempre più interessati ad utilizzare il linguaggio umano, più che comprenderne i significati delle parole. I dati strutturati sono uno degli elementi con cui un sito web si rende più comprensibile ai motori di ricerca.
Strumenti SEO
Per semplificare la spiegazione sugli strumenti da utilizzare i tools da utilizzare verranno divisi in strumenti SEO di monitoraggio, di scansione, di ricerca, archivi dati e relativi alla performance.
Strumenti di monitoraggio
Sono quelli che devono essere installati prima dell'audit, e che generalmente ogni sito utilizza, quantomeno nella forma di:
Esistono anche degli strumenti che si occupano specificamente di fornire un numero minore di dati per lavori specifici (come per esempio la creazione delle sitemap).
In molti casi si occupano dell'aggregazione dei dati necessari per svolgere l'audit del sito:
Ahrefs (consigliata la versione da 7 giorni di utilizzo per tutti coloro che iniziano adesso), Semrush o SEOZoom.
La maggior parte delle moderne suite SEO comprendono degli strumenti per effettuare delle ricerche mirate. Spesso una suite contiene i dati sul posizionamento del sito precedenti alla nostra ricerca.
Strumenti relativi alla performance
Pagespeed Insight
Web.dev
GTmetrix
Pingdom
YSlow
Come sviluppare una SEO audit
Se il metodo di creazione di un'audit indica un ordine di sviluppo delle operazioni da compiere, queste ultime possono essere raccolte e catalogate in modo da sviluppare dei moduli funzionali.
Qui di seguito una proposta di sviluppo delle categorie di una SEO audit:
Indicizzazione.
Accessibilità.
Architettura.
Contenuti.
Off-Page.
Negative SEO e Penalizzazioni.
User Experience.
Web semantico (dati strutturati).
Sicuramente una SEO audit effettuata su un sito aziendale per la prima volta o semplicemente con clienti che non ci supportano del tutto non partirà della vista di Google Search Console, ma in quel caso punteremo ad un approccio un po più pratico descritto
Nel caso non sia stata creata una proprietà, creane una.
Controlla se la proprietà del dominio è legata al dominio o ad una singola vista (versioni del sito con sottodomini o con protocollo SSL piuttosto che mancante).
Acquisto di un dominio, scadenza e proprietà: sebbene non ci siano fonti certe in merito, fonti accreditate segnalano che una scadenza vicina del dominio potrebbe essere interpretato come un'instabilità. Su Yandex, un passaggio di proprietà di un dominio tende a livellare almeno in parte la precedente autorità guadagnata.
IP dedicato: inizialmente i rumors SEO indicavano come necessario l'utilizzo di un IP dedicato. Sebbene ci possano essere dei motivi per preferirlo, è certo che le penalizzazioni di Google tendano a colpire i domini e non gli indirizzi IP.
Scelta del TLD: il Top Level Domain (letteralmente il .it, .com, ect) può influenzare il posizionamento del contenuto all'interno di un'area geografica. Bisogna controllare che il progetto utilizzi un dominio con un TLD coerente.
Sottodomini (anche www.)
Alcuni non sanno che "www." è un sotto dominio. Prova ne è
Ci sono proprietà correlate alle versioni www. e senza www.?
I redirect da alcune delle versioni del sito puntano alla versione corrente?
Il canonical utilizzato coincide con la proprietà di Google Search Console utilizzata?
Esistono ulteriori sotto domini del sito con una proprietà Google Search Console separata?
Esistono più proprietà legate a sotto domini dedicati alle lingue del sito?
Status Codes
Effettua una scansione veloce con uno strumento come Screaming Frog per avere un'idea sulla presenza e il numero dei seguenti status codes:
Status code 200: pagina ok, dovrebbero essere il numero maggiore.
Status code 301: redirect che permette il passaggio di autorità.
Status code 302: redirect temporaneo. Controllare che non ce ne siano di pregressi e modificarli velocemente.
Status code 404: pagina non trovata.
Status code 410: la pagina è stata volutamente cancellata.
Status code 500: server offline.
Quale risposta si ha se si provano a inserire url di fantasia?
Quando viene presentato uno status code 404 si atterra su una pagina personalizzata?
Controlla l'utilizzo del meta tag keywords: Google non lo utilizza da tempo come segnale di posizionamento, ma alcuni motori di ricerca lo usano ancora.
Regole differenti per l'indicizzazione
Regole sulla privacy estere applicate ad un multilingua: la presenza di indicazi
Presenza di una sede estera segnalata sul sito: alcuni motori di ricerca premiano la presenza di informazioni di sede locali presenti in loco, come accade nel caso di Yandex.
Controlla che non siano presenti catene di redirect.
Blocco di crawler tramite htaccess: controllare che non siano stati compiuti errori.
Blocco indirizzi IP: si tratta di una tecnica utilizzata per bloccare eventuali malintenzionati, ma può ritorcersi contro il sito se non opportunamente gestita.
Sitemap
I controlli da effettuare relativi ad una sitemap sono:
Presenza della/e sitemap
controllo del protocollo utilizzato: https://www.sitemaps.org/protocol.html
Presenza su Google Search Console.
Controllo della sitemap per AMP (se integrata alla principale o separata).
Controllo della corrispondenza delle pagine con il totale trovato da Google alla voce di menu Copertura di Search Console.
Google invia Googlebot a scansionare le pagine utilizzando come parametri la capacità di carico del server alle sue sollecitazioni, l'aggiornamento dei contenuti e molto altro. Per effettuare un'analisi approfondita dei valori monitorati bisogna conoscere:
Trend di scansione di Googlebot sul sito.
Numero di pagine scansionate.
Esistono dei grafici che mettono il rapporto una stima del Pagerank del sito con la frequenza di scansione?
Tempo di risposta del web server: si tratta del bilanciamento del carico dei server e si chiama host load.
Si tratta di una sezione dedicata al monitoraggio delle informazioni che migliorano l'accessibilità al sito e l'esperienza dell'utente.
Una migliore navigazione sul sito equivale a parametri più vicini a quelli presenti nei siti al top delle varie categorie.
Quali sono i limiti della tecnologia utilizzata?
Effettuare un check sull'obsolescenza dei software utilizzati tende ad essere un vantaggio trasmesso per le operazioni di aggiornamento delle regole di visibilità di una pagina (e UX):
La performance o prestazione offerta da PageSpeed Insight fornisce uno o più valori che segnalano la resa tecnica del sito secondo i parametri del motore di ricerca:
Guarda il sito con un differente user-agent che ti consentirà di vedere il sito come fanno i crawler dei motori di ricerca. Così potrai vedere se c'è un qualche tipo di occultamento.
Utilizzi una CDN per fornire i contenuti del sito in paesi distanti il server dove è presente il sito?
Apporterebbe miglioramenti al sito?
Il worker interno della CDN verrà utilizzato per caricare codice?
Eyetracking Rules (No Google)
Alcuni strumenti hanno integrato strumenti di valutazione della User Experience tra quelli che forniscono informazioni per l'indicizzazione e il posizionamento del sito.
Yandex per esempio effettua scansioni di questo tipo tramite Yandex Metrica collegato agli strumenti di Yandex WebMaster:
Si tratta delle pagine non raggiungibili da link presenti sul sito, e quindi inesistenti per gli utenti, raggiungibili solo con forme differenti di scansione:
Esistono pagine orfane sul sito?
Verrà realizzata una strategia di recupero o eliminazione delle pagine?
Link interni
Si tratta dei link che permettono la navigazione interna del sito.
Analisi pagine col maggior numero di link interni
Analisi sul rapporto tra link interni e visibilità online delle pagine
E' necessaria una ridistribuzione di link interni?
Quali sono le anchor text dei link?
Alcuni link interni sono rotti?
Quanti link sono presenti in ogni pagina? (Google non considera alti numeri come eccessi)
Le progressive web app sono in grado di operare con la cache di alcuni browser come Chrome e Firefox. In aggiunta bisogna prendere in considerazione anche la cache dei risultati di ricerca di Google.
Il service worker funziona correttamente?
Quando la pagina è offline è ancora visibile?
Esiste una politica di rimozioni delle vecchie versioni del sito nella cache del browser degli utenti?
Manifest.json si attiva?
Google ha ancora una copia in cache della pagina quando l'ha visitata?
E' sempre necessario un controllo per verificare la corretta installazione. https://webmasters.googleblog.com/2011/09/pagination-with-relnext-and-relprev.html
Si tratta di una specifica che introduce un sito all'interno del grafo social di Facebook.
È presente in tutte le pagine?
E' completo?
Risorse:
http://ogp.me/
https://developers.facebook.com/tools/debug/
Altri accorgimenti?
Sono presenti link o testo nascosti agli utenti?
In precedenza si è fatto uso di cloaking?
Qual'è il rapporto tra la quantità di codice HTML e gli altri elementi?
Contenuti
Si tratta di una sezione contenente elementi visibili all'utente o in stretta correlazione con essi, presi in considerazione singolarmente o in relazione tra loro.
Controlla l'indicizzazione dei parametri presenti nelle URL e i risultati di ricerca, ma anche proprio la duplicazione dei contenuti. Usa Google Webmaster Tools, Screaming Frog, Copyscape.
Qual'è la proporzione tra i backlink ricevuti e il numero di domini che linkano?
Esistono domini che linkano più articoli?
Ci sono domini che linkano migliaia di pagine?
Profili backlink dei concorrenti
Hai controllato i profili backlink dei tuoi competitors?
Avete domini in comune?
Il competitor possiede backlink da domini autorevoli che il sito non possiede?
Qual'è il rapporto tra backlink nofollow e dofollow?
Quali anchor text usa?
Quale proporzione di anchor text sulla home, commerciali e altro, usa?
Errori, Negative SEO e penalizzazioni
Si tratta di una sezione in cui verranno segnalate le possibile opzioni di penalizzazione da evitare (e su cui fare un check) e revisione dei dati in vista di eventuali attacchi.
Penalizzazioni
Sovraccarico di pubblicità nella zona in alto della pagina (above the fold)
Vendita di backlink
Keywords stuffing
Cloaking
Creare un sito di affiliazione
Network si siti
Pattern ridondanti nei link (indirizzo IP, anchor text, ect)
Controlla che non siano stati creati centinaia di backlink spam
Hacking dei contenuti del sito
Duplicazione di contenuti
Crash anomali del server
Iniezione di contenuti
Disallow forzato del sito?
Web semantico
Si tratta di una sezione "jolly", che contiene alcune delle voci in espansione relative al bisogno dei motori di ricerca di comprendere le funzionalità dei contenuti dei siti web.
Dati strutturati
Sono visibili nello strumento dei dati strutturati?
Sono completi?
Sono corretti?
Ci sono altri markup che si possono aggiungere?
I competitors utilizzano gli stessi dati strutturati?
Utilizziamo i cookie per migliorare la tua esperienza sul sito. Se continui a navigare assumiamo tu ne sia felice. AccettoNegoSettingLeggi
Privacy & Cookies Policy
Privacy Overview
This website uses cookies to improve your experience while you navigate through the website. Out of these cookies, the cookies that are categorized as necessary are stored on your browser as they are as essential for the working of basic functionalities of the website. We also use third-party cookies that help us analyze and understand how you use this website. These cookies will be stored in your browser only with your consent. You also have the option to opt-out of these cookies. But opting out of some of these cookies may have an effect on your browsing experience.
Necessary cookies are absolutely essential for the website to function properly. This category only includes cookies that ensures basic functionalities and security features of the website. These cookies do not store any personal information.