Cos'è il negative SEO e come difendersi

Pubblicato: Novembre 14, 2019
Autore: Francesco Giammanco
Difendersi dal Negative SEO

Di norma quando un utente viene a conoscenza di cos'è il Negative SEO è perché lo ha appena ricevuto. Si tratta infatti di operazioni compiute in ottica black hat, e in quanto tali vanno contro le linee guida di Google.

Il SEO negativo è un argomento che viene regolarmente pubblicato sui blog di marketing digitale e nei forum SEO, ma di cui se ne ignora la profondità argomentativa.

Prima di addentrarci nell'argomento, è il caso di ricordare che si tratta di una tattica sleale e pericolosa anche per chi la utilizza.

Cos'è il Negative SEO?

Il Negative SEO è l'atto di utilizzare pratiche black hat contro un sito web della concorrenza con l'intenzione di sabotarlo, così da farlo penalizzare da Google. In questo modo il sito dell'utilizzatore del SEO negativo potrebbe superare il concorrente.

Come diagnosticare un attacco

Sebbene non si possa conoscere il momento in cui un attacco raggiungerà il sito, è possibile riconoscere dai feedback che si possono raccogliere cosa è accaduto, o almeno una parte di esso.

Di seguito gli elementi da tenere in considerazione:

Mai affidarsi a servizi di generazione della link building

Naturalmente mi riferisco a tutti quei servizi che millantano la creazione di backlinks di buona qualità ad un prezzo veramente basso.

Le tattiche negative SEO

Gli attacchi di negative SEO possono avere diverse forme, per colpire i contenuti on-page o minare il ranking del sito off page. Le tecniche elencate qui sotto sono le più comuni, ma ne esistono molte altre.

Off-page

Il SEO negativo off-page cerca di distruggere il profilo backlink di un sito web. Le tecniche utilizzate per farlo sono:

Metodi on-page

Proteggersi dal negative SEO

Come difendersi dagli attacchi

Sebbene la difesa sia sempre meno efficace dell'attacco in questo caso, esistono dei metodi per contrastare le operazioni di SEO negativo ricevute.

Text scraper

Si tratta di un'operazione da compiere per controllare se è stato effettuata un'operazione di duplicazione del contenuto. In genere si tratta di operazioni che vengono compiute da siti che hanno più autorità, in modo da sfruttare un crawl budget più alto e di conseguenza la possibilità di essere considerata la fonte principale delle informazioni presenti nel testo.

Un controllo tanto semplice quanto efficace può essere compiuto con il software premium Copyscape.

Crash del server

Si tratta di operazioni che mirano a inondare il server di richieste inutili, al fine di generare chiamate 5xx causate dall'incapacità di gestire le interazioni subite.

A volte questa operazione viene compiuta sotto forma di enorme scansione del sito, altre volte sono interazioni dirette con alcuni elementi, come per esempio i form.

Tramite il file .htaccess è possibile inserire dei blocchi a IP e zone geografiche; non si tratta di una risoluzione perfetta ma è comunque abbastanza utile.

Se invece si cerca una risoluzione più diretta e che non richiede investigazioni, è il caso di utilizzare CDN, così da ridistribuire

Falsi clic

Se non ci fossero controlli appositi, in teoria ogni utente potrebbe continuare a cliccare su ricerche organiche riguardanti il proprio sito al fine di inviare chiari segnali di posizionamento a Google.

In realtà però Google penalizza algoritmicamente chiunque forzi questo tipo di pratica. Se però a farlo è un competitors su un sito concorrente, non c'è molto da fare.

Iniezione di contenuto

Nel caso in cui il sito fosse stato violato per fini molesti potrebbe essere stati inseriti contenuti e link per favorire siti concorrente o penalizzare il proprio.

In alcuni casi vengono proprio effettuati dei redirect verso un altro sito.

L'unica operazione da compiere dopo aver ricevuto questo genere di visita è passare il sito al setaccio grazie ad uno spider che rimandi informazioni precise sui contenuti e sui link presenti.

Disallow sul sito

Nel caso in cui l'hacker cercasse di de-indicizzare il sito gli basterebbe inserire un'indicazione di disallow sul file robots.txt e il gioco sarebbe fatto.

Anche da questo punto di vista l'unica difesa è un'analisi continua del sito, mantenuta costante sopratutto su Search Console.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.

linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram