La SEO negativa ( o negative SEO )

Cos'è la Negative Seo

Si parla di negative seo ( seo negativa ) per indicare un insieme di tecniche che possono danneggiare un sito web nel posizionamento sui motori di ricerca.

Queste tecniche sono simili a quelle normalmente utilizzate nelle operazioni di ottimizzazione, ossia alle tecniche Seo che si utilizzano per migliorare il posizionamento ma hanno finalità opposte. Nascono per penalizzare i concorrenti.

Perché si dice negative

Queste tecniche Seo sono dette "negative" perché sono realizzate appositamente in modo estremo, per essere facilmente scoperte e punite dal search engine, causando il deposizionamento del sito linkato sulle serp. Sfruttano i bug degli algoritmi antispam dei motori di ricerca per causare danni ai siti web dei propri concorrenti.

Quando nasce la seo negativa? Si comincia a parlare di negative seo nel 2012 con l'introduzione da parte di Google di un algoritmo antispam ( Penguin ) che penalizza i siti web con molti backlink innaturali. Da una parte l'algoritmo pulisce le serp dall'abuso di link building, d'altra parte crea il fenomeno della seo negativa perché chiunque può danneggiare un concorrente semplicemente creando backlink artificiali verso il suo sito.

Come funziona la Seo Negativa

Il motore di ricerca Google funziona sulla link popularity. Quanti più link riceve un sito, tanto più è popolare e si posiziona meglio sulle Serp.

LINK ARTIFICIALI ( SEO )

Per combattere gli abusi il search engine utilizza degli algoritmi antispam per riconoscere e penalizzare i backlink non naturali ( link artificiali ). In particolar modo, nel 2012 Google lanciò un algoritmo conosciuto come Penguin ( Pinguino ).

L'algoritmo Penguin aveva una caratteristica innovativa, penalizzava anche il sito web linkato (B) e non solo il sito linkante (C).

seo negative

La tecnica anti-spam era efficace e fece una bella pulizia sulle serp. Non c'è alcun dubbio.

Tuttavia, una volta scoperto il funzionamento dell'algoritmo anti-spam, diventò facile danneggiare la reputazione dei siti concorrenti. Bastava creare dei segnali negativi per far scattare Penguin.

SEO NEGATIVA

Esempio. Un concorrente potrebbe commissionare una link building negativa, con backlink di scarsa qualità verso il sito web del proprio competitor, al solo scopo di farlo penalizzare sui risultati di ricerca. Questo è un esempio classico di Negative Seo.

Come difendersi dalla seo negative

Purtroppo le tecniche sono molte e non è sempre facile difendersi.

Il search engine Google ha messo a disposizione dei webmaster un tool gratuito per rinnegare i backlink negativi. Si chiama disavow.

come rifiutare i backlink della seo negativa tramite lo strumento disavow di Google

Tuttavia, non è sempre facile individuare e riconoscere i backlink anomali.

Spesso i backlink negativi sono nascosti nelle sue profondità, a volte sono protetti da tecniche di cloacking ( ghost backlink ) oppure sono visibili soltanto a Google.

Come trovare i backlink di un sito? Tutti i backlink rilevati da Google possono essere visualizzati tramite la Search Console. Un altro tool gratuito messo a disposizione da Google. Questo servizio però ci mostra tutti i backlink, sia quelli positivi che negativi. Pertanto, prima di rinnegare un backlink bisogna essere sicuri che sia effettivamente negativo. In caso contrario, tagliando backlink positivi, si rischia comunque la perdita di posizioni sulla serp.
come trovare la lista degli ultimi backlink di un sito web

Quali sono le tecniche negative della Seo

Le principali tecniche di seo negative si basano sulla link building negativa e sono le seguenti:

  • I backlink da siti di scarsa qualità
    I link verso il sito vittima sono pubblicati sui siti web di scarsa qualità che trattano argomenti indesiderati dal search engine oppure sui siti web bannati. Un elevato numero di backlink da siti web "spazzatura", possono distruggere la reputazione di un sito web, soprattutto se quest'ultimo è poco conosciuto. Questi backlink si presentano in siti web di bassa qualità, dove il livello di spam è molto alto, ad esempio nei forum e nelle community.
  • Link con anchor text ottimizzate su una parola chiave commerciale
    I link negativi sono spesso ottimizzati su una anchor text commerciale. Quando migliaia di link contengono lo stesso testo commerciale, diverso dal nome del sito web linkato, il motore di ricerca ipotizza che si tratti di una link building e fa scattare la punizione verso il sito web linkato. È infatti poco naturale che tanti siti web differenti utilizzino la stessa frase chiave ( key-phrase ) per linkare un determinato sito.
  • Backlink widesite e nei footer
    I backlink widesite sono link inseriti in tutte le pagine di un sito web. È poco naturale e, quindi, sono subito individuati dai search engine. Lo stesso vale per i link pubblicati nel footer, ossia nella parte più bassa e profonda di un sito web, quella che l'utente non vede mai. I link nel footer sono un altro segnale che insospettisce i motori di ricerca.
  • Siti web bucati per inserire link esterni
    Questa situazione è il risultato di una vera e propria tecnica di hacking. Quando un sito web ha problemi di sicurezza, l'hacker può introdursi al suo interno per inserire dei link esterni verso siti di pessima qualità. Il legittimo proprietario del sito non si accorge dell'intrusione. Quando il search engine si accorge della presenza dei link esterni o dello spam, attua la penalizzazione ai danni del malcapitato. A volte, oltre a inserire un link esterno fraudolento, l'hacker pubblica anche un backlink di ritorno sulla pagina di scarsa qualità per simulare uno scambio link.

    Nota. Un sito potrebbe essere penalizzato dalla negative anche se ad essere bucato è un altro website. Ad esempio, il sito A viene bucato e nelle pagine di spam è contenuto il link o la citazione del brand B. Una volta rilevata la vulnerabilità e i problemi di sicurezza del sito A da parte del motore di ricerca, agli occhi del search engine il sito B potrebbe apparire come l'autore della tecnica di black seo ed essere penalizzato.

  • Sottodomini hackerati
    E' una situazione simile alla precedente. In questo caso, però, l'hacker non buca il sito web bensì il dominio. In qualche modo, l'hacker riesce a modificare i DNS del sito web per creare dei sottodomini all'insaputa del proprietario che non si accorge di nulla, poiché il sito web principale continua a vedersi regolarmente. I sottodomini sono indirizzati verso hosting esterni ove sono pubblicate pagine con contenuti malevoli, link di scarsa qualità o, peggio ancora, dei virus informatici. Quando il search engine individua i sottodomini, penalizza l'intero dominio.
  • Redirect fraudolenti
    E' un'altra tecnica molto diffusa. I redirect sono le operazioni di spostamento di un sito web da un dominio a un altro. Sono conosciuti come redirect 301. Queste operazioni consentono di cambiare il nome del dominio di un contenuto, mantenendo immutato il posizionamento sui motori di ricerca. Ipotizziamo, però, che decine di siti web bannati per spam ( zombie network ) facciano un redirect verso un sito web vittima, quest'ultimo potrebbe ereditare la loro cattiva reputazione ed essere penalizzato sulle serp.
  • Link in uscita. Alcune tecniche di seo negative analizzano i link in uscita di un sito tramite un bot crawler per penalizzarlo tramite gl algoritmi di controllo dei motori di ricerca (es. bad rank di Google). Ecco qualche esempio pratico
    • Link verso domini scaduti. Se un sito A ha link in uscita verso un sito B con dominio scaduto. Il dominio scaduto potrebbe essere riacquistato dagli spammer, trasformato in un sito di spam inserendo un link di ritorno verso il sito A. La presenza del doppio link verso un sito spam penalizza il sito A sugli algoritmi anti-spam dei motori di ricerca.
    • Link verso siti vulnerabili. Se un sito A linka un sito B e quest'ultimo ha una sicurezza molto bassa (es. vulnerabilità nel CMS o sul server, commenti senza moderazione, ecc.). Potrebbe essere attaccato dagli spammer per inserirvi link o contenuti spam, oltre a un link di ritorno verso il sito A. Anche in questo caso il sito A viene penalizzato dagli algoritmi antispam dei motori di ricerca. Sono casi più difficili da individuare rispetto al precedente perché i contenuti spam nel sito B non sono ben visibili fin dall'home page.
    • Link o spam nei commenti degli utenti. Se un sito ha i commenti liberi, senza controllo o moderazione, potrebbero essere usati dagli spammer per inserire link o contenuti di bassa qualità. Mettere il rel no-follow in automatico può essere una soluzione. Un'altra soluzione, secondo me preferibile, è la moderazione preventiva dei commenti, in questo modo solo i commenti autorizzati dal moderatore sono pubblicati. La moderazione evita anche altri problemi di tipo legale. Ad esempio, la presenza di commenti diffamatori verso terzi o comunque perseguiti dalla legge.

Esistono anche tecniche di Negative Seo senza link ( linkless Negative SEO ) che influenzano altri fattori di ranking dei motori di ricerca, come l'esperienza utente ( user experience ) e la reputazione online di un brand.

  • Rallentamenti da attacchi DDos. Secondo alcune euristiche l'esperienza utente in un sito migliora se quest'ultimo è ospitato in un server veloce ( o non eccessivamente lento ). Un semplice attacco DDos può rallentare le prestazioni di un server, riducendo il ranking dei siti web ospitati.
  • Intrusioni sul server. Lo spammer usa le vulnerabilità del CMS o del server per introdursi nel server tramite backdoor. Una volta dentro può causare vari danni. Non solo inserendo link. Ad esempio, lo spammer può duplicare i contenuti interni del sito, creare pagine ridondanti, contenuti automatici (es. soft 404) per farlo penalizzare dal search engine, modificare gli applicativi per causare frequenti errori http del server, inviare email spam, introdurre file di virus o trojan nelle pagine web ecc. Le intrusioni più dannose sono quelle silenziose perché sono più difficili da individuare e si protraggono nel tempo. Pertanto, è opportuno controllare frequentemente i log del server e indagare su qualsiasi anomalia anche di piccola entità.
  • Clickthrough rate sulle serp. Un altro tipo di tecnica linkness negative consiste nell'alterare artificialmente il CTR ( Click Through Rate ) sulle pagine dei risultati del motore di ricerca ( SERP ) tramite reti sociali o software automatici, detti CTR-bot o Click-bot. Questi software navigano sulle SERP cliccando automaticamente su alcuni risultati ma non su altri. In questo modo, si riduce la percentuale di click ( CTR ) su alcuni risultati, facendoli scendere di posizioni. Sfrutta un'euristica dei search engine in base alla quale un risultato non cliccato o cliccato meno dagli utenti va rimosso dai risultati.
  • Negative citation / co-citation
    Il nome del sito vittima viene menzionato ( senza link ) da un sito web spam ( negative citation ) insieme ad altri siti spam ( negative co-citation ) per confondere l'algoritmo del search engine e danneggiare la reputazione del website vittima nelle euristiche del motore di ricerca.
  • Recensioni negative ( negative semantic seo ). Le recensioni negative del brand su siti autorevoli e sui social network possono danneggiare il ranking. In particolar modo, se il brand è citato in frasi con molte co-occorrenze negative. Una sorta di seo semantica negativa. In genere, è un'azione compiuta da gruppi di utenti disturbatori ( troll ) particolarmente abili a coinvolgere gli altri utenti in discussioni critiche e flame ( es. fake news ).
  • I contenuti copiati da altri siti ( negative spinning )
    I contenuti del sito web vittima sono copiati automaticamente e ripubblicati su altri domini. Queste operazioni sono dette scraping. A volte le copie dei contenuti includono un link verso il sito di origine, per simulare un'operazione di aggregazione. Altre volte sono copie automatiche tempestive sui nuovi contenuti e sono prive di link, per farli indicizzare prima sul sito web negativo e far credere al search engine che il legittimo autore ( il sito web vittima ) sia colui che li copia, oppure registrare la DMCA del contenuto sul sito negativo prima dell'originale e poi far oscurare il sito vittima. Altre volte ancora sono singole parti del testo originale, copiate e incollate nei commenti di spam per far entrare la stringa alfanumerica ( la frase ) nei filtri antispam del search engine.

    Nota. Se lo stesso contenuto testuale è copiato su molti spam site, giudicato negativamente dal motore di ricerca, potrebbe influenzare il posizionamento del documento originale. Anche se i contenuti copiati sono privi di backlink e di citazioni dell'originale. Non dovrebbe accadere in un search engine evoluto ... ma qualche volta è capitato.

  • Negative canonical tag. Questo attacco consiste nel copiare la sezione head del documento html di una webpage vittima e incollarla in una pagina spam. All'interno della sezione head sono presenti i tag rel canonical che reindirizzano alla pagina vittima. Quando il crawler rileva lo spam, potrebbe assegnare un puntegno negativo anche alla webpage vittima.

    Nota. Si tratta di un attacco particolarmente difficile da rilevare perché le sezioni head delle pagine web non sono monitorate dai software e dai tool online di controllo.

  • Negative social engagement. L'acquisto di fan fasulli per una pagina competitor sui social network riduce le sua probabilità di engagement ( coinvolgimento ), la visibilità del sito quando condivide un post sui social e, indirettamente, la quantità di segnali sociali di ritorno ( feed-back ) considerati dai motori di ricerca.

    Esempio. Su alcuni algoritmi di visibilità dei social network è più facile generare feed-back da 100 utenti attivi che da 1000 utenti con 900 fans fasulli.

  • Negative UX. E' una tecnica ipotetica che sfrutta gli algoritmi di misurazione della User Experience dei motori di ricerca ( Serp Ctr, Bounce Rate, Time Visit, ecc. ). Un consistente gruppo di utenti attua un comportamento di navigazione per generare dei segnali di bad UX a scapito di un sito vittima. Per apparire naturale, il comportamento non deve essere ripetuto troppo rapidamente da ciascun utente bensì attuato in massa da molti utenti. Questa tipologia di attacco può essere attuata anche da bot automatici, purché siano in grado di apparire come utenti reali agli occhi del search engine.

    Esempio. Per simulare una cattiva esperienza utente, un gruppo di utenti (con diverso ip, connessione, ecc. ) clicca su un risultato di ricerca e torna sulla Serp dopo pochi secondi, premendo sul tasto back del browser, per visitare un altro risultato. L'innalzamento del Bounce Rate ( tasso di rimbalzo ) è un segnale di cattiva UX che, se frequente e ripetuto nel tempo da diversi utenti, potrebbe ridurre il posizionamento del risultato e/o del sito vittima.

  • Search console. Se gli spammer riescono a verificare la proprietà di un sito possono causare notevoli danni al suo posizionamento su Google. Ad esempio, deindicizzare le pagine più importanti.

Perché studiare la Negative Seo?

Nella lista precedente ho citato soltanto alcune tecniche della Seo Negativa.

Sono tecniche da non utilizzare. Sono illegali e causano danni ad altri.

Alcune sono già obsolete ma è opportuno ricordarle, altre sono soltanto ipotetiche.

Ce ne sono molte altre e le più recenti (ed efficaci) non sono ovviamente divulgate da chi le utilizza.

E allora perché parlarne?

Semplice, perché la Negative Seo è comunque una realtà da cui doversi difendere. Può colpire chiunque e la prima cosa da fare è imparare a conoscerla.

Bisogna studiarla a fondo per proteggersi, nell'attesa e nella speranza che in futuro Google risolva il problema alla radice.

La nascita della Seo negativa

La link popularity si basa su un principio molto semplice, se una risorsa online è molto linkata, allora è anche utile. Si tratta, ovviamente, di link naturali. La risorsa linkante inserisce il collegamento ipertestuale verso la risorsa esterna ( linkata ) di propria libera volontà e senza ottenere nulla in cambio.

LINK POPULARITY

Su questo semplice concetto Google ha costruito le fondamenta del suo motore di ricerca nel 1998. Era geniale e semplice. In pochi anni fiorì un vero e proprio commercio dei link a pagamento. Per migliorare il posizionamento sui motori di ricerca i siti web acquistavano o scambiavano, in modo diretto o indiretto, dei collegamenti ipertestuali con altri siti. Questi link artificiali ( verdi ) miglioravano effettivamente la popolarità della risorsa linkata.

LINK ARTIFICIALI ( SEO )

Ad esempio, la presenza dei link artificiali dalle risorse F e G influenza sensibilmente i risultati dei motori di ricerca nei confronti della risorsa linkata, facendogli credere che è più importante di quello che sia veramente ( vedi differenza tra link naturali e link artificiali ) .

Faccio una breve parentesi per ricordare che si tratta di vecchia SEO e oggi non è più funzionante. I motori di ricerca corsero ai ripari per contrastare gli abusi. Gli algoritmi furono perfezionati introducendo dei controlli sulla provenienza dei link, attribuendo a ogni collegamento ipertestuale un valore differente. Venne aggiunto il controllo del numero dei link in uscita, il controllo delle triangolazioni, dell'anchor text, ecc. Quando il motore di ricerca individuava dei link artificiali... si limitava a considerarli come link neutri di valore pare a zero.

Ad esempio, il motore di ricerca si accorge del link artificiale da parte della risorsa F e, quindi, non lo considera valido attribuendogli un valore pari a zero ( link neutro ) e penalizza la risorsa linkante ( F ) per contrastare la pratica dei link artificiali.

PENALIZZAZIONE LINK ARTIFICIALE

Il sistema era abbastanza funzionante ma non eliminava il fenomeno dello spam-engine. Le tecniche di link building si adattarono, diventando sempre più perfezionate e difficili da individuare.

A quel punto i motori di ricerca pensarono di risolvere drasticamente il problema dello spam-engine introducendo il collegamento ipertestuale negativo ( link cattivo o bad link ). Quando il motore di ricerca individua un collegamento ipertestuale artificiale, o strano, penalizza anche la risorsa linkata e non più soltanto la risorsa linkante.

SEO NEGATIVA

Questa tecnica antispam è senza dubbio poco intelligente poiché, non solo non distrugge la SEO, ma addirittura crea una SEO negativa. In poche parole, viene a crearsi un mercato in cui tutti possono distruggere i propri concorrenti online semplicemente acquistando bad link puntati verso il sito web del proprio rivale.

Ad esempio, nello schema precedente le risorse H e I hanno una pessima reputazione e inseriscono un collegamento ipertestuale maligno ( rosso ) verso la risorsa linkata, a sua insaputa, al solo fine di infangarne la reputazione. Chi scopre di essere vittima del SEO negativo deve comunicare al motore di ricerca di non volere questi link per evitare di essere penalizzato dl motore di ricerca ( vedi come rimuovere i bad link artificiali ).

Nota. Questa tecnica antispam, secondo me, è un notevole passo indietro dei motori di ricerca sulla strada che conduce all'intelligenza artificiale.

 


 

Segnalami un errore, un refuso o un suggerimento per migliorare gli appunti

Altri aspetti della SEO negativa

  • Link Site Wide. Sono collegamenti ipertestuali do follow inseriti su tutte le pagine di un sito, nel footer ( pié di pagina ) e/o nelle side-bar, verso un unico sito web di destinazione ( landing page ). Nella negative SEO sono spesso utilizzati per infangare il dominio del sito linkato, perché sono visti da Google come link non naturali. I collegamenti Site Wide con l'attributo rel no-follow, invece, sono consentiti dal motore di ricerca.
  • Seo Negative diffusa. Il caso Site Wide è facilmente individuabile poiché i badlinks provengono da tutte le pagine di un sito web e hanno tutti la stessa anchor text commerciale. È invece più difficile individuare la Seo Negative diffusa poiché i badlink, pur avendo la stessa anchor text commerciale, sono distribuiti in singole pagine su spam site differenti.
  • Spam su forum e community. L'inserimento in massa dei badlinks do follow in forum e community di bassa qualità danneggia la reputazione del sito linkato. Questa azione è considerata SEO black hat dai serch engine. Diventa molto pericolosa se il sito vittima linka, a sua volta, uno di questi site spam.
  • Scraping e contenuti duplicati. Lo scraping è la copia automatica dei contenuti di un sito da parte di un sito esterno che, una volta prelevati, li aggrega e li ripubblica senza autorizzazione inserendo un badlink verso la fonte. Questi aggregatori automatici potrebbero essere considerati come un tentativo di link-building. Il web scraping può causare danni, quando la copia del testo è integrale e il contenuto copia è indicizzato prima di quello originale.
  • Hacking del sito web. Un competitor potrebbe aver commissionato a un hacker il compito di violare la sicurezza del server. Dopo aver bucato il sito web ed essere riuscito ad accedere al server, ove risiede il sito, l'hacker gli aggiunge delle pagine web con collegamenti ipertestuali verso risorse di bassa qualità e/o per installa del codice malevole sul sito. Il doppio collegamento reciproco tra sito vittima e spam site ( scambio link fraudolento ) rende immediata la penalizzazione sul search engine. Generalmente è lo stesso hacker a segnalare lo spam a Google per accelelerare la penalizzazione.Gli attacchi DoS possono anche far bannare un sito. Un sito bannato è escluso dai risultati di ricerca.
  • Vecchi link esterni nel sito. Nelle pagine web più vecchie di un sito potrebbero esserci collegamenti ipertestuali verso risorse esterne non più esistenti o domini scaduti. Ben sapendo della presenza dei collegamenti, un malintenzionato potrebbe registrare i nomi di dominio scaduti per creare intenzionalmente uno spam site con collegamenti verso il sito vittima. Le conseguenze sono simili al caso di hacking poiché i due siti sono interlinkati tra loro.
  • Redirect 301 malevole. I redirect 301 trasferiscono l'autorevolezza da un dominio a un altro. Sono utilizzati quando si vuole cambiare il nome di dominio. Con l'arrivo di Google Penguin, il motore di ricerca di Mountain View ha iniziato a considerare i 301 anche come un mezzo per trasferire le infrazioni, al fine di evitare che un sito penalizzato possa uscire dal suo status semplicemente cambiando nome. Purtroppo questa logica ha aperto nuovi rischi. I domini compromessi dalle infrazioni e dalle violazioni al regolamento di Google potrebbero appositamente inserire un redirect 301 malevolo verso un sito web vittima per infangarlo.
  • Spam referral. Secondo alcune opinioni, gli spam referral sono un altro esempio di seo negative. In questo caso un sito web di spam A genera un traffico referral verso il sito B, si tratta perlopiù di utenti che cliccano inavvertitamente su un link o di programmi automatici. Questo traffico di utenti non interessati, o forzati, produce un forte incremento sul tasso di rimbalzo del sito e riduce il tempo medio di permanenza. Questi due dati statistici sono alcuni fattori alla base del calcolo della user experience ( esperienza utente ) del sito da parte dei motori di ricerca e possono influenzare la sua posizione. Un sito con bassa user experience rischia di essere penalizzato dal search engine.
  • Google Analytics Negative. Il codice di monitoraggio di un sito viene copiato da altri bad sites, allo scopo di inquinare i dati e inviare ad Analytics falsi segnali di cattiva esperienza utente ( bad user experience ). Inoltre, il proprietario del sito visualizza sul pannello dei dati statistici non più veritieri perché sporcati dai falsi dati.

FAQ

  1. Come eliminare i link negativi in entrata? Si può monitorare manualmente la situazione dei link in entrata ( backlinks ) e verificare la loro genuinità attravero il pannello Webmaster Tools ( Strumenti Webmaster ). Il tool di Google permette di scaricare l'elenco degli ultimi collegamenti ipertestuali verso un sito. Una volta trovati quelli malevoli, si può richiedere la rimozione ai siti web di origine. In caso di mancata risposta da questi, si può comunicare al search engine di rifiutare tutti i link provenienti da un particolare nome di dominio utilizzando la funzione Disavow di Google. È possibile integrare l'analisi con gli Strumenti per Webmaster di Bing. Altri servizi online utili per verificare i link entranti di un sito web, divenuti molto noti dopo l'arrivo di Google Penguin, sono Ahrefs, Moz, Majestic.
  2. Conviene usare la funzione Disavow di Google? Si può utilizzare dopo una notifica di penalizzazione manuale per link non naturali. In assenza di una comunicazione di violazione, invece, si rischia di eliminare backlink validi che contribuivano al ranking del sito.
  3. Come evitare le intrusioni hacker sul sito? Se si utilizza un CMS open-source ( es. Joomla, Wordpress, ecc. ) è consigliabile installare l'ultima release stabile del programma. Le versioni più vecchie possono avere bug, falle e problemi di sicurezza, sfruttate dagli hacker per entrare sul server del sito e inserire link malevoli verso l'esterno. Inoltre, è utile analizzare il livello di sicurezza del server ed eventualmente installare un firewall.
  4. Come risolvere il problema della negative SEO? Google dovrebbe semplicemente evitare di computare i badlinks. Una volta riconosciuti quelli di scarsa qualità, l'algoritmo GoogleBot dovrebbe escluderli dal computo del ranking, senza alcuna penalizzazione al sito web linkato. In alternativa, il search engine potrebbe prendere in considerazione soltanto i link esterni provenienti da siti web autorevoli.
  5. Come accorgersi che il sito è stato bucato da un hacker? Su Strumenti Webmaster viene tempestivamente segnalata al webmaster la presenza del malware ( trojan, virus, ecc. ) sul server. La presenza di link esterni malevoli, invece, non viene segnalata. Si possono individuare soltanto con un monitoraggio periodico di tutte le pagine del sito attraverso software spider client ( es. Screaming Frog ) e/o cercando su Google delle bad words con la funzione site: nella query.
  6. Come eliminare i vecchi link esterni? Ogni 3-6 mesi è opportuno controllare tutte le pagine web del proprio sito, verificando la validità di ogni singolo link esterno. Anche in questo caso si può utilizzare Screaming Frog o software simili.
  7. Come individuare i contenuti duplicati sul web? Si può cercare su Google un blocco di testo racchiuso tra virgolette. La query restituisce tutti i siti che hanno pubblicato esattamente quel blocco di testo sulle proprie pagine.
  8. Come evitare la duplicazione dei contenuti? Non esistono tecniche efficaci per impedire agli altri di copiare un testo online. È però consigliabile fare in modo che i propri contenuti siano sempre indicizzati da Google prima di quell copiati, consentendo al search engine di attribuire la paternità al legittimo autore e alla fonte di origine. Per sollecitare il passaggio dello spider sui contenuti aggiornati si può creare una site map sincronizzata.

FacebookTwitterLinkedinLinkedin
knowledge base

Libri di approfondimento