Searcus

Corsi e Consulenza SEO e AdWords in Ticino

Tel: 079 8643035
Tel da estero: +41 79 8643035
  • Search Marketing
  • SEO
    • Analisi delle Parole Chiave
    • Analisi della Concorrenza e Competizione Online
    • SEO Audit tecnico Analisi di HTML e struttura del sito
    • Servizio SEO Copywriting Professionale
    • Piano Redazionale SEO
    • Migrazione SEO per cambio Dominio o CMS
    • SEO per Video e Canali YouTube
    • Offerta SEO per StartUp
  • PPC
    • Gestione Campagne Google Ads
    • Campagne Remarketing Search e Display
    • Agenzia Certificata Google Ads in Ticino
    • Pubblicità su YouTube
    • Cos’è e a cosa serve Google AdWords
  • Social
  • Corsi
    • Corso SEO per Aziende e Privati
    • Corso SEO Avanzato
    • Corso SEO Copywriting
    • Corso Ads Base
    • Corso Ads Avanzato
    • Workshops Aziendali SEO e SEM
    • OpenCoffee
  • Chi Siamo
  • Clienti
  • Blog
  • Contatti
  • FAQ
You are here: Home / Web Marketing / Indicizzazione su Google, cosa significa?

Indicizzazione su Google, cosa significa?

25 Maggio 2017 by Giovanni Sacheli Leave a Comment

Condividi questo articolo:

Indicizzazione su Google, cosa significa?
Lo sviluppo e la pubblicazione online di un sito web, al giorno d’oggi, sono entrambe operazioni che possono essere svolte anche dai meno esperti, grazie all’ausilio di software specializzati. Un conto è creare e pubblicare online un sito web e un conto è fare in modo che esso risulti accessibile agli altri utenti della rete.

Uno degli aspetti fondamentali che accompagna la creazione di un sito web, infatti, riguarda proprio la sua indicizzazione sui motori di ricerca e, nello specifico, su uno in particolare: Google. Quest’ultimo rappresenta il motore di ricerca più utilizzato al mondo, con una percentuale di utilizzo superiore all’80% solo negli Stati Uniti. Per questo motivo, risulta praticamente impensabile pubblicare un sito web e rendere Google all’oscuro della sua esistenza, soprattutto se il proprio obiettivo è quello di raggiungere un pubblico sempre più vasto.

Prima di vedere quanto conta la presenza di un sito su Google, però, è necessario comprendere appieno il concetto di indicizzazione e perché questo processo risulta così importante al fine di ottenere la propria visibilità su Google.

Che si intende per indicizzazione?

Il concetto di indicizzazione può essere facilmente assimilato col seguente esempio: immaginiamo di aver inaugurato una bella mostra d’arte della quale, però, ancora nessuno conosce l’esatta ubicazione. Come faranno gli altri a raggiungerla?

La stessa situazione si verifica anche quando si pubblica in rete un nuovo sito Web. Quest’ultimo fin quando non verrà indicizzato su Google, non apparirà mai nei risultati dei motori di ricerca, risultando quindi inaccessibile agli utenti.

Normalmente, l’indicizzazione di un nuovo sito web da parte di Google avviene in totale autonomia, tramite i cosiddetti Crawler (chiamati anche Spider), bot in grado di setacciare gran parte della rete in modo del tutto automatico, aggiungendo nell’indice di Google tutte le nuove pagine, documenti e così via. Il Crawler di Google, denominato Googlebot, tuttavia, così come gli altri spider ha bisogno di una lista di URL da visitare, contenuta solitamente nel file Robots.txt nella cartella principale di un sito web.

Quanto appena visto rappresenta solo una piccola parte dell’indicizzazione. Nel web, infatti, si contano milioni di siti web e non tutti vengono scansionati per poi essere inseriti negli indici dei motori di ricerca. A volte, come spiegato nel dettaglio in seguito, occorre segnalare manualmente la presenza di un nuovo sito a Google, seguendo una serie di accorgimenti. Prima è necessario però comprendere come avviene l’indicizzazione da parte dei motori di ricerca.

La differenza tra indicizzazione e posizionamento

Per quanto riguarda l’indicizzazione non c’è altro da aggiungere a quanto detto finora. Tuttavia un errore molto comune, commesso perlopiù dai meno esperti in ambito SEO e di gestione web, è quello di confondere la fase di indicizzazione con la fase di posizionamento. Nel primo caso essa termina con l’inserimento dei nuovi contenuti nelle SERP di Google (ossia i risultati del motore di ricerca), mentre il posizionamento comprende una serie di accorgimenti che il webmaster adopera per dare maggiore visibilità ai suoi contenuti. Nello specifico, la fase di posizionamento di una pagina consiste nell’ottimizzazione dei contenuti presenti in un sito, affinché quest’ultimi raggiungano un’elevata visibilità, che in altre parole si traduce in posti più alti nei risultati di ricerca.

Il discorso del posizionamento evade dal tema principale di quest’articolo, tuttavia è necessario sapere che tutti i metodi utilizzati per ottimizzare un sito web e, nello specifico, tutti i suoi contenuti, fanno parte dell’ambito SEO (Search Engine Optimization), ossia l’insieme di strategie collaudate volte a migliorare la posizione dei siti web e dei suoi contenuti nei risultati di ricerca.

Come avviene l’indicizzazione su Google?

L’indicizzazione è quindi il processo svolto dai motori di ricerca che consente loro di aggiungere le nuove pagine web nei propri indici. In particolare, Google si avvale di quattro strumenti differenti per compiere il suo processo di indicizzazione:

  • Gli spider
  • Tramite il modulo “suggerisci URL”
  • La Sitemap
  • Gli RSS

Gli spider, come già anticipato, sono software programmati per analizzare migliaia di pagine al minuto. Essi in gergo informatico vengono anche chiamati bot, poiché eseguono sempre la stessa operazione con una frequenza piuttosto elevata. Il loro scopo è unicamente quello di scovare nuove URL che portano a nuove pagine o interi siti inseriti in rete, per poi indicizzarli. Da ciò si intuisce che per essere indicizzati nel minor tempo possibile, e facilitare quindi il lavoro degli spider, occorre essere linkati da un sito già ben indicizzato presente in rete.

In alternativa, è possibile comunicare direttamente a Google la presenza di un nuovo sito attraverso il modulo Inserisci URL, nel quale basta inserire l’home page del proprio sito per poi essere trovati rapidamente dagli spider, a patto che quest’ultimi non incontrino alcun ostacolo (vedremo in seguito quali possono essere).

La Sitemap, invece, è uno strumento di recente utilizzo che Google mette a disposizione dei Web Master per accelerare il processo di indicizzazione o, per meglio dire, di spiderizzazione. Si tratta di un file in formato XML contenente tutte le URL del sito, da inserire nella root principale del proprio sito. In questo modo Google avrà una panoramica completa di tutte le pagine da indicizzare.
Quando fu introdotta per la prima volta, la Sitemap creava non pochi problemi ai web master. Bastava infatti sbagliare alcune righe di codice per compromettere l’indicizzazione del proprio sito, ostacolando quindi il lavoro degli spider. Oggi, invece, la Sitemap è stata standardizzata e risulta così uguale per ogni sito web. All’indirizzo http://sitemaps.org/it/ è possibile quindi prelevare il protocollo Sitemap, nel quale andranno inserite solo le URL del proprio sito. Infine, siccome il Protocollo Sitemap risulta un progetto indipendente, la Sitemap inserita nel proprio sito sarà valida non solo per Google, ma anche per gli altri motori di ricerca.

L’ultimo strumento utilizzato da Google per l’indicizzazione di nuovi siti web sono gli RSS. Prima del loro avvento, gran parte della rete lamentava tempi molto lunghi per l’indicizzazione di nuove pagine. L’attesa poteva essere di pochi giorni fino a protrarsi ad alcune settimane. Questa circostanza danneggiava soprattutto i siti editoriali, che avevano la necessità di indicizzare prontamente tutti i nuovi contenuti. Con l’arrivo degli RSS, invece, i tempi di indicizzazione hanno subito una svolta storica, passando da quelli sopra descritti a sole poche ore dalla pubblicazione di un nuovo contenuto. Come è possibile?

Tutto è merito degli RSS, il sistema istantaneo per la fruizione di contenuti che, attraverso un Ping, segnala agli utenti la pubblicazione di un nuovo contenuto in tempo reale (a patto che tali utenti abbiano uno strumento valido per la lettura degli RSS). Il ruolo di Google in tutto ciò è rappresentato da Feedburner, un sito acquistato da Google nel 2007 che permette di registrare facilmente i propri RSS e grazie al quale Google riesce a rilevare in tempo reale tutti i nuovi contenuti pubblicati.

Come creare e verificare la correttezza di una Sitemap

La creazione di un file sitemap.xml, come già sottolineato in vari punti, è un processo estremamente importante ai fini dell’indicizzazione, soprattutto se il proprio sito ha molte pagine da indicizzare. La corretta implementazione del file sitemap.xml, effettuata secondo il protocollo sitemap, garantisce un’ottima comunicazione tra il Crawler di Google e il proprio sito, favorendone così la velocità di scansionamento.

Prima di capire in che modo si genera una nuova sitemap, è necessario sapere che ne esistono di diversi tipi: video, immagini e risorse HTML. Ognuna presenta attributi differenti ed è quindi indicata a favorire il crawler in base al contenuto del proprio sito. Dopo averle completate queste dovranno essere inviate al crawler, attraverso la Google Search Console.

Per ogni tipologia di sitemap esistono tool dedicati che svolgono il lavoro al posto nostro e ci consentono di avere una sitemap pronta da inviare a Google in pochissimo tempo. Uno dei tool più indicati per generare una sitemap sia in formato XML che negli altri formati è Screaming Frog. Il suo funzionamento, per quanto riguarda la creazione di un file sitemap.xml, si traduce in pochi passaggi:

  • Selezionare il sito da scansionare;
  • Attendere il termine della scansione e selezionare l’opzione “Create XML Sitemap”;
  • Selezionare manualmente tutte le pagine da voler indicizzare ed escludere quelle contenute nel file robots.txt con direttiva noindex;
  • Scegliere, infine, il percorso su cui salvarla.

E’ possibile prelevare gratuitamente Screaming Frog SEO Spider Tool al seguente indirizzo: https://www.screamingfrog.co.uk/seo-spider/.

Per inviare la sitemap a Google, invece, bisogna accedere con le proprie credenziali alla GSC (Google Search Console), accedere alle proprietà relative al proprio sito, selezionare la voce “Aggiungi sitemap” e indicare il percorso corretto di quest’ultima.
Così facendo, quindi, si darà un enorme contributo agli spider di Google, che avranno a disposizione un elenco completo di tutte le URL da scansionare e da indicizzare, nessuna esclusa.

Quali sono i tempi di indicizzazione?

Innanzitutto bisogna distinguere il tempo relativo all’indicizzazione di un sito appena creato da quello relativo ai contenuti che si pubblicano periodicamente in esso. In entrambi i casi il tempo di indicizzazione lo si può solo stimare.

Un sito appena pubblicato deve attendere di essere scansionato dagli spider di Google e ha quindi bisogno di una serie di accorgimenti in modo tale che ciò accada nel minor tempo possibile. Se si utilizza, ad esempio, solo una Sitemap.xml completa potrebbero volerci alcuni giorni o al massimo una settimana prima che il sito venga inserito negli indici di Google. Se si usano gli strumenti elencati nei prossimi paragrafi e si adottano alcuni (o tutti) dei consigli di seguito proposti, l’indicizzazione del proprio sito può avvenire addirittura in poche ore. In caso contrario, ossia se non si utilizza alcun accorgimento, potrebbero volerci alcune settimane prima che il sito venga scansionato e indicizzato.

Per quanto riguarda i contenuti, invece, la loro velocità di indicizzazione è direttamente proporzionale ad una serie di fattori, quali: il ranking del sito, il posizionamento dei contenuti, la loro ottimizzazione e così via. In altre parole, l’indicizzazione dei contenuti di un sito ben avviato può variare da pochi minuti a soli pochi secondi.

A che serve il file Robots.txt?

A seconda delle esigenze, quando si progetta un nuovo sito web si può avere la necessità di rendere invisibili al motore di ricerca alcune pagine del proprio sito, indicando agli spider di Google di non indicizzare specifici contenuti. Come è possibile farlo e come si nasconde un contenuto già indicizzato?

Se l’indicizzazione fa parte di un processo continuo ed automatico controllato da Google, la scelta di non indicizzare una o una serie di pagine è possibile solo attraverso il file Robots.txt, che si colloca nella root principale del proprio sito. In questo file, in pratica, attraverso una serie di comandi si può esplicitamente comunicare al motore di ricerca quali devono essere i contenuti da indicizzare e quali no. Ad esempio, se si gestisce un sito web personale si può comunicare al motore di ricerca di non scansionare tutta la parte back-end del proprio sito, che deve quindi restare nascosta agli altri utenti della rete. Da ciò ne consegue che la gestione e la formattazione del file Robots.txt ricopre un ruolo molto importante nella fase di indicizzazione di un nuovo sito.

Il file testuale Robots.txt, quindi, si compone di alcuni semplici comandi, che permettono di agire direttamente con gli spider. Diamo uno sguardo ai principali comandi che è possibile sfruttare:

  • User-agent: nel campo “User-agent: *” al posto dell’asterisco è possibile inserire il nome dello spider che si desidera bloccare. Ad esempio, con la scrittura User-agent: Googlebot si andrà a bloccare l’accesso dello spider di Google, rinunciando così all’indicizzazione di tutte le proprie pagine dal noto motore di ricerca. Così facendo, però, si rinuncerà all’indicizzazione di Google ma comunque le pagine del proprio sito potranno essere indicizzate dai restanti motori di ricerca. Se infine si intende inibire l’accesso a tutti gli spider è necessario lasciare inalterato l’asterisco.
  • Allow/Disallow: questo campo è sicuramente quello più interessante. Attraverso le stringhe di codice:

User-Agent: *
Disallow: /”…”

si può comunicare al motore di ricerca la pagina o, volendo, un’intera directory, che non dovrà essere indicizzata, sostituendo al posto dei puntini la posizione della pagina o della directory. Se, in alternativa, si vuole inibire l’accesso ad una determinata pagina o cartella solo allo spider di Google è necessario utilizzare le seguenti stringhe di testo:

User-Agent: googlebot
Disallow: /”…”

Oltre alle istruzioni sopra elencate, come già anticipato il file Robots.txt può essere utilizzato per comunicare a Google altre preferenze. L’elenco dei comandi utilizzabili e l’insieme dei nomi di tutti gli spider sono entrambe risorse facilmente prelevabili in rete. Tuttavia, bisogna ricordare che la stesura di questo file va fatta con molta cautela, poiché un semplice refuso potrebbe compromettere la visibilità dell’intero sito sul motore di ricerca. A tal proposito, è sempre bene controllare che il file Robots.txt sia stato redatto correttamente, attraverso un tool come quello disponibile al seguente indirizzo: “http://tool.motoricerca.info/analizzatore-robots.phtml”. Si tratta di uno strumento gratuito messo a disposizione dei web master che analizza l’intero file robots, evidenziandone i possibili errori di logica o di sintassi commessi.

Un’esigenza che può verificarsi in un secondo momento, infine, può essere quella di cancellare una pagina dal motore di ricerca. I motivi per i quali si può desiderare una cosa del genere sono molteplici. Ad esempio, può accadere che una determinata pagina venga invasa dallo spam e per tale motivo si desidera eliminarla; oppure può succedere che durante la fase di ristrutturazione di un sito alcune URL vengano rimosse, risultando quindi link interrotti, dei quali bisogna subito sbarazzarsi ai fini dell’ottimizzazione del sito. In questi appena descritti e negli altri casi, per segnalare a Google la rimozione di una URL si può procedere nel modo seguente: basta inserire nel codice HTML il meta tag noindex relativo alla pagina da de-indicizzare, comunicando così direttamente a Google la preferenza di non inserire quella pagina nel suo indice.

Un metodo efficace per indicizzare al meglio un sito

Nei paragrafi precedenti sono stati menzionati gli strumenti utilizzati da Google per scannerizzare continuamente la rete con i suoi spider ed è stata descritta l’importanza del file Robots e la Sitemap ai fini dell’indicizzazione. Di seguito, invece, vedremo quali attività un web master può intraprendere per accelerare il lavoro degli spider.

  • Google Search Console: la quasi totalità degli strumenti che Google mette a disposizione per i Web Master sono accessibili attraverso un unico account. Fra questi, uno dei più importanti, soprattutto per quanto riguarda l’indicizzazione, è il Google Search Console. Si tratta di un servizio che permette principalmente di analizzare il contenuto di un sito web consentendo, ad esempio, di sapere per quali keyword il sito si posiziona in rete e con quale CTR (la percentuale di clic ricevuti per una determinata keyword in rapporto al volume di ricerca totale). Oltre a queste utili informazioni, però, questo strumento permette anche di eseguire altre operazioni utili all’indicizzazione del proprio sito, fra le quali:
  • Comunicare a Google la Sitemap aggiornata del proprio sito;
  • Verificare la presenza di link interrotti all’interno del sito (che portano quindi all’errore 404), che impediscono agli spider di raggiungere l’URL corretta;
  • Capire se il proprio sito ha subito qualche sorta di penalizzazione e perché;
  • Comunicare direttamente le nuove pagine e i nuovi contenuti a Google (attraverso il modulo Inserisci URL sopra descritto);
  • Verificare le prestazioni del proprio sito (in termini di velocità) e se quest’ultima possa influire sulla velocità di indicizzazione.
  • Google Plus: quello che agli occhi degli altri può sembrare un semplice social network, per il web master risulta sicuramente uno strumento molto prezioso. Quelle che prima erano soltanto ipotesi, infatti, ora si sono tramutate in certezza. Attraverso un profilo su Google Plus, infatti, è possibile linkare le pagine del proprio sito, velocizzando di conseguenza l’arrivo degli spider da parte di Google.

Altri consigli e strumenti per migliorare l’indicizzazione

Oltre al metodo sopra riportato, esistono anche altre vie per favorire la rapida indicizzazione di un sito. Queste, è bene saperlo, più che essere considerate veri e propri metodi sono solo degli accorgimenti che, se effettuati, influenzano positivamente il processo di indicizzazione.

  • Evitare i testi copiati: utilizzare dei contenuti copiati all’interno del proprio sito è una delle operazioni proibite da Google. Ciò non influenza solo il posizionamento del sito nelle SERP di Google, ma ne abbassa anche l’indice di qualità (misurato anch’esso dal motore di ricerca). Gli spider dei motori di ricerca, infatti, sono programmati per scansionare in primis i siti con un elevato indice di qualità. Per tale motivo, basta un solo contenuto copiato all’interno del proprio sito per compromettere per un lungo periodo l’alta velocità di scansione dei propri contenuti.
  • Farsi linkare da siti autorevoli: alla base di una rapida indicizzazione ci sono sempre e ovviamente gli URL del proprio sito, che devono essere in qualche modo trovati dagli spider per essere scansionati. Come già anticipato, quindi, il modo più veloce per attirare il bot di Google è quello di essere linkato da un sito web già ben indicizzato. Più tale sito risulta autorevole e meno tempo ci metteranno gli spider a farsi vivi.
  • Utilizzare i social network: propagandare un sito appena creato sui social netwok, magari con l’aiuto di amici e colleghi, è un metodo molto valido per aumentare la visibilità e la velocità di indicizzazione dei contenuti. Anche se, come sopra riportato, Google Plus ha la precedenza, in quanto tutti i link al suo interno vengono elaborati direttamente da Google, pure gli altri social network (Facebook, Twitter, Pinterest, …) risultano fondamentali.
  • Linkare il sito su blog e forum tematici: se si ha la possibilità e soprattutto un po’ di tempo a propria disposizione, un modo molto efficace di impiegarlo consiste nel portare valore aggiunto alle discussioni, tramite i contenuti presenti sul proprio sito (inserendo quindi l’URL che mira ad una pagina del proprio sito e stando attenti che il suo contenuto sia pertinente a quello del sito che la ospita).
  • Ping-o-matic: si tratta di uno strumento molto semplice che sfrutta la stessa tecnologia di comunicazione degli RSS: il ping. Attraverso questo servizio disponibile online gratuitamente, quindi, è possibile inviare il ping relativo alla home page del proprio sito (accompagnata dal nome completo e da una breve descrizione) ai servizi abilitati a riceverli, come: NewsGator, My Yahoo!, Superfeedr e così via.

Infine, ci sono altri accorgimenti da operare, che valgono sia per il posizionamento dei contenuti che per la loro valida indicizzazione:

  • Meta Title: in pratica si tratta del titolo della pagina che viene visualizzato nei risultati di ricerca. I Meta Title della maggior parte dei contenuti presenti sul proprio sito, preferibilmente, dovranno avere una lunghezza massima compresa tra i 60-70 caratteri e dovranno rispecchiare il contenuto della pagina. Ancora meglio se il Meta Title contiene una keyword utilizzata anche nel contenuto.
  • Meta Description: allo stesso modo, il Meta Description non è altro che la descrizione presente sotto ai Meta Title nei risultati di ricerca. Questa, ai fini dell’indicizzazione e dell’ottimizzazione SEO, deve mantenersi sotto i 160 caratteri, affinché non venga accorciata da Google.
  • Meta Keywords: si tratta di un parametro intrinseco agli occhi del lettore. La Meta Keyword, in pratica, serve ad indicare a Google la Keyword primaria utilizzata nella pagina, in modo da essere ricercati solo per quella determinata keyword. Per questo motivo è bene inserire sempre una keyword corretta all’interno dell’apposito campo.

Cosa impedisce una buona indicizzazione?

Abbiamo visto che gli strumenti a disposizione di Google per scandagliare continuamente la rete sono molteplici. Essi permettono al noto motore di ricerca di rendere il processo di indicizzazione completamente automatico e soprattutto molto veloce. Ma cosa succede quando un nuovo sito tarda ad essere indicizzato? Quali sono le cause che impediscono una corretta indicizzazione?
Una mancata indicizzazione, in primo luogo, sta a significare che in qualche modo gli spider di Google non sono riusciti ad “entrare” in un determinato sito. Gli ostacoli incontrati dagli spider possono essere molteplici, come ad esempio i file Sitemap e Robots.txt corrotti. I meno comuni e più difficili da individuare sono i seguenti:

  • alcune URL in linguaggio JavaScript (anche se negli ultimi anni Google ha nettamente migliorato l’implementazione di tale linguaggio nei suoi browser);
  • contenuti in Flash;
  • altri tipi di file, fra cui quelli scritti in Ajax, Silverlight ed iframe.

La lista dei possibili ostacoli non è certo finita. Google sul fronte dell’ottimizzazione dei propri strumenti e dell’indicizzazione compie progressivamente passi da gigante, aumentando giorno dopo giorno il range e l’efficienza dei propri spider. Tuttavia, se si dovesse per forza utilizzare uno dei formati sopra elencati all’interno del proprio sito e si dovesse riscontrare una scarsa velocità di indicizzazione, è possibile verificare manualmente tutti i file che Google indicizza, alla seguente pagina che il motore di ricerca dedica ai web master: http://www.google.com/support/webmasters/bin/answer.py? answer=35287.

Un ultimo consiglio riguardo la lentezza di indicizzazione, infine, è quello di controllare periodicamente se quest’ultima avviene correttamente. Per farlo basta inserire in una sola pagina dei link che portano ad altre pagine interne del sito (appena create e quindi non ancora indicizzate). In questo modo si avrà la possibilità di accertare il corretto funzionamento degli spider di volta in volta.

Come verificare la corretta indicizzazione di un sito web

Di metodi per verificare lo stato di indicizzazione di un sito e delle sue pagine ce ne sono tanti. E’ possibile trovare, infatti, servizi specializzati che, oltre a verificare se il sito risulta indicizzato, mostrano anche le possibili cause che ne rallentano l’indicizzazione o addirittura la impediscono. A tal proposito, di seguito sono elencati alcuni strumenti e metodi “fai da te” per verificare se il proprio sito risulta inserito negli indici di ricerca di Google e degli altri motori di ricerca:

  • Verificare lo stato d’indicizzazione direttamente su Google: il primo metodo ci viene offerto intrinsecamente direttamente da Google. Tramite l’operatore di ricerca site:, infatti, con una semplice ricerca si possono trovare tutte le pagine già indicizzate e di conseguenza quelle che non lo sono. Ad esempio, inserendo nella barra di ricerca di Google site:http://miosito.it/, i risultati della ricerca saranno solo le pagine già indicizzate. Per quanto riguarda i contenuti, invece, il procedimento è il medesimo, solo che anziché utilizzare l’operatore site: l’URL del sito, è necessario inserire nella barra di ricerca solo il Meta Title del contenuto in questione.
  • Crawl budget: un altro parametro molto interessante ci viene offerto ancora una volta dalla Google Search Console: il Crawl budget. Si tratta del numero di pagine scansionate quotidianamente da Googlebot, il crawler che Google utilizza per scansionare i siti. Tale parametro permette di comprendere e stimare non solo la velocità di indicizzazione del sito\contenuti, ma anche di valutare la reputazione del proprio sito. Il dato più interessante mostrato dal grafico del Crawl budget, infatti, è la media delle scansioni che viene calcolata ogni 90 giorni. Se la media delle scansioni risulta un valore troppo basso, vorrà dire che il sito è poco autorevole o poco aggiornato, e quindi soffre di una lenta indicizzazione dei contenuti. In caso contrario, invece, il sito risulta ben aggiornato e dispone di un buon ranking nel complesso.
  • Strumenti per Web master: nella suite di strumenti ideata da Google per i web master è stata inserita recentemente una pagina molto immediata, chiamata Stato dell’indicizzazione, grazie alla quale è possibile ottenere un grafico contenente tutte le pagine indicizzate del proprio sito. Nel grafico, quindi, verranno riportate tutte le URL scansionate dagli spider. Tuttavia, queste non risulteranno quasi mai identiche a quelle realmente nel sito, per il semplice fatto che Google esclude dal conteggio le URL duplicate, quelle contenenti link interrotti e quelle che sono state inserite nel file Robots.txt come non indicizzabili.
  • SEMrush: si tratta di un servizio online molto versatile e potente appositamente dedicato per coloro che intendono ottimizzare sito e contenuti in ottica SEO. Tramite SEMrush è possibile ottenere uno svariato numero di analisi tecniche e resoconti molto interessanti relativi al proprio sito, fra i quali vi è anche l’opportunità di conoscere tutti gli URL che sono stati già indicizzati.
Condividi questo articolo:

Filed Under: Web Marketing

Contattaci ora!

Richiedi maggiori informazioni

About Giovanni Sacheli

Giovanni Sacheli é consulente SEO e SEM per Searcus Swiss Sagl ed EVE Milano. Professionista Certificato Google AdWords e grandissimo appassionato di analisi SEO ed ottimizzazioni di siti eCommerce multilingua. Dal 2009 condivide su questo blog le sue esperienze e le nozioni tecniche più interessanti per posizionare siti web su Google.

Lascia un commento Annulla risposta

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.

Richiedi informazioni

Inserisci i tuoi riferimenti e un nostro commerciale ti contatterà al più presto.







Articoli più letti

  • Come ottimizzare Title e Meta Tags
  • Il Costo per Acquisizione (CPA): Cos’è e perché è importante
  • Come migliorare il CTR di una campagna AdWords
  • Google Brand Protection. Come Proteggere un Marchio Registrato
  • Perché investire nel web quando hai tuo cugino?
  • SEO e Prestashop: 15 consigli per ottimizzare il tuo eCommerce
  • Corrispondenza delle Parole Chiave in Google AdWords
  • Come misurare meta title tag e description in pixel
  • Marketing per startup: le migliori strategie online e offline
  • Differenze tra marketing offline e marketing online

Articoli recenti

  • Come gestire la spesa AdWords a livello geografico
  • Marketing per startup: le migliori strategie online e offline
  • L’importanza della formazione in ambito marketing digitale
  • Come dare visibilità al tuo negozio locale con il search marketing
  • Competenze digitali, è meglio assumere o esternalizzare?

RSS Blog tecnico

  • Python, io e la SEO 3 Dicembre 2019
    A novembre non ho pubblicato nessuna guida, era parecchio che non saltavo un mese. Purtroppo (per il blog) in quel periodo ho dedicato le mie serate ad imparare nuove cose, ora ti racconto. Ogni anno cerco di partecipare a diversi convegni sul search marketing, sono rare le occasioni utili al confronto con altri professionisti e […]
    Giovanni Sacheli
  • Installare ed ottimizzare REDIS su Ubuntu e PHP7.x 11 Ottobre 2019
    Indice Introduzione Installare Redis Configura Redis Verifica la connessione al server Redis Monitorare Redis Cancellare la cache Redis + WordPress Dashboard di controllo per Redis Rimuovere Redis Nginx FastCGI-Cache vs Redis Object Cache Risultati e prestazioni Introduzione Sei un webmaster e vuoi rendere il tuo sito dinamico più veloce? Allora continua a leggere. In guide […]
    Giovanni Sacheli
  • Installare ed ottimizzare MEMCACHED su Ubuntu e PHP7.x 11 Ottobre 2019
    Indice Introduzione Installare Memcached Configurare Memcached Verifica il funzionamento di Memcached Cancellare la cache Conclusione Introduzione Memcached è un sistema cache in RAM a oggetti distribuiti sviluppato da Danga Interactive nel 2003 originariamente per migliorare la velocità di LiveJournal. Memcached diminuisce il tempo di caricamento delle pagine dei siti web dinamici basati su database mettendo […]
    Giovanni Sacheli
  • Guida SEO ai DevTools di Google Chrome: gli strumenti per sviluppatori 3 Ottobre 2019
    Si parla spesso di strumenti SEO e di quale sia il migliore, credo quindi che valga la pena parlare dei DevTools, una suite gratuita di strumenti di analisi presente in Google Chrome che ogni SEO dovrebbe conoscere ed utilizzare. Nei convegni a cui partecipo e nei vari blog che seguo di rado sento parlare degli […]
    Giovanni Sacheli
  • Cosa significa TTLB – Time To Last Byte 2 Ottobre 2019
    Il TTLB è un valore per misurare la velocità di trasmissione dei dati dal web server al client. Il time-to-first-byte e il time-to-last-byte possono essere misurati soltanto da un client. A differenza del TTFB, che è il tempo impiegato da un client per ricevere il primo byte di una risposta a una richiesta che invia, […]
    Giovanni Sacheli
  • Guida alla gestione del database WordPress con phpMyAdmin 24 Settembre 2019
    WordPress è scritto in PHP come linguaggio di scripting e MySQL come sistema di gestione del database. Per utilizzare WordPress, non devi per forza imparare entrambi i linguaggi. Tuttavia, una comprensione anche basilare potrebbe aiutarti a risolvere i problemi e ad aumentare la tua dimestichezza con WordPress. In questo articolo spiego come WordPress utilizza il […]
    Giovanni Sacheli
  • Come riconoscere un annuncio di Google 17 Settembre 2019
    Nella pagina dei risultati di Google, la SERP (Search Engine Results Page), possiamo generalmente trovare da 10 a più siti web. Alcuni degli spazi sono gratuiti, mentre altri a pagamento. Il layout della SERP può cambiare in base al device dell’utente ed in base all’intento di ricerca. Cercare un dentista è molto diverso dal cercare […]
    Giovanni Sacheli
  • Spiegazione degli attributi rel nofollow, ugc e sponsored 12 Settembre 2019
    Leggi l’annuncio ufficiale: https://webmasters.googleblog.com/2019/09/evolving-nofollow-new-ways-to-identify.html Indice rel? Nofollow? rel=”sponsored” rel=”ugc” rel=”nofollow” Direttive o “suggerimenti”? FAQ Considerazioni personali Nel gennaio del 2005 l’attributo rel nofollow fu introdotto da Google come mezzo per combattere lo spam nei commenti. È rapidamente diventato uno dei metodi consigliati da Google per contrassegnare i link pubblicitari o sponsorizzati. Il web si è […]
    Giovanni Sacheli
  • Come eseguire un’analisi dei competitor online 12 Agosto 2019
    Metodologia pratica per analizzare un settore, identificare i top player e studiare le loro strategie vincenti. A cosa serve questa analisi L’analisi dei competitor online è uno studio di settore imprescindibile quando si vuole intraprendere una nuova attività online o semplicemente per capire il proprio posizionamento nel mercato di riferimento. In questa guida ti mostrerò […]
    Giovanni Sacheli
  • Rendering Budget e SEO, cosa significa? 9 Agosto 2019
    Indice Intro Perché dobbiamo preoccuparci dei budget Rendering Budget: come i MdR gestiscono JavaScript Calcolare il Rendering Ratio Alcuni consigli Abbiamo già parlato di Crawl Budget, cos’è e come ottimizzarlo. Con il diffondersi dei framework in JavaScript il discorso oggi si sta leggermente spostando da Crawl Budget a Render Budget. Partiamo dalle basi. Cos’è il […]
    Giovanni Sacheli

Agenzia SEO e SEM Svizzera dal 2009

Searcus Swiss Sagle è una agenzia di Search Marketing che offre consulenze professionali a medie e grandi aziende Ticinesi ed Internazionali. Sviluppiamo strategie SEO e SEM efficaci in ambienti altamente competitivi e siamo esperti in analisi della concorrenza online, analisi delle abitudini di ricerca e SEO Audit tecnici.
La nostra seconda area di business è la formazione in Search Marketing rivolta a studenti, professionisti ed aziende.

Scarica la nostra presentazione aziendale

Presentazione Searcus Swiss Sagl

Consulenti AdWords Certificati Google Partner

home-partner Searcus Swiss SAGL è una Agenzia di consulenza AdWords Certificata Google Partner. Affida a dei professionisti l'ottimizzazione delle tue campagne su Google!

Searcus Swiss SAGL: Search Marketing in Ticino

Tel: +41 (0)79 864 30 35
UID: CHE-180.818.315
Num reg comm: CH-501.4.019.466-4
Sede Mendrisio: Via Penate 16
6850 - Mendrisio (Svizzera)
Sede Lugano: Viale Stefano Franscini 11
6900 - Lugano (Svizzera)
Usi Skype? Chiamaci oppure chatta con un nostro agente commerciale.

Segui Searcus Swiss Sagl

Copyright © 2019 · Enterprise Pro Theme on Genesis Framework · WordPress · Log in