raccontala meglio Google… (la guida !SEO)

La guida di Google al SEO si rinnova ma la vera notizia è questa nuova versione è peggiore della versione precedente da un punto di vista divulgativo-didattico… l’impressione è di un’operazione fumo negli occhi e che per estrapolare le informazioni realmente strategiche occorra una lettura decisamente analitica: proviamoci insieme per capire uno dei fenomeni più interessanti riguardanti l’!Architettura dell’informazione del Web e delle interfacce digitali più in generale.

Esce la nuova Guida introduttiva all’ottimizzazione per i motori di ricerca (SEO) prodotta da Google che manda in pensione la versione precedente (2011) scegliendo con la nuova versione una veste tipo-grafica peraltro decisamente meno efficace sotto il profilo didattico e divulgativo. Da un punto di vista dei suoi contenuti – e di come sono presentati  – è ancor più difficile capire cosa è importante e cosa è fuffa allo stato puro ma proviamo a capirlo insieme evidenziando alcuni punti di forza ed altri di debolezza ed eventualmente colmando alcune lacune informative e strumentali.

La PRATICA come antidoto alla poca chiarezza

Cosa capite dalle seguenti dichiarazioni in successione?

  • Indice. Google memorizza tutte le pagine web che conosce in un indice. Ogni voce nell’indice descrive i contenuti e la posizione (URL) di una pagina. Indicizzare indica quando Google recupera una pagina, la legge e poi l’aggiunge all’indice: oggi Google ha indicizzato diverse pagine del mio sito.

  • Scansione. Procedura che implica la ricerca di pagine web nuove o aggiornate. Google rileva gli URL seguendo i link, leggendo le Sitemap e ricorrendo a molti altri mezzi. Google esegue la scansione del Web alla ricerca di nuove pagine, quindi le indicizza (quando appropriato).

Blocca la scansione indesiderata di dati non sensibili con robots.txt

Un file “robots.txt” indica ai motori di ricerca se possono accedere a parti del sito e quindi eseguirne la scansione. Questo file, che deve essere denominato “robots.txt”, viene inserito nella directory principale del sito. È possibile che le pagine bloccate da robots.txt siano comunque sottoposte a scansione, pertanto devi utilizzare un metodo più sicuro per le pagine che contengono dati sensibili.

Poco immagino… e non dovete sentirvi in colpa! Fino ad oggi la convinzione diffusa era che un corretto utilizzo del file robots.txt fosse necessario e sufficiente a bloccare la scansione e quindi l’indicizzazione di un sito Web mentre la pratica ci ha rilevato root e porzioni di siti web assolutamente visibili sull’indice di Google malgrado una dichiarazione esplicita di DISALLOW quindi la prima cosa da imparare è che bisogna mettere in pratica i consigli ma anche verificarne la reale efficacia mettendo in conto che potremmo sorprenderci dal risultato finale!?!

Google Search Console indispensabile

Non è chiaramente esplicitato nella guida ma il !webmaster tool di Google è semplicemente indispensabile a cominciare dall’esigenza di essere avvisato per eventuali vulnerabilità rilevate da Google e che potrebbero, nel tempo, causare penalizzazioni o addirittura de-indicizzazioni (nella pratica si verificano abbastanza raramente peraltro).

Title e meta description molto importanti a cominciare dalla rappresentazione sulla pagina di ricerca (serp)

I marcatori (tag) title e meta description continuano ad essere molto importanti anche perché concorrano – nella maggior parte dei casi – a rappresentare siti o pagine web sui risultati di ricerca e non bisogna dimenticare che la rappresentazione determina la probabilità di click o meno sul risultato stesso!

Si evince l’importanza crescente della schematizzazione dei dati

Il protocollo schema.org assume sempre più importanza sia per la comprensione dei dati che per la loro rappresentazione in ambiti adiacenti anche della serp (Google My Business ad esempio)

Sottolineata l’importanza di una corretta !Architettura dell’informazione

L’organizzazione dei menù, le modalità di scrittura delle url, la strutturazione delle cartelle sono tutte operazioni che concorrano decisamente alla comprensione del sito Web da parte del bot-spider-crawler ovvero dall’algoritmo che poi è impegnato nell’indicizzazione dei dati raccolti.

I link sono il fattore X anche se (ovviamente) non è esplicitato

I link interni (di strutturazione del sito Web ma anche che puntano verso l’esterno ovvero gli outbound link) ma soprattutto i link che si godono dall’esterno (=!inbound link) continuano ad essere il fattore X del posizionamento in onore della scoperta del ricercatore italiano Massimo Marchiori che peraltro ha fatto la fortuna di Google.

Alt e nome dell’immagine

Evidenziata adeguatamente l’importanza dell’alternativa testuale alt applicabile all’immagine ma ancor più il loro nome a riprova dell’importanza strategica di una corretta Architettura dell’Informazione.

Importanza del redirect non adeguatamente evidenziata

L’importanza della pagina di errore 404, l’opportunità di evidenziare contenuti ed url originali in maniera esclusiva attraverso l’attributo canonical e il possibile utilizzo dei redirect (301) per mettere in connessione vecchi e nuovi url-contenuti non è adeguatamente sottolineata… pensate ad esempio l’importanza e al tempo stesso la complessità del trasporto dei valori SEO di un sito Web come il Comune di Firenze recentemente rinnovatosi e che non doveva, ovviamente, perdere i posizionamenti acquisiti dalla vecchia versione

Complessità e strumenti

Sono moltissimi gli aspetti riguardanti la seo e molti in mutevole evoluzione dunque merita assolutamente prendere in considerazione le raccolte di guide e strumenti online comunque dando la giusta importanza alle seguenti opportunità:

  • esistono altri quattro motori di ricerca molto popolari al mondo che hanno altrettanti webmaster tool;
  • un plugin per il proprio cms può semplificarci la vita ma anche banalizzare la nostra modalità di approccio alle problematiche;
  • uno strumento come Screaming Frog SEO Spider può cambiare il nostro modo di vedere e capire i siti Web.

Quel che manca poi è un po’ di poesia sull’argomento quindi, in fondo, anche una certa incapacità di autopromuoversi: la seo è stata storicamente la prima interazione di massa uomo-macchina, la prima iniziativa in tema AI, deep e machine learning, il primo consumo di massa e la prima visualizzazione grafica degli algoritmi, la prima valorizzazione scientifica delle connessioni del cyberspazio: perché dunque non raccontarsela? ;-/

Annunci

Rispondi

Inserisci i tuoi dati qui sotto o clicca su un'icona per effettuare l'accesso:

Logo WordPress.com

Stai commentando usando il tuo account WordPress.com. Chiudi sessione /  Modifica )

Google+ photo

Stai commentando usando il tuo account Google+. Chiudi sessione /  Modifica )

Foto Twitter

Stai commentando usando il tuo account Twitter. Chiudi sessione /  Modifica )

Foto di Facebook

Stai commentando usando il tuo account Facebook. Chiudi sessione /  Modifica )

w

Connessione a %s...