Un progetto SEO si compone di strategia, come abbiamo raccontato nella prima parte di questo post, ma anche di tecnica, tool e strumenti di analytics: alla base c’è tuttavia sempre il ragionamento e l’esperienza, il vero valore aggiunto che un professionista può dare.
Serious Monkey è stata l’occasione per focalizzarsi su strumenti e metodologie utili ad analizzare ed individuare problematiche che ostacolano la corretta indicizzazione, scansione e visibilità di un sito web.
Vediamone alcune.
L’analisi dei file di log del web server è fondamentale per la SEO in quanto permette di capire come gli spider dei motori di ricerca navigano il sito internet. Dall’analisi si può capire, ad esempio:
Un paio di osservazioni emerse durante lo speech ci sono rimaste particolarmente impresse perché corrispondono a tematiche che spesso capita di affrontare con i clienti:
1. nel restyling di un sito è corretto non redirigere tutte le vecchie pagine, bensì solo quelle che hanno registrato più traffico oppure sono posizionate o linkate da siti esterni. Redirigere tutto il sito significa far fare allo spider un lavoro molto intenso e si rischia di consumare tutto il proprio Crawl Budget, un parametro che Google assegna al nostro sito e indica quanto “budget” Googlebot ha a disposizione per la scansione delle pagine del sito.
2. Googlebot scansiona i siti utilizzando IP americani. Quando siamo di fronte a siti che reindirizzano l’utente ad una lingua piuttosto che ad un’altra (in base all’indirizzo IP) in realtà si sta escludendo Googlebot dallo scansionare pagine in determinate lingue.
In ogni sito, che sia un e-commerce o un sito di prodotti/servizi, sono presenti le pagine di Listing, che corrispondono (ad esempio, ma non solo) alle pagine di categoria. Molto spesso queste pagine non vengono sfruttate in quanto considerate delle semplici pagine di passaggio. Per la SEO risultano invece importantissime, anche per l’ottimizzazione con keyword generiche. Sergio de Cristofaro Sivilia ci ha presentato come cambia la Serp (Search Engine Result Page - pagina di risultati) in base alla keyword: da una generica, con Google che presenta solo pagine di Listing, ad una più dettagliata, dove Google presenta pagine prodotto.
È emerso come, in un’analisi keyword, sia essenziale verificare quali siano i tipi di pagine posizionate per determinate keyword in modo da definire una strategia e capire come competere con le altre pagine già posizionate (ad esempio nel caso di SERP popolata da risultati di Amazon o siti comparatori di prezzi).
E-commerce #SEO: più attenzione alle pagine di listing e alle proprietà dei prodotti, raggruppati per caratteristiche e non solo per categorie e sottocategorie, intervento di Sergio De Cristofaro Sivilia #SeriousMonkey pic.twitter.com/i5CH7Um0ez
— Bizen Web Marketing (@bizen_web) 23 maggio 2018
Da quando, a fine 2011, Google ha deciso di oscurare le parole chiave con cui gli utenti arrivano al sito, la SEO è diventata più complicata, ma nello stesso tempo più avvincente.
Con lo speech di Martino Mosna sulla Dark Search abbiamo innanzitutto definito che gli unici strumenti in grado di darci un indice sulla nostra visibilità sono Google Analytics, Google Search Console e Google Keyword Planner (per l’individuazione del volume di ricerca), tutti gli altri strumenti vanno “presi con le pinze” e non sono altro che proiezioni.
Dark seo: tra query not provided e traffico "oscuro" al sito. Tool di analytics e limiti nella misurazione delle visite @martinomosna #SeriousMonkey #seo @bizen_web
— Elisa Carraro (@eliwriter) 23 maggio 2018
Capita, talvolta, di accorgersi che il sito al quale si sta lavorando registri un pesante calo di visite da fonte di traffico organico. Ci viene allora in aiuto Enrico Altavilla, con una checklist di controlli utili sia ad indagare le cause della perdita di traffico che a definire la strategia migliore per risolvere i problemi emersi.
Per rilevare le cause principali di un calo di traffico e risalire, se possibile, al motivo specifico che ha causato la perdita di visite da organico, è sempre importante tenere traccia di tutte le modifiche e delle attività che vengono fatte nel sito (sia a livello server che a livello di copy).
Si consiglia inoltre di verificare se anche i competitor (intesi come gli altri siti che con noi erano presenti sulla pagina dei risultati con la stessa keyword), abbiano subito una perdita: in tal caso può esserci stato un cambio di algoritmo che ha interessato esclusivamente quel settore.
Ecco un link interessante, da consultare per essere sempre informati sugli update degli algoritmi di Google (che potrebbero aver coinvolto la visibilità di un sito).
Indagare le cause della perdita di traffico organico in un sito: trovare il colpevole e la soluzione analizzando indizi interni, esterni e monitoraggio dei competitor @enricoaltavilla #seriousmonkey #SEO pic.twitter.com/UpCOgML3Ly
— Bizen Web Marketing (@bizen_web) 23 maggio 2018
In questi due giorni interamente dedicati alla SEO abbiamo raccolto molte conferme e nuovi input. La SEO non è un’attività semplice e scontata, questo lo sapevamo e ne abbiamo avuto prova ascoltando ogni relatore. La SEO non riguarda solo Google, interessa anche YouTube, Amazon, schede Local su Mappe, Facebook e l’intero ecosistema digitale.
Per ottenere risultati serve molta esperienza, conoscenza degli strumenti, ma soprattutto c’è bisogno di definire obiettivi precisi e condividere ragionamenti e strategie con il cliente. Deve esserci sinergia ed un continuo lavoro che ci spinge a prendere in considerazione elementi sempre nuovi come, ad esempio, gli intenti dell’utente e la definizione delle personas nel più ampio panorama dell’Inbound Marketing.
In Bizen ci piacciono le sfide SEO, non vediamo l’ora di accettare la vostra. Contattaci per scoprire quale nuova strategia SEO possiamo sviluppare insieme per far crescere e dare visibilità al tuo brand!