Seo - Search engine optimization - Ottimizzazione sui motori di ricerca

SEO - Search Engine Optimization

Breve guida sul SEO Search Engine Optimization

PREMESSA

In questa sezione desideriamo trattare un argomento tanto popolare per chi si interessa al posizionamento di un sito web sui motori di ricerca, quanto complesso e senza dubbio poco chiaro, il SEO.

Tale confusione è dovuta ad un fattore oggettivo, i criteri che governano gli algoritmi matematici dei principali motori di ricerca generalisti (su tutti Google) sono innumerevoli, in parte segreti e costantemente aggiornati con modifiche ed implementazioni

Ad eccezione degli Strumenti per i Webmaster di Google (Google Search Console), sulle indicazioni fornite dallo stesso motore di ricerca e di pochi altri parametri oggettivi quali PageRank e Link Popularity, ogni altro elemento o consiglio destinato a migliorare il posizionamento di un sito web è frutto di analisi empirica e supposizioni basate sull’esperienza o sul "sentito dire" che non possono essere accolte come verità assolute.

Di certo a nostro modesto parere, ogni studio, ricerca o analisi dei principi di SEO porta ad un’unica considerazione inopinabile:

il posizionamento nelle Serp di Google e degli altri principali mdr è basato sostanzialmente sulla verità!

L’analisi che leggerete qui di seguito non vuole avere intenti dottrinali ma al contrario abbiamo deciso di trattare quest’argomento con semplicità estrema seguendo lo schema delle FAQ sempre molto funzionale. Ci scusiamo con quegli utenti più esperti che potrebbero trovare tali argomentazioni risapute.

Che cosa significa SEO?

Seo è l’acronimo di Search Engine Optimization, letteralmente ottimizzazione sui motori di ricerca. In maniera più completa si può definire come una serie di operazioni volte a rendere più "appetibili" le pagine di un sito agli occhi dei motori di ricerca e di conseguenza a migliorarne il posizionamento.

"Ottimizzazione", "Posizionamento" e "indicizzazione" sui motori di ricerca sono la stessa cosa?

L’ottimizzazione di un sito internet viene detta anche posizionamento e/o indicizzazione, i quali in effetti possono essere considerati sinonimi. Vogliamo però precisare una piccola differenza; in realtà l’indicizzazione (come dice la parola stessa) consiste nell’inserimento di un sito tra i risultati dell’indice di un motore di ricerca. Teoricamente quindi anche un sito che esce solo per il proprio nome è indicizzato.

In ottica SEO, è dunque preferibile parlare di ottimizzazione delle pagine web per parola chiave, per far sì che l’indicizzazione da parte dei motori di ricerca ne determini un buon posizionamento tra i risultati.

Cosa sono il Listato organico e le SERP?

In realtà il listato organico e le Search Engine Results Pages (pagine dei risultati del motore di ricerca) sono la stessa cosa. Ad esclusione dei motori di ricerca influenzabili economicamente, il listato organico rappresenta l’elenco di tutte le pagine indicizzate nel web che hanno una pertinenza di contenuti rispetto alla ricerca effettuata, ordinate da quella più attendibile e che (teoricamente) fornisce maggiori informazioni a quella che meno risponde ai criteri della ricerca stessa.

Come funzionano Google e gli altri motori di ricerca?

I motori di ricerca sono siti internet dotati di server molto potenti che scandagliano il web in maniera costante grazie a software chiamati spider o crawler per il reperimento del maggior numero di informazioni contenute nelle pagine presenti in tutti i siti internet. Le pagine vengono dunque visitate dallo spider, indicizzate (letteralmente inserite nell’indice) e riproposte in un listato ogni qualvolta l’utente effettua una ricerca in qualche modo correlata alla pagina stessa.

I criteri con cui i motori di ricerca stabiliscono l’ordine d’uscita dei vari siti sono diversi e, come già detto una loro interpretazione non può essere mai certa e categorica. C’è soprattutto da precisare che nonostante Google cerchi di fornire la migliore risposta possibile sul proprio listato organico (risultati non a pagamento), non ha nessun interesse economico a far sì che i propri criteri di ranking siano pubblici, in quanto questo si rifletterebbe negativamente sul numero di clienti che acquistano link sponsorizzati (box presenti sia sopra che sotto il listato organico) principale fonte di guadagno aziendale. In pratica una maggiore e diffusa cultura SEO potrebbe rappresentare un rischio aziendale per il motore di ricerca che a tal proposito mette in atto alcuni strumenti di difesa contro gli escamotage di galleggiamento.

Di sicuro il filo conduttore del ranking dei motori di ricerca è la pertinenza dei contenuti. Per elencarne i principali in questa pagina prenderemo in esame i criteri che, a detta di molti esperti SEO sono oggettivamente riscontrabili.

Analizziamo dunque i parametri del ranking di quello che attualmente è senza dubbio il principale motore di ricerca al mondo e punto di riferimento per la navigazione di tutti gli utenti: Google!

Google

Nato alla fine del ‘99 è diventato il motore di ricerca protagonista di internet soprattutto a seguito di quello che viene definito WEB 2.0 (condizionato dall’avvento di siti altamente interattivi per l’utente quali social network, blog, forum, siti e-commerce, ecc..) deve però il suo successo all’elevato grado di complessità dell’algoritmo su cui si basa e alla indiscutibile capacità dei suoi tecnici di aggiornarlo e adeguarlo ai cambiamenti improvvisi di comportamento degli utenti web.

Parliamo di un modello matematico che prevede più di 500 milioni di variabili, con un archivio illimitato ed una velocità di risposta media inferiore agli 0,3 secondi paragonabile ad una vera e propria intelligenza artificiale. Nonostante storicamente Yahoo! Sia stato il primo e più importante motore di ricerca, la potenza di Google ha spazzato via ogni competitor e soprattutto in Italia stime ufficiose dicono che oltre il 90% degli utenti inizia la propria ricerca per la navigazione da Google.

Dopo questa noiosa ma inevitabile serie di preamboli veniamo finalmente all’elenco dei criteri con cui Google stabilisce l’elenco dei risultati sul proprio listato organico.

Pertinenza di contenuti e keyword density

Per poter fornire il maggior numero di informazioni riguardante una o più parole ricercate, il motore di ricerca valuta anche il numero di volte in cui queste sono ripetute all’interno dei testi di una pagina (keyword density). Precisiamo che lo spider, detto anche Googlebot, è in grado di leggere e quindi indicizzare i testi in html e non contenuti multimediali quali animazioni, video, immagini, ecc. per i quali vi sono degli appositi tag (title, Alt tag) necessari proprio a specificarne il contenuto.

Logica della keyword density: e’ normale che se cerco la parola "mela", un sito che al suo interno contiene questa parola ripetuta più volte presumibilmente ne parlerà in maniera più approfondita rispetto ad un altro in cui questa parola è presente una sola volta. Lo stesso vale per ricerche più complesse come per esempio "come coltivare una mela". In questo caso il motore di ricerca eseguirà il match delle 4 parole ricercandole tra le pagine indicizzate e premiando presumibilmente quelle che riportano fra i contenuti la ripetizione delle parole stesse.

Data la semplicità del principio di ripetizione delle parole, Google ha messo in atto una serie di strumenti di prevenzione volti ad evitare che i testi vengano conditi con ripetizioni esagerate al solo scopo di migliorare il posizionamento su listato organico. Vediamone alcuni qui di seguito.

Qualità del testo: per poter avere buone possibilità di uscita sui motori di ricerca, una pagina web deve necessariamente seguire il principio della keyword density, ma deve anche risultare leggibile agli occhi dell’utente finale. Per garantire tale condizione Google valuta oltre alla quantità anche la qualità delle parole contenute nel testo.
Sebbene gli esperti SEO concordino sul fatto che non esiste una percentuale ottimale per la ripetizione delle parole chiave in proporzione al testo, è ormai risaputo che Google sia in grado di riconoscere e penalizzare la ripetizione di una o più parole come puro escamotage di galleggiamento e in casi limite rimuoverla totalmente dall’indice. La percentuale massima di keyword density oltre il quale un testo rischia di essere penalizzato viene indicato da più esperti SEO nel 5% del totale del testo. Questa soglia non è comunque un valore assoluto ma una stima empirica, né mai esponenti di Google l’hanno confermata o smentita. Una percentuale corretta sulla base della nostra esperienza si aggira invece tra l'1 e il 4% del testo (dato non ufficiale).

Per chiudere l’argomento keyword density, possiamo anche affermare che in caso di ricerche specifiche con match di più parole, la vicinanza di queste all’interno del testo conta molto di più della loro ripetizione in periodi slegati del testo. Per tale motivo in una ricerca del tipo "come coltivare una mela" un testo che contenga il match esatto una sola volta avrà presumibilmente un posizionamento migliore rispetto ad un altro che ne ripete le singole parole più volte ma in frasi diverse.
Si suggerisce infine di inserire la parola chiave nel titolo H1, nel primo paragrafo di testo e all'interno dei meta dati title e description.

GeekPrank.com farà credere a tutti di guardare un vero e proprio sistema operativo Windows XP, ma la giustizia è che questo sia solo un simulatore in esecuzione in un browser web.

Nerettatura e colore nei testo

Navigando su internet vi sarà di certo capitato di imbattervi in siti con testi molto nerettati. Questo perché, così come per un lettore, l’evidenziazione di una parola ne accentua l’importanza rispetto al resto del testo anche agli occhi dei motori di ricerca. E’ per questo importante per un testo con intenti di indicizzazione enfatizzare le parole per cui si vorrebbe uscire su Google. Ultimamente comunque pare che questo escamotage sia stato "decifrato" dai motori di ricerca che ne hanno mitigato gli effetti positivi e addirittura, testi eccessivamente nerettati potrebbero subire penalizzazioni sul listato.

Un’altra tecnica di SEO "puro" utilizzato in passato era la creazione di testi con lo stesso font dello sfondo pagina con l'obiettivo di renderli invisibili agli occhi dell'utente ma non a quelli dello spider che come sappiamo decodifica l'html. L’utilità di tale escamotage era naturalmente quella di poter inserire testi sovra ottimizzati senza doversi preoccupare della leggibilità. Dopo poco tempo però questo trucco è stato scoperto e pare che i Googlebot analizzino il grado di contrasto dei font pagina/css e del testo penalizzandone l’indicizzazione se ritenuti troppo simili.

Frequenza di rimbalzo e tempo medio sul sito

Per coloro che hanno dimestichezza con il programma di statistiche Google Analytics il termine frequenza di rimbalzo non è un mistero. Si tratta di quella percentuale di visite effettuate da utenti che entrano in una pagina e ne "fuggono" in poco tempo ritenendone i contenuti poco interessanti o non soddisfacenti i termini di ricerca.

L’algoritmo di Google è infatti intelligente ma non infallibile, è quindi plausibile che un sito risulti (involontariamente) ben posizionato per parole chiave le cui argomentazioni ed il cui intento sia diverso da quello degli utenti finali. O ancora può capitare che pagine (volontariamente) sovraottimizzate attraverso escamotage SEO, riescano a superare i parametri di qualità di Google, camuffando magari una pagina con intenti commerciali da pagina informativa. L’utente finale di internet medio, è abituato ormai ad una fruizione dei contenuti rapida e puntuale e difficilmente resta in una pagina i cui contenuti non hanno nulla a che fare con la propria ricerca. A questo punto Google sfrutta il comportamento dell’utente finale per andare a compensare le proprie mancanze e se la frequenza di rimbalzo di una pagina è elevata ed il tempo medio visita molto basso ne penalizza il posizionamento a favore di altre più attinenti.

Peso specifico di una pagina

E’ cosa risaputa che gli spider riescono a leggere un numero limitato di informazioni per pagina attraverso l’interpretazione dell’html, negli ultimi anni per altro la navigazione da dispositivi mobile è aumentata (superando ufficialmente nel 2017) quella da Desktop, per questo motivo l'algoritmo di Google ha subito diverse modifiche premiando i siti Mobile-Friendly e la velocità di caricamento di pagina e contenuti. E’ dunque importante fare in modo che la pagina web venga alleggerita e in qualche modo ripulita di contenuti inutili e che il codice (CSS e Javascript) sia il più scarno possibile o comunque ottimizzato.

Dato che, come già detto lo spider non riesce ad interpretare i contenuti di un immagine o di un video (se non attraverso i tag) è importante cercare di ridurne il peso il più possibile prima della messa online, esistono svariati software in grado di ottimizzare un’immagine per il web comprimendo la dimensione senza perdere troppo nella risoluzione.

Un sito con pagine leggere (Google suggerisce peso inferiore ai 250KB o comunque entro max 1MB), magari appoggiate ad un server veloce e potente, consentirà inoltre una più rapida apertura e visualizzazione sul browser delle pagine stesse. E' infatti noto che l'utilizzatore medio di internet (abituato ad avere tutto e subito!!) sia "poco tollerante" verso i rallentamenti di visualizzazione dei contenuti ed è provato che quasi l'80% degli utenti chiude una pagina se questa non viene correttamente caricata entro 5 secondi!!! Un sito con queste scarse performance rischia dunque di avere un elevatissima frequenza di rimbalzo, con riflessi negativi sul posizionamento.

Google ha messo a disposizione dei webmaster diversi tool gratuiti per testare le prestazioni di velocità di un sito e la sua ottimizzazione sui dispositivi mobile, di seguito ve li riportiamo:

I meta tag

I meta tag sono dati inseriti nel linguaggio html e non visibili dall’utente se non proprio attraverso la visualizzazione della sorgente della pagina. Si trovano nel campo Head (all’inizio del metalinguaggio della pagina) e servono prevalentemente a fornire informazioni ai motori di ricerca. Si suddividono in 3 segmenti Title (titolo), Description (descrizione) e keywords (parole chiave) e la loro importanza è da sempre oggetto di discussione fra i web master e gli esperti SEO.

In effetti in passato, dato l’elevato numero di siti in flash e le performance limitate degli spider, i meta tag erano davvero fondamentali ai fini dell’indicizzazione.

Ad oggi la loro importanza è ancora primaria ma inferiore rispetto a prima per tre motivi:

  1. La cattiva abitudine di alcuni web master di sovraccaricare di informazioni i meta dati, con titoli lunghissimi e/o elenchi di parole chiave infiniti con inserimento anche di parole non del tutto pertinenti con il contenuto della pagina stessa. Ad oggi tali operazioni rischiano in realtà di risultare controproducenti in quanto i motori di ricerca possono ritenerle come semplici escamotage di galleggiamento.
  2. Il miglioramento delle prestazioni degli algoritmi di ricerca che riescono ad indicizzare molti più contenuti e a valutare ogni pagina non solo secondo i suoi contenuti ma anche sulla base di altri criteri quali la credibilità e popolarità del sito che la contiene (più avanti parleremo anche di Page Rank e Link Popularity)
  3. La sempre maggiore importanza di siti dinamici tipici del web 3.0 quali blog, social network e forum in cui l’utente genera nuove pagine agendo direttamente su front-end senza interagire con il metalinguaggio e senza la necessità che ne conosca lo sviluppo.

Ma adesso valutiamo i meta tag uno per uno:

TITLE

il titolo è senza dubbio il più importante dei tre. Definisce in maniera inequivocabile l’argomento che viene trattato all’interno della pagina e viene visualizzato come prima riga linkabile sul listato organico del motore di ricerca. Dal punto di vista dell’indicizzazione è importante che ogni pagina di un sito abbia il proprio titolo basato sul focus.

Data l’importanza di questo elemento molti webmaster tendono a creare titoli molto lunghi ed in carattere maiuscolo. C’è da precisare a tal proposito che non abbiamo elementi per affermare che un titolo in maiuscolo sia meglio indicizzato di un altro in carattere minuscolo (anzi la tendenza globale e tutti i dati empirici ci dicono che è vero proprio il contrario), possiamo però consigliare di evitare congiunzioni, virgole o parole inutili all’interno del titolo che deve rappresentare davvero una semplice anticipazione dell’argomento trattato.

Lunghezza consigliata: 60/70 battute compresi gli spazi

DESCRIPTION

Come dice la parola stessa, la descrizione pagina è un piccolo riassunto delle argomentazioni presenti nella pagina. Come per gli altri meta tag, ai fini dell’indicizzazione è importante che ogni pagina del sito sia dotata di descrizione propria e puntuale. Il suo sviluppo deve assolutamente essere coerente con i testi presenti nella pagina sia nella misura della quantità che della qualità delle parole da utilizzare.

Per un breve periodo nel 2018 Google aveva aumentato la visibilità del campo description da 160 a 320 battute nelle SERP (aggiungendo una riga) inducendo la maggior parte dei webmaster a pensare che un aumento di caratteri avrebbe anche aumentato la visibilità della pagina. Di fatto ad oggi non c'è una correlazione tra lunghezza della meta-description e il posizionamento, ma sicuramente c'è una tolleranza per le descrizioni più lunghe.

Lunghezza consigliata: 150/160 battute compresi gli spazi

KEYWORDS

Il campo "Meta-keyword" è ormai ufficialmente in disuso da diversi anni, la sua compilazione potrebbe creare danni alla visibilità più che benefici su Google. Anche se per alcuni motori di ricerca che utilizzano una tecnologia meno avanzata (pensiamo a Baidù in Cina) è ancora un importante fattore SEO.

Link Popularity

Uno dei più importanti criteri di valutazione dei siti web ai fini del posizionamento nelle serp e che ha rappresentato un punto di forza per Google è la link popularity, ossia il numero di link presenti nel web che rimandano ad un determinato sito internet. Scandagliando migliaia di pagine al giorno, i Googlebot sono in grado di riconoscere e memorizzare anche il numero esatto di link attivi preseti su internet ed il loro percorso fino a quella che viene definita "landing page" (pagina di atterraggio) cui i link in questione rimandano.

Un po’ come nella vita reale avere una certa reputazione rende più semplice e automatica la visibilità, allo stesso modo se un sito viene menzionato spesso su altri siti presumibilmente significa che i suoi contenuti vengono considerati attendibili ed interessanti. Per i neofiti di internet segnaliamo che esistono parecchi siti o network di siti che offrono la vendita e/o lo scambio gratuito di link (pratica forse più "democratica"), volti a rendere maggiore la reputazione online.

Link building di qualità più che di quantità

Come spesso accade però, ogni volta che un meccanismo di valutazione di Google viene decifrato dagli esperti SEO, questi alza "l’asticella" di difficoltà o meglio ancora lavora su sé stesso per rendere i risultati su listato organico il meno influenzabili possibile da operazioni di ottimizzazione.

A tal proposito Google, grazie soprattutto all'introduzione dell'algoritmo Google Penguin nel 2012 ed ai successivi upgrade, è oggi in grado di valutare non solo la quantità di link in entrata in un sito ma anche e soprattutto la loro qualità. Se infatti il solo numero fosse sufficiente a guadagnare posizioni su Google sarebbe abbastanza semplice acquistare e scambiare un numero elevato di link. E’ invece molto più importante avere link "mirati" magari da siti o portali settoriali che trattano argomenti simili alla landing page. La coerenza tra il sito di partenza e quello di destinazione è estremamente importante ed il beneficio che si può ottenere, soprattutto da un link testuale può fare la differenza. Per link testuale si intende un link formato da una parola cliccabile che riassume il contenuto di quella che sarà la landing page del sito di destinazione; per fare un esempio pratico possiamo riferirci nuovamente ad una pagina che tratta il tema: "Come coltivare una mela". In questo caso sarebbe assolutamente meglio avere un link nominato "come coltivare una mela" su un portale tematico sull’agricoltura che 20 link generici del tipo clicca qui su siti che trattano argomenti che nulla hanno a che fare con la coltivazione delle mele.

Oltre alla pertinenza dei temi trattati è importante che il sito da cui "parte" il link sia in possesso di un buon Page Rank (concetto che verrà spiegato di seguito). Tanto maggiore è il Page Rank della pagina fonte quanto maggiore è il "peso specifico" che Google attribuisce al link. Un po’ come per il mondo giornalistico, la credibilità della fonte rappresenta una sorta di garanzia sull’attendibilità e sulla veridicità delle informazioni veicolate.

Soprattutto per siti di nuova costruzione, la presenza di un numero elevato di link in ingresso (magari poco coerenti con i contenuti delle pagine) può essere valutato da Google come un mero trucco di galleggiamento con il serio rischio di rimozione dall’indice del sito.

Prima di passare all’analisi del Page Rank, desideriamo fare una breve considerazione sui link interni ad un sito. Così come per i links da altri siti web, anche il collegamento con links testuali fra 2 o più pagine di uno stesso sito può aiutare a "veicolare" lo spider verso notizie nuove o di maggiore interesse. Dato che la Home Page è in genere la pagina più anziana di un sito e con il maggiore Page rank, ogni volta che viene aperta o aggiornata una nuova sezione è buona regola linkarla proprio in Home.

Utilizza l'editor HTML online per massimizzare l'efficienza di composizione dei contenuti web.

Google PageRank

Strettamente legato al concetto di link popularity è quello di PageRank(letteralmente rango della pagina) termine la cui proprietà intellettuale appartiene a Google.

Il PageRank è un algoritmo di analisi delle pagine web che consente di stabilirne l’importanza da un punto di vista oggettivo, sulla base di una verifica quantitativa e qualitativa dei link verso di essa.

A seguito di tale analisi l’algoritmo definisce ed assegna ad ogni pagina un voto da 0 a 10, anche se solo pochissimi siti al mondo riescono ad ottenere 10/10 (Facebook è da poco tra questi).

Acquisire PageRank significa migliorare la propria reputazione online ed aumentare sensibilmente la possibilità di uscita fra le prime posizioni delle serp. Purtroppo non esistono tecniche per il miglioramento di tale valore in tempi rapidi, soprattutto per siti di nuova costruzione (a meno di rari casi di successo.. vedi Facebook), la scalata al PageRank deve essere graduale e soprattutto basata su un vero e proprio lavoro di qualità dei contenuti. L’acquisto o lo scambio di links può essere utile in tal senso, soprattutto se questi provengono da siti già con elevato PageRank, ma la differenza significativa sta nel riuscire a fornire, attraverso il proprio sito, informazioni e/o servizi davvero interessanti per il maggior numero di utenti possibili, la migliore pubblicità (come sempre) a quel punto sarà il passaparola!!

Come già detto in precedenza l’acquisto o l’inserimento di un elevato numero di link in ingresso per un nuovo sito può risultare controproducente.