SlideShare une entreprise Scribd logo
1  sur  7
Télécharger pour lire hors ligne
Algoritmi dei motori di ricerca
gsnews.it /algoritmi-dei-motori-di-ricerca/
Come ragionano i motori di ricerca? Quali sono le strategie da adottare in ottica SEO per migliorare il
posizionamento delle pagine nelle SERP?
RUBRICHE >> Internet >> SEO >> Algoritmi dei motori di ricerca
In questo articolo, voglio analizzare gli algoritmi dei motori di ricerca in ottica SEO. Google e gli altri “search
engine” utilizzano algoritmi per classificare le informazioni archiviate sulla base di determinati parametri, non tutti
noti. Questo processo permette di assegnare un valore ad ogni pagina web, valore che determina la posizione
della pagina nella lista dei risultati (SERP) dei motori di ricerca. L’obiettivo primario è quello di fornire risultati
che soddisfino pienamente le query effettuate dagli utenti. Un errore è però credere che Google, Yahoo e
Bing utilizzino un solo algoritmo, quando in realtà sono diversi. Ognuno di essi assolve ad uno specifico compito
e per questo è importante conoscerne almeno le principali caratteristiche e sfruttarle in ottica SEO. Non pretendo
di coprire l’argomento in maniera esaustiva, ma di dare delle linee guida da utilizzare per l’ottimizzazione dei siti.
Una risorsa molto importante da consultare è Search Engine Land, un portale sempre aggiornato sulle tematiche
SEO, SEM, motori di ricerca. Segnalo anche SEJ (Search Engine Journal). Entrambi i siti sono in inglese.
Algoritmi dei motori di ricerca: Google
L’algoritmo generale di ricerca di Google si chiama “HUMMINGBIRD“, rilasciato il 30 agosto 2013, il cui obiettivo
è quello di gestire al meglio le “ricerche conversionali” in modo da far emergere pagine che siano il più possibile
attinenti alla ricerca effettuata. Hummingbird agisce sul significato delle parole chiavi, sulle frasi di ricerca e sulla
qualità dei testi inseriti all’interno di una pagina web. Questo algoritmi influenza oggi la quasi totalità dei risultati
nelle SERP. Hummingbird non è ovviamente l’unico algorimo di Google. A seguire un elenco dei diversi algoritmi
(vecchi e nuovi) utilizzati da Google, ognuno con una sua specifica funzione:
Panda e PayDay per combattere lo spam;
Penguin, per trovare e penalizzare tutti quei siti che hanno scalato le SERP con tecniche di “keyword
stuffing” o “link buildind artificiali”;
Pigeon progettato per migliorare i risultati di ricerca locali;
1/7
Top Heavy, che ha il compito di abbassare il ranking di siti ricchi di pubblicità;
Mobile Friendly (“Mobilegeddon”) costruito per premiare le pagine web “mobile-friendly”, ovvero
ottimizzate anche per i dispositivi mobile;
Pirate progettato per combattere le violazioni di copyright e quindi i “siti pirata” che mettono a
disposizione film, musica, libri, software e videogiochi illegali. L’intenzione è quella di penalizzare tali siti
eliminandoli dalle prime pagine delle SERP. Per maggiori informazioni potete leggere il seguente articolo
“9 Outcomes Of Google’s Pirate Algorithm: Should You Be Concerned? ;
PageRank, forse il più conosciuto, che fornisce un valore, “rank”, alle pagine di base dei link di ingresso al
sito (“backlink”);
Hilltop, che valuta l’autorevolezza di un sito o di una pagina web su un particolare argomento;
Stemming, algoritmo, basato sull’ IR (Information Retrieval), utilizzato di Google per aumentare
significativamente il numero dei risultati (potenzialmente interessanti per l’utente) nella lista dei risultati di
ricerca.
Dal 2015 Google sta usando un nuovo algoritmo basato sull’intelligenza artificiale, RankBrain, per aiutarsi nella
scelta del ranking dei propri risultato di ricerca. L’obiettivo è chiaramente quello di ottenere risultati più precisi e
che corrispondano esattamente alla query di ricerca. RankBrain è un algoritmo che viene soprattutto utilizzato
per interpretare le query di ricerca fatte dagli utenti su Google e tradurle in maniera efficace in modo da
individuare le pagine più adatte. Parlerò di RankBrain in un articolo separato: “Algoritmo RankBrain“.
Algoritmo Panda
Algoritmo introdotto da Google a fine febbraio 2011, giunto alla versione 4.2, allo scopo di penalizzare i siti a
bassa qualità, con contenuti duplicati o di spam, valorizzando allo stesso tempo siti web/blog che contengono
contenuti originali e di informazione. Le indicazioni SEO che se ricavano, al fine di evitare penalizzazioni da
parte di questo algoritmo, sono le seguenti:
creare contenuti freschi e di utilità;
curare la forma e la sintassi;
evitare di copiare contenuti;
non intasare le pagine di pubblicità, limitando ad esempio il numero di banner e facendo in modo che
non infastidiscano la lettura del contenuto;
applicare le tecniche “white SEO” e non “black SEO”.
Un altro consiglio è quello di assicurarsi che il contenuto della pagina web sia corrispondente alla parola chiave
attraverso la quale vogliamo farci trovare dai motori di ricerca. Se non lo fosse possiamo inserire una o 2 extra-
paragrafi che contengano la parola chiave stessa.
Algoritmo Penguin
Algoritmo utilizzato per verificare la qualità dei link in ingresso al sito, con l’obiettivo di penalizzare quei siti che
ottengono link in maniera non naturale. A settembre 2016 Google ha rilasciato la versione finale (4.0) inserendola
nel core dell’algoritmo di ricerca principale. L’algoritmo è ora in grado di valutare in tempo reale se un sito debba
essere penalizzato o, viceversa, se gli possa essere tolta la penalizzazione. Tutto questo è sicuramente molto
interessante, ma la domanda che mi sorge spontanea è: come facciamo a controllare tutti i links in ingresso
al nostro sito o blog, soprattutto se ha un traffico elevato e rimuovere quelli che ci possono penalizzare ?
Vi dico già subito che non esiste un sistema che in maniera automatica verifica i links e rimuove quelli “malevoli”,
ma o ci si rivolge ad una agenzia specializzata o ci si deve armare di pazienza. Il primo passo da compiere è
ovviamente quello di individuare i links “malevoli” ovvero quelli generati da noi attraverso tecniche di link
building aggressive oppure quelli che si ricevono in modo spontaneo da altri siti e che non riusciamo a
controllare. Un consiglio, fate questi controlli non appena il vostro sito o blog viene pubblicato o indicizzato o vi
troverete migliaia di links in ingresso “fuori controllo”. Dopo aver individuato tali collegamenti inserite in un file
2/7
(disavow file) la lista di tutte le URL in entrata da eliminare e comunicatelo a Google. La procedura da
utilizzare è ben indicata nella “Guida di Search Console” al seguente link: Rifiuto dei backlink.
Algoritmo Pigeon
Questo algoritmo è stato progettato per fornire risultati più pertinenti ed accurati nelle ricerche locali e l’obiettivo è
stato raggiunto integrando i risultati restituiti dalla ricerca classica con quelli di Google Maps. In passato
per cercare ad esempio una pizzeria in una località, si doveva inserire una parola chiave composta da “pizzeria”
+ “località”. Ad esempio in questi giorni ero a Marina di Bibbona per lavoro e avevo bisogno di trovare un locale
dove andare a mangiare una pizza. Ho acceso il mio portatile e digitato la parola chiave “pizzeria”. Il risultato,
che si commenta da solo, è stato questo:
Questo algoritmo ha ovviamente portato a delle
modifiche nelle SERP locali. Molti siti web hanno
visto modificarsi il posizionamento nell’elenco dei
risultati a discapito di altri. Pigeon è stato infatti
progettato per avvicinarsi maggiormente alle
ricerche locali che vengono fatte attraverso i
dispositivi mobile. Per cui se stiamo cercando un
locale nelle vicinanze di dove vi trovate in quel
momento, grazie anche alla geolocalizzazione, vi
verranno restituiti risultati a poca distanza dal
luogo dove siete.
Vi segnalo un paio di articoli che trattano in
dettaglio questo algoritmo, il suo impatto sulle
SERP locali e come sfruttarlo per migliorare il
posizionamento del vostro sito: Google Pigeon e
Google Pigeon local update.
[Aggiornamento settembre 2016] Google stà già
testando in USA il nuovo algoritmo che andrà ad
impattare sulle “local search” e di conseguenza
sulla “local SEO”, Google Possum. Di local SEO
e del nuovo algoritmo di Google ne parleremo in
un nuovo articolo. Chi non volesse può leggere il
seguente articolo: Everything you need to know
about Google’s ‘Possum’ algorithm update
Algoritmo Top Heavy
Questo algoritmo penalizza i siti con troppi banner
pubblicitari posizionati nella parte superiore. Il
motivo è semplice: la pubblicità su Internet negli
ultimi anni è diventata molto aggressiva e spesso
peggiora la navigazione sul sito che si vuole
visitare. L’intento di Google è quello di
avvantaggiare i siti che danno più importanza ai
contenuti (che devono essere immediatamente
visibili), rispetto alla pubblicità. “Top heavy” viene
applicato solo a siti con annunci statici in posizioni
fisse sulle pagine e non a quelli che utilizzano i
pop-up, pop-under o annunci overlay. Anche se
non viene specificato il numero massimo di
annunci statici che si possono pubblicare, il
3/7
consiglio è di non superare le 3 unità, utilizzando
quelli ad alta conversione (728 x 90, 336 x 280,
160 x 600).
Algoritmo Mobile Friendly
(“Mobilegeddon”)
A partire dal 21 aprile 2015 l’importanza di avere
siti responsive, ovvero ottimizzati anche per i
dispositivi mobile, è cresciuta moltissimo e di
conseguenza il suo peso nel calcolo del ranking e
quindi nel posizionamento sulle ricerche da
mobile. Ricordo inoltre che ha partire da maggio
2016 Google ha di fatto aumentato l’effetto dell’algoritmo su tali risultati di ricerca. L’obiettivo è quello di aiutare
gli utenti a trovare più contenuti interessanti e di qualità, ottimizzati per dispositivi come tablet e smartphone.
Stiamo comunque parlando di ricerche effettuate da tali dispositivi, quindi questo algoritmo in teoria non
dovrebbe incidere sulle ricerche effettuate da PC desktop. Nella realtà dei fatti godranno di un posizionamento
migliore quei siti che risultino “mobile-friendly”, ovvero siti responsive o comunque adatti alla visione su
smartphone e tablet.
Come rendere il nostro sito web “mobile-friendly”?
Esistono 3 principali approcci per rendere un sito correttamente visibile su smartphone:
utilizzare un “design responsive” in cui la pagina rimane la stessa (URL, HTMP, Immagini) per ogni
dispositivo ma cambia il CSS (la pagina viene formattata sulla base della lunghezza dello schermo).
Questo approccio è quello preferito da Google;
RESS/Adapting/Dynamic Server. L’URL rimane lo stesso ma il server invia una differente versione
dell’HTML e CSS sulla base del tipo di device che effettua la richiesta;
creare un sito mobile separato. Viene creato un sito che viene visualizzato solo per i dispositivi mobile,
normalmente inserito in un sottodominio o una sotto-directory. Se tale approccio permette di adottare sia
strategie SEO che di Advertising differenti, il lavoro da fare è praticamente doppio.
Strategie da adottare per migliorare il posizionamento nelle SERP?
Partiamo dal fatto che avere un sito mobile-friendly è un fattore di ranking, per cui meglio lo realizziamo è più
potremo migliorare il posizionamento del nostro sito nelle SERP generali. La prima cosa da considerare è la
velocità di caricamento delle pagine. “Accelerated Mobile Page Project” (AMP) è un progetto che consente di
velocizzare il caricamento dei contenuti. Il progetto si basa su AMP HTML, un framework aperto e costruito
interamente sulla base di tecnologie web esistenti, che permette la costruzione di pagine web più leggere.
Produrre contenuti in questo formato porta dei notevoli vantaggi, tra cui la possibiltà di sfruttare i “caching server”
di Google. Un altro accorgimento è quello di non usare Banner nelle sidebar.
NB: se il vostro blog è realizzato con WordPress potete utilizzare il plugin “Amp for Wp“.
Se volete verificare se il vostro sito è “mobile-friendly” è sufficiente effettuare il test che Google ha messo a
disposizione e che trovate al seguente indirizzo: test di compatibilità Google con i dispositivi mobile .
Algoritmo PageRank
Il PageRank è un algoritmo che fornisce un valore numerico, o rank, a ciascuna pagina web indicizzata e viene
utilizzato per misurarne la qualità, partendo da un valore zero per arrivare fino a 10. Il PageRank viene calcolato
conteggiando sia la quantità di link esterni in ingresso, sia valutandone la qualità, intesa come grado di
pertinenza rispetto all’argomento trattato.
4/7
Dal punto di vista SEO, per migliorare il valore del PageRank (aggiornato da Google ogni 3 mesi), occorre
puntare ad una strategia di link building corretta. Per maggiori informazioni leggete l’articolo “Google PageRank.
Algoritmo Hilltop
L’algoritmo Hilltop è stato sviluppato da Bharat e Mihaila presso l’università di Toronto e reso noto al pubblico nel
1999. Google ne ha acquistato il brevetto nel 2003 per correggere uno dei limiti dell’algoritmo di PageRank,
ovvero non distinguere link che arrivano da “pagine esperte” sull’argomento specifico (link rilevanti) o link che
arrivano da pagine importanti e prestigiose in generale ma che non sono rilevanti rispetto al contenuto della
nostra pagina web. Google utilizza questo algoritmo per l’ordinamento dei risultati sulla base della autorevolezza
di un sito o di una o più pagine web rispetto ad uno specifico argomento.
Come funziona l’algoritmo di Hilltop?
L’algoritmo utilizza “pagine esperte” e i collegamenti su queste pagine per classificare i documenti. Le “pagine
esperte” sono pagine che riguardano uno specifico argomento e hanno collegamenti verso altre pagine scritte da
autori di organizzazioni non affiliate (es. Dmoz, Yahoo!, Wikipedia, siti universitari, bibliografie, librerie, ecc. ). Le
pagine con maggiori collegamenti ipertestuali provenienti dalle pagine esperte sono considerate delle autorità
sull’argomento in questione.
L’algoritmo Hilltop scarta tutte le pagine non autorevoli sull’argomento, correggendo i risultati derivanti dalla link
popularity e dal PageRank che invece prende in considerazione tutti i link esterni o backlink provenienti da
qualsiasi risorsa sul web. Agisce inoltre sullo spam generato dai link non rilevanti, riducendolo.
Punto di debolezza
Il punto centrale di Hilltop è dunque la determinazione delle “pagine esperte”, che però può essere visto anche
come punto di debolezza dal momento che è molto facile trovare pagine esperte su argomenti molto popolari (ad
elevato traffico), ma lo è meno nel caso di tematiche meno popolari o di nicchia, dove il rischio è di non riuscire a
trovare un numero adeguato di pagine esperte per un corretto ordinamento dei risultato.
Hilltop e SEO
Ai fini SEO dobbiamo fare in modo che la nostra pagina sia collegata a pagine pertinenti e rilevanti (“pagine
esperte”). Un modo possibile è quella di inserirla in directory ritenute esperte sull’argomento trattato. Un’altra
strada da percorrere in parallelo è quella di ottenere link da pagine web che a loro volta ricevano link di qualità da
pagine/siti ad alto rank.
Algoritmo di Stemming
Le tecniche di stemming sono studiate in informatica da oltre 40 anni e rappresentano uno dei metodi di base
per ridurre la dimensionalità dei documenti di testo. Ma che cosa si intende per Stemming ? Lo stemming è il
processo di riduzione della forma flessa di una parola alla sua forma radice, detta tema. Il tema non corrisponde
necessariamente alla radice morfologica (lemma) della parola: normalmente è sufficiente che le parole correlate
siano mappate allo stesso tema (ad esempio, che andare, andai, andò mappino al tema and), anche se
quest’ultimo non è una valida radice per la parola [fonte Wikipedia].
Questa definizione può sembrare chiara agli addetti ai lavori, ma proviamo a dirla in un altro modo. Stemming
deriva dall’inglese stem, che significa stelo. Lo stelo è un elemento sottile ed allungato con funzioni di sostegno e
collegamento (ad esempio gambo dei fiori). Nello stemming la radice di una parola viene considerata come uno
stelo da cui si diramano tutte le parole varianti, per cui alla radice vengono associate più parole.
Come viene applicato lo stemming ai motori di ricerca ?
Il processo di stemming è utilizzato nei motori di ricerca per l’espansione della query effettuata dagli utenti su più
documenti rilevanti, rendendo il processo di ricerca più efficace ed ampliando i risultati di ricerca attraverso
5/7
l’inclusione di parole chiave simili. Questo è reso possibile dalla riduzione delle parole chiave alla radice
corrispondente. Se volete approfondire l’argomento vi consiglio un ottimo articolo scritto da Andrea Minini:
Algoritmo di Stemming.
Algoritmo di Stemming e SEO
Per sfruttare a proprio vantaggio lo Stemming, si possono seguire le linee guida di Google:
creare gli articoli utilizzare un linguaggio naturale e comprensibile sia dagli utenti che dai motori di ricerca;
ottimizzare una pagina ai fini di una ricerca esatta. L’argomento trattato deve essere chiaro sia a chi ci
legge, sia agli spider dei motori;
all’interno delle pagine spaziare le parole che devono essere spaziate;
nei nomi, directory e file utilizzare sempre il separatore di parole classico (-) piuttosto che l’underscore (_)
ed evitare di scrivere le parole attaccate;
suddividere gli argomenti affrontati nel sito in cartelle nominate correttamente (non sempre applicabile);
inserire la parola chiave principale nel dominio, fornendo contenuti di qualità ed inerenti con l’argomento
indicato nella keyword, altrimenti il vostro dominio potrebbe essere considerato come SPAM.
Algoritmi dei motori di ricerca: Yahoo e Bing
Yahoo e Bing sono i motori di ricerca più utilizzati dopo Google (in Italia tuttavia la percentuale di utilizzo di
Google è superiore al 90%) ed entrambi presentano caratteristiche di ottimizzazione SEO differenti.
Yahoo utilizza un algoritmo che valuta il contenuto del sito e la keyword density, penalizzando i siti che hanno un
valore di densità troppo alto (siti spam) o troppo basso (siti di scarsa rilevanza). Anche se sono poco propenso a
dare dei valori di riferimento, in alcuni articoli viene indicato come valore ottimale di keyword density nel corpo
della pagina attorno al 3%. Stesso valore per il meta tag keywords e description, che diventa 20% per il TITLE. Il
mio consiglio quando scrivete un testo è sempre il solito: non preoccupatevi delle percentuali, ma create
contenuti utili agli utenti e di facile lettura (scrittura naturale).
Bing è il portale di ricerca di Microsoft nato nel giugno del 2009 in sostituzione dei precedenti MSN e Live
Search. In termini SEO Bing da grande importanza ai meta tags ed alla posizione delle keywords nel testo
(keywords prominence). Bing dà maggior peso alle parole chiave più in alto nel testo. Altri fattori di
posizionamento SEO sono:
età del dominio (più è vecchio e più sarà rilevante). Una delle strategie da utilizzare in questo senso è di
acquistare domini già esistenti;
parola chiave principale nel dominio;
presenza della parola chiave nel tag TITLE;
contenuti di qualità e lunghi almeno 300-500 parole per pagina;
struttura della pagina web, in modo che sia facilmente navigabile (utilizzo tag H1, link building interna,
“breadcrumps” e URL semplici e non lunghi);
codice del sito pulito e che rispetti la validazione HTML (W3C);
link in entrata ed in uscita. Bing dà meno peso alla link building rispetto a Google. Tuttavia una buona
strategia di “link in ingresso” può essere utile, soprattutto se le pagine web da cui arriva il collegamento
contengono la parola chiave del vostro sito nel tag TITLE. Bing considera invece maggiormente i link in
uscita dal proprio sito, purchè i siti web esterni a cui viene indirizzato il collegamento siano ritenuti
rilevanti, oltre che utili ai fini di un approfondimento del contenuto della vostra pagina. In ogni caso sia che
ottimizzate per Google che per Bing cercate di linkare siti considerati autorevoli.
utilizzo di segnali social. La condivisione social influenza direttamente il posizionamento delle pagine
web nella SERP del motore di ricerca di Microsoft;
6/7
Bing e l’Adaptive Search
A partire dal 2011 il motore di ricerca di Microsoft sta utilizzando un tipo di approccio chiamato Adaptive Search,
con l’obiettivo di risolvere il problema dovuto all’ambiguità dei termini utilizzati nella ricerca. Parole identiche
possono avere infatti diversi significati. Come può allora un motore di ricerca capire quello che effettivamente
stiamo cercando? Semplicemente, ma non troppo, sulla base delle ricerche che sono state effettuate
precedentemente da uno stesso utente. Ogni volta che effettuiamo una ricerca con Bing, l’informazione fornita
aiuta il motore stesso a capire cosa stiamo cercando. Più effettuiamo ricerche e clicchiamo su un certo risultato,
più Bing impara e può usare queste informazioni per fornirci le risposte più attinenti, che vengono visualizzate in
maniera più evidenziata rispetto alle altre.
Dal punto di vista SEO, appare chiaro che Bing Adaptive Search ha la capacità di influenzare il traffico verso il
vostro sito. Supponiamo ad esempio che vendiate solo attrezzature per il golf e che siate ottimamente posizionati
per questo termine. Può succedere che dopo un certo periodo di tempo diventi chiaro a Bing che alcuni utenti,
digitando la parola chiave golf, siano interessati alle news sul golf e non all’acquisto della attrezzatura. Bing
modificherà allora i risultati delle SERP per questi utenti, con il risultato che il vostro sito verrà scavalcato nel
posizionamento dai siti di news sul golf.
Verrete invece favoriti nel posizionamento per quegli utenti che ricercano, con la keyword golf, le attrezzature per
questo sport.
Riassumendo l’algoritmo adaptive search ha come obiettivo quello di fornire una lista di risultati rilevanti per
l’utente, sulla base delle ricerche effettuate da ogni utente. Quindi personalizzare le SERP attraverso le
esperienze di ricerca.
Questo articolo sugli “algoritmi dei motori di ricerca” è stato pubblicato in data 7 luglio 2016. I diversi algoritmi
vengono aggiornati di frequente, per cui alcune delle informazioni che troverete potrebbero cambiare. Sarà mia
cura mantenere il più possibile attuale questo articolo, anche attraverso degli approfondimenti.
7/7

Contenu connexe

Plus de stefano basso

SEO bing vs SEO google | Primositoweb.it
SEO bing vs SEO google | Primositoweb.itSEO bing vs SEO google | Primositoweb.it
SEO bing vs SEO google | Primositoweb.itstefano basso
 
Bonus casa 50% | Alternativa a bonus 110% per unifamiliari
Bonus casa 50% | Alternativa a bonus 110% per unifamiliariBonus casa 50% | Alternativa a bonus 110% per unifamiliari
Bonus casa 50% | Alternativa a bonus 110% per unifamiliaristefano basso
 
Technical seo | Primositoweb.it
 Technical seo | Primositoweb.it Technical seo | Primositoweb.it
Technical seo | Primositoweb.itstefano basso
 
Affiliate marketing o affiliazione | primositoweb.it
Affiliate marketing o affiliazione | primositoweb.itAffiliate marketing o affiliazione | primositoweb.it
Affiliate marketing o affiliazione | primositoweb.itstefano basso
 
Curarelacasa.it comfort termico nelle nostre abitazioni
Curarelacasa.it comfort termico nelle nostre abitazioniCurarelacasa.it comfort termico nelle nostre abitazioni
Curarelacasa.it comfort termico nelle nostre abitazionistefano basso
 
Schede tecniche caldaie per certificazione energetica
Schede tecniche caldaie per certificazione energeticaSchede tecniche caldaie per certificazione energetica
Schede tecniche caldaie per certificazione energeticastefano basso
 
Recupero del sottotetto condominiale a fini abitativi
Recupero del sottotetto condominiale a fini abitativiRecupero del sottotetto condominiale a fini abitativi
Recupero del sottotetto condominiale a fini abitativistefano basso
 
Unità terminali impianti termici
Unità terminali impianti termiciUnità terminali impianti termici
Unità terminali impianti termicistefano basso
 
Schede tecniche caldaie joannes
Schede tecniche caldaie joannesSchede tecniche caldaie joannes
Schede tecniche caldaie joannesstefano basso
 
Serteca Ambiente | Ricerca perdite acqua nelle tubazioni
Serteca Ambiente | Ricerca perdite acqua nelle tubazioniSerteca Ambiente | Ricerca perdite acqua nelle tubazioni
Serteca Ambiente | Ricerca perdite acqua nelle tubazionistefano basso
 
Ambiente di marketing
Ambiente di marketingAmbiente di marketing
Ambiente di marketingstefano basso
 
Algoritmi dei motori di ricerca
Algoritmi dei motori di ricercaAlgoritmi dei motori di ricerca
Algoritmi dei motori di ricercastefano basso
 
Corso per posatori di nano cappotto
Corso per posatori di nano cappottoCorso per posatori di nano cappotto
Corso per posatori di nano cappottostefano basso
 
Creare un sito web di successo
Creare un sito web di successoCreare un sito web di successo
Creare un sito web di successostefano basso
 
Investire oggi o aspettare? di Gianfranco Mozzali
Investire oggi o aspettare? di Gianfranco MozzaliInvestire oggi o aspettare? di Gianfranco Mozzali
Investire oggi o aspettare? di Gianfranco Mozzalistefano basso
 
Emotivita negli investimenti di Gianfranco Mozzali
Emotivita negli investimenti di Gianfranco MozzaliEmotivita negli investimenti di Gianfranco Mozzali
Emotivita negli investimenti di Gianfranco Mozzalistefano basso
 
Cosa si intende per social media marketing smm
Cosa si intende per social media marketing smmCosa si intende per social media marketing smm
Cosa si intende per social media marketing smmstefano basso
 
Champions Milano 2016 - economia e finanza
Champions Milano 2016 - economia e finanzaChampions Milano 2016 - economia e finanza
Champions Milano 2016 - economia e finanzastefano basso
 

Plus de stefano basso (20)

SEO bing vs SEO google | Primositoweb.it
SEO bing vs SEO google | Primositoweb.itSEO bing vs SEO google | Primositoweb.it
SEO bing vs SEO google | Primositoweb.it
 
Bonus casa 50% | Alternativa a bonus 110% per unifamiliari
Bonus casa 50% | Alternativa a bonus 110% per unifamiliariBonus casa 50% | Alternativa a bonus 110% per unifamiliari
Bonus casa 50% | Alternativa a bonus 110% per unifamiliari
 
Technical seo | Primositoweb.it
 Technical seo | Primositoweb.it Technical seo | Primositoweb.it
Technical seo | Primositoweb.it
 
Affiliate marketing o affiliazione | primositoweb.it
Affiliate marketing o affiliazione | primositoweb.itAffiliate marketing o affiliazione | primositoweb.it
Affiliate marketing o affiliazione | primositoweb.it
 
Curarelacasa.it comfort termico nelle nostre abitazioni
Curarelacasa.it comfort termico nelle nostre abitazioniCurarelacasa.it comfort termico nelle nostre abitazioni
Curarelacasa.it comfort termico nelle nostre abitazioni
 
Schede tecniche caldaie per certificazione energetica
Schede tecniche caldaie per certificazione energeticaSchede tecniche caldaie per certificazione energetica
Schede tecniche caldaie per certificazione energetica
 
Recupero del sottotetto condominiale a fini abitativi
Recupero del sottotetto condominiale a fini abitativiRecupero del sottotetto condominiale a fini abitativi
Recupero del sottotetto condominiale a fini abitativi
 
Unità terminali impianti termici
Unità terminali impianti termiciUnità terminali impianti termici
Unità terminali impianti termici
 
Conto termico 2.0
Conto termico 2.0Conto termico 2.0
Conto termico 2.0
 
Schede tecniche caldaie joannes
Schede tecniche caldaie joannesSchede tecniche caldaie joannes
Schede tecniche caldaie joannes
 
Serteca Ambiente | Ricerca perdite acqua nelle tubazioni
Serteca Ambiente | Ricerca perdite acqua nelle tubazioniSerteca Ambiente | Ricerca perdite acqua nelle tubazioni
Serteca Ambiente | Ricerca perdite acqua nelle tubazioni
 
Ambiente di marketing
Ambiente di marketingAmbiente di marketing
Ambiente di marketing
 
Algoritmi dei motori di ricerca
Algoritmi dei motori di ricercaAlgoritmi dei motori di ricerca
Algoritmi dei motori di ricerca
 
Corso per posatori di nano cappotto
Corso per posatori di nano cappottoCorso per posatori di nano cappotto
Corso per posatori di nano cappotto
 
Creare un sito web di successo
Creare un sito web di successoCreare un sito web di successo
Creare un sito web di successo
 
Investire oggi o aspettare? di Gianfranco Mozzali
Investire oggi o aspettare? di Gianfranco MozzaliInvestire oggi o aspettare? di Gianfranco Mozzali
Investire oggi o aspettare? di Gianfranco Mozzali
 
Emotivita negli investimenti di Gianfranco Mozzali
Emotivita negli investimenti di Gianfranco MozzaliEmotivita negli investimenti di Gianfranco Mozzali
Emotivita negli investimenti di Gianfranco Mozzali
 
Cosa si intende per social media marketing smm
Cosa si intende per social media marketing smmCosa si intende per social media marketing smm
Cosa si intende per social media marketing smm
 
Tecniche seo
Tecniche seoTecniche seo
Tecniche seo
 
Champions Milano 2016 - economia e finanza
Champions Milano 2016 - economia e finanzaChampions Milano 2016 - economia e finanza
Champions Milano 2016 - economia e finanza
 

Algoritmi dei motori di ricerca (Agg. 15/04/2017)

  • 1. Algoritmi dei motori di ricerca gsnews.it /algoritmi-dei-motori-di-ricerca/ Come ragionano i motori di ricerca? Quali sono le strategie da adottare in ottica SEO per migliorare il posizionamento delle pagine nelle SERP? RUBRICHE >> Internet >> SEO >> Algoritmi dei motori di ricerca In questo articolo, voglio analizzare gli algoritmi dei motori di ricerca in ottica SEO. Google e gli altri “search engine” utilizzano algoritmi per classificare le informazioni archiviate sulla base di determinati parametri, non tutti noti. Questo processo permette di assegnare un valore ad ogni pagina web, valore che determina la posizione della pagina nella lista dei risultati (SERP) dei motori di ricerca. L’obiettivo primario è quello di fornire risultati che soddisfino pienamente le query effettuate dagli utenti. Un errore è però credere che Google, Yahoo e Bing utilizzino un solo algoritmo, quando in realtà sono diversi. Ognuno di essi assolve ad uno specifico compito e per questo è importante conoscerne almeno le principali caratteristiche e sfruttarle in ottica SEO. Non pretendo di coprire l’argomento in maniera esaustiva, ma di dare delle linee guida da utilizzare per l’ottimizzazione dei siti. Una risorsa molto importante da consultare è Search Engine Land, un portale sempre aggiornato sulle tematiche SEO, SEM, motori di ricerca. Segnalo anche SEJ (Search Engine Journal). Entrambi i siti sono in inglese. Algoritmi dei motori di ricerca: Google L’algoritmo generale di ricerca di Google si chiama “HUMMINGBIRD“, rilasciato il 30 agosto 2013, il cui obiettivo è quello di gestire al meglio le “ricerche conversionali” in modo da far emergere pagine che siano il più possibile attinenti alla ricerca effettuata. Hummingbird agisce sul significato delle parole chiavi, sulle frasi di ricerca e sulla qualità dei testi inseriti all’interno di una pagina web. Questo algoritmi influenza oggi la quasi totalità dei risultati nelle SERP. Hummingbird non è ovviamente l’unico algorimo di Google. A seguire un elenco dei diversi algoritmi (vecchi e nuovi) utilizzati da Google, ognuno con una sua specifica funzione: Panda e PayDay per combattere lo spam; Penguin, per trovare e penalizzare tutti quei siti che hanno scalato le SERP con tecniche di “keyword stuffing” o “link buildind artificiali”; Pigeon progettato per migliorare i risultati di ricerca locali; 1/7
  • 2. Top Heavy, che ha il compito di abbassare il ranking di siti ricchi di pubblicità; Mobile Friendly (“Mobilegeddon”) costruito per premiare le pagine web “mobile-friendly”, ovvero ottimizzate anche per i dispositivi mobile; Pirate progettato per combattere le violazioni di copyright e quindi i “siti pirata” che mettono a disposizione film, musica, libri, software e videogiochi illegali. L’intenzione è quella di penalizzare tali siti eliminandoli dalle prime pagine delle SERP. Per maggiori informazioni potete leggere il seguente articolo “9 Outcomes Of Google’s Pirate Algorithm: Should You Be Concerned? ; PageRank, forse il più conosciuto, che fornisce un valore, “rank”, alle pagine di base dei link di ingresso al sito (“backlink”); Hilltop, che valuta l’autorevolezza di un sito o di una pagina web su un particolare argomento; Stemming, algoritmo, basato sull’ IR (Information Retrieval), utilizzato di Google per aumentare significativamente il numero dei risultati (potenzialmente interessanti per l’utente) nella lista dei risultati di ricerca. Dal 2015 Google sta usando un nuovo algoritmo basato sull’intelligenza artificiale, RankBrain, per aiutarsi nella scelta del ranking dei propri risultato di ricerca. L’obiettivo è chiaramente quello di ottenere risultati più precisi e che corrispondano esattamente alla query di ricerca. RankBrain è un algoritmo che viene soprattutto utilizzato per interpretare le query di ricerca fatte dagli utenti su Google e tradurle in maniera efficace in modo da individuare le pagine più adatte. Parlerò di RankBrain in un articolo separato: “Algoritmo RankBrain“. Algoritmo Panda Algoritmo introdotto da Google a fine febbraio 2011, giunto alla versione 4.2, allo scopo di penalizzare i siti a bassa qualità, con contenuti duplicati o di spam, valorizzando allo stesso tempo siti web/blog che contengono contenuti originali e di informazione. Le indicazioni SEO che se ricavano, al fine di evitare penalizzazioni da parte di questo algoritmo, sono le seguenti: creare contenuti freschi e di utilità; curare la forma e la sintassi; evitare di copiare contenuti; non intasare le pagine di pubblicità, limitando ad esempio il numero di banner e facendo in modo che non infastidiscano la lettura del contenuto; applicare le tecniche “white SEO” e non “black SEO”. Un altro consiglio è quello di assicurarsi che il contenuto della pagina web sia corrispondente alla parola chiave attraverso la quale vogliamo farci trovare dai motori di ricerca. Se non lo fosse possiamo inserire una o 2 extra- paragrafi che contengano la parola chiave stessa. Algoritmo Penguin Algoritmo utilizzato per verificare la qualità dei link in ingresso al sito, con l’obiettivo di penalizzare quei siti che ottengono link in maniera non naturale. A settembre 2016 Google ha rilasciato la versione finale (4.0) inserendola nel core dell’algoritmo di ricerca principale. L’algoritmo è ora in grado di valutare in tempo reale se un sito debba essere penalizzato o, viceversa, se gli possa essere tolta la penalizzazione. Tutto questo è sicuramente molto interessante, ma la domanda che mi sorge spontanea è: come facciamo a controllare tutti i links in ingresso al nostro sito o blog, soprattutto se ha un traffico elevato e rimuovere quelli che ci possono penalizzare ? Vi dico già subito che non esiste un sistema che in maniera automatica verifica i links e rimuove quelli “malevoli”, ma o ci si rivolge ad una agenzia specializzata o ci si deve armare di pazienza. Il primo passo da compiere è ovviamente quello di individuare i links “malevoli” ovvero quelli generati da noi attraverso tecniche di link building aggressive oppure quelli che si ricevono in modo spontaneo da altri siti e che non riusciamo a controllare. Un consiglio, fate questi controlli non appena il vostro sito o blog viene pubblicato o indicizzato o vi troverete migliaia di links in ingresso “fuori controllo”. Dopo aver individuato tali collegamenti inserite in un file 2/7
  • 3. (disavow file) la lista di tutte le URL in entrata da eliminare e comunicatelo a Google. La procedura da utilizzare è ben indicata nella “Guida di Search Console” al seguente link: Rifiuto dei backlink. Algoritmo Pigeon Questo algoritmo è stato progettato per fornire risultati più pertinenti ed accurati nelle ricerche locali e l’obiettivo è stato raggiunto integrando i risultati restituiti dalla ricerca classica con quelli di Google Maps. In passato per cercare ad esempio una pizzeria in una località, si doveva inserire una parola chiave composta da “pizzeria” + “località”. Ad esempio in questi giorni ero a Marina di Bibbona per lavoro e avevo bisogno di trovare un locale dove andare a mangiare una pizza. Ho acceso il mio portatile e digitato la parola chiave “pizzeria”. Il risultato, che si commenta da solo, è stato questo: Questo algoritmo ha ovviamente portato a delle modifiche nelle SERP locali. Molti siti web hanno visto modificarsi il posizionamento nell’elenco dei risultati a discapito di altri. Pigeon è stato infatti progettato per avvicinarsi maggiormente alle ricerche locali che vengono fatte attraverso i dispositivi mobile. Per cui se stiamo cercando un locale nelle vicinanze di dove vi trovate in quel momento, grazie anche alla geolocalizzazione, vi verranno restituiti risultati a poca distanza dal luogo dove siete. Vi segnalo un paio di articoli che trattano in dettaglio questo algoritmo, il suo impatto sulle SERP locali e come sfruttarlo per migliorare il posizionamento del vostro sito: Google Pigeon e Google Pigeon local update. [Aggiornamento settembre 2016] Google stà già testando in USA il nuovo algoritmo che andrà ad impattare sulle “local search” e di conseguenza sulla “local SEO”, Google Possum. Di local SEO e del nuovo algoritmo di Google ne parleremo in un nuovo articolo. Chi non volesse può leggere il seguente articolo: Everything you need to know about Google’s ‘Possum’ algorithm update Algoritmo Top Heavy Questo algoritmo penalizza i siti con troppi banner pubblicitari posizionati nella parte superiore. Il motivo è semplice: la pubblicità su Internet negli ultimi anni è diventata molto aggressiva e spesso peggiora la navigazione sul sito che si vuole visitare. L’intento di Google è quello di avvantaggiare i siti che danno più importanza ai contenuti (che devono essere immediatamente visibili), rispetto alla pubblicità. “Top heavy” viene applicato solo a siti con annunci statici in posizioni fisse sulle pagine e non a quelli che utilizzano i pop-up, pop-under o annunci overlay. Anche se non viene specificato il numero massimo di annunci statici che si possono pubblicare, il 3/7
  • 4. consiglio è di non superare le 3 unità, utilizzando quelli ad alta conversione (728 x 90, 336 x 280, 160 x 600). Algoritmo Mobile Friendly (“Mobilegeddon”) A partire dal 21 aprile 2015 l’importanza di avere siti responsive, ovvero ottimizzati anche per i dispositivi mobile, è cresciuta moltissimo e di conseguenza il suo peso nel calcolo del ranking e quindi nel posizionamento sulle ricerche da mobile. Ricordo inoltre che ha partire da maggio 2016 Google ha di fatto aumentato l’effetto dell’algoritmo su tali risultati di ricerca. L’obiettivo è quello di aiutare gli utenti a trovare più contenuti interessanti e di qualità, ottimizzati per dispositivi come tablet e smartphone. Stiamo comunque parlando di ricerche effettuate da tali dispositivi, quindi questo algoritmo in teoria non dovrebbe incidere sulle ricerche effettuate da PC desktop. Nella realtà dei fatti godranno di un posizionamento migliore quei siti che risultino “mobile-friendly”, ovvero siti responsive o comunque adatti alla visione su smartphone e tablet. Come rendere il nostro sito web “mobile-friendly”? Esistono 3 principali approcci per rendere un sito correttamente visibile su smartphone: utilizzare un “design responsive” in cui la pagina rimane la stessa (URL, HTMP, Immagini) per ogni dispositivo ma cambia il CSS (la pagina viene formattata sulla base della lunghezza dello schermo). Questo approccio è quello preferito da Google; RESS/Adapting/Dynamic Server. L’URL rimane lo stesso ma il server invia una differente versione dell’HTML e CSS sulla base del tipo di device che effettua la richiesta; creare un sito mobile separato. Viene creato un sito che viene visualizzato solo per i dispositivi mobile, normalmente inserito in un sottodominio o una sotto-directory. Se tale approccio permette di adottare sia strategie SEO che di Advertising differenti, il lavoro da fare è praticamente doppio. Strategie da adottare per migliorare il posizionamento nelle SERP? Partiamo dal fatto che avere un sito mobile-friendly è un fattore di ranking, per cui meglio lo realizziamo è più potremo migliorare il posizionamento del nostro sito nelle SERP generali. La prima cosa da considerare è la velocità di caricamento delle pagine. “Accelerated Mobile Page Project” (AMP) è un progetto che consente di velocizzare il caricamento dei contenuti. Il progetto si basa su AMP HTML, un framework aperto e costruito interamente sulla base di tecnologie web esistenti, che permette la costruzione di pagine web più leggere. Produrre contenuti in questo formato porta dei notevoli vantaggi, tra cui la possibiltà di sfruttare i “caching server” di Google. Un altro accorgimento è quello di non usare Banner nelle sidebar. NB: se il vostro blog è realizzato con WordPress potete utilizzare il plugin “Amp for Wp“. Se volete verificare se il vostro sito è “mobile-friendly” è sufficiente effettuare il test che Google ha messo a disposizione e che trovate al seguente indirizzo: test di compatibilità Google con i dispositivi mobile . Algoritmo PageRank Il PageRank è un algoritmo che fornisce un valore numerico, o rank, a ciascuna pagina web indicizzata e viene utilizzato per misurarne la qualità, partendo da un valore zero per arrivare fino a 10. Il PageRank viene calcolato conteggiando sia la quantità di link esterni in ingresso, sia valutandone la qualità, intesa come grado di pertinenza rispetto all’argomento trattato. 4/7
  • 5. Dal punto di vista SEO, per migliorare il valore del PageRank (aggiornato da Google ogni 3 mesi), occorre puntare ad una strategia di link building corretta. Per maggiori informazioni leggete l’articolo “Google PageRank. Algoritmo Hilltop L’algoritmo Hilltop è stato sviluppato da Bharat e Mihaila presso l’università di Toronto e reso noto al pubblico nel 1999. Google ne ha acquistato il brevetto nel 2003 per correggere uno dei limiti dell’algoritmo di PageRank, ovvero non distinguere link che arrivano da “pagine esperte” sull’argomento specifico (link rilevanti) o link che arrivano da pagine importanti e prestigiose in generale ma che non sono rilevanti rispetto al contenuto della nostra pagina web. Google utilizza questo algoritmo per l’ordinamento dei risultati sulla base della autorevolezza di un sito o di una o più pagine web rispetto ad uno specifico argomento. Come funziona l’algoritmo di Hilltop? L’algoritmo utilizza “pagine esperte” e i collegamenti su queste pagine per classificare i documenti. Le “pagine esperte” sono pagine che riguardano uno specifico argomento e hanno collegamenti verso altre pagine scritte da autori di organizzazioni non affiliate (es. Dmoz, Yahoo!, Wikipedia, siti universitari, bibliografie, librerie, ecc. ). Le pagine con maggiori collegamenti ipertestuali provenienti dalle pagine esperte sono considerate delle autorità sull’argomento in questione. L’algoritmo Hilltop scarta tutte le pagine non autorevoli sull’argomento, correggendo i risultati derivanti dalla link popularity e dal PageRank che invece prende in considerazione tutti i link esterni o backlink provenienti da qualsiasi risorsa sul web. Agisce inoltre sullo spam generato dai link non rilevanti, riducendolo. Punto di debolezza Il punto centrale di Hilltop è dunque la determinazione delle “pagine esperte”, che però può essere visto anche come punto di debolezza dal momento che è molto facile trovare pagine esperte su argomenti molto popolari (ad elevato traffico), ma lo è meno nel caso di tematiche meno popolari o di nicchia, dove il rischio è di non riuscire a trovare un numero adeguato di pagine esperte per un corretto ordinamento dei risultato. Hilltop e SEO Ai fini SEO dobbiamo fare in modo che la nostra pagina sia collegata a pagine pertinenti e rilevanti (“pagine esperte”). Un modo possibile è quella di inserirla in directory ritenute esperte sull’argomento trattato. Un’altra strada da percorrere in parallelo è quella di ottenere link da pagine web che a loro volta ricevano link di qualità da pagine/siti ad alto rank. Algoritmo di Stemming Le tecniche di stemming sono studiate in informatica da oltre 40 anni e rappresentano uno dei metodi di base per ridurre la dimensionalità dei documenti di testo. Ma che cosa si intende per Stemming ? Lo stemming è il processo di riduzione della forma flessa di una parola alla sua forma radice, detta tema. Il tema non corrisponde necessariamente alla radice morfologica (lemma) della parola: normalmente è sufficiente che le parole correlate siano mappate allo stesso tema (ad esempio, che andare, andai, andò mappino al tema and), anche se quest’ultimo non è una valida radice per la parola [fonte Wikipedia]. Questa definizione può sembrare chiara agli addetti ai lavori, ma proviamo a dirla in un altro modo. Stemming deriva dall’inglese stem, che significa stelo. Lo stelo è un elemento sottile ed allungato con funzioni di sostegno e collegamento (ad esempio gambo dei fiori). Nello stemming la radice di una parola viene considerata come uno stelo da cui si diramano tutte le parole varianti, per cui alla radice vengono associate più parole. Come viene applicato lo stemming ai motori di ricerca ? Il processo di stemming è utilizzato nei motori di ricerca per l’espansione della query effettuata dagli utenti su più documenti rilevanti, rendendo il processo di ricerca più efficace ed ampliando i risultati di ricerca attraverso 5/7
  • 6. l’inclusione di parole chiave simili. Questo è reso possibile dalla riduzione delle parole chiave alla radice corrispondente. Se volete approfondire l’argomento vi consiglio un ottimo articolo scritto da Andrea Minini: Algoritmo di Stemming. Algoritmo di Stemming e SEO Per sfruttare a proprio vantaggio lo Stemming, si possono seguire le linee guida di Google: creare gli articoli utilizzare un linguaggio naturale e comprensibile sia dagli utenti che dai motori di ricerca; ottimizzare una pagina ai fini di una ricerca esatta. L’argomento trattato deve essere chiaro sia a chi ci legge, sia agli spider dei motori; all’interno delle pagine spaziare le parole che devono essere spaziate; nei nomi, directory e file utilizzare sempre il separatore di parole classico (-) piuttosto che l’underscore (_) ed evitare di scrivere le parole attaccate; suddividere gli argomenti affrontati nel sito in cartelle nominate correttamente (non sempre applicabile); inserire la parola chiave principale nel dominio, fornendo contenuti di qualità ed inerenti con l’argomento indicato nella keyword, altrimenti il vostro dominio potrebbe essere considerato come SPAM. Algoritmi dei motori di ricerca: Yahoo e Bing Yahoo e Bing sono i motori di ricerca più utilizzati dopo Google (in Italia tuttavia la percentuale di utilizzo di Google è superiore al 90%) ed entrambi presentano caratteristiche di ottimizzazione SEO differenti. Yahoo utilizza un algoritmo che valuta il contenuto del sito e la keyword density, penalizzando i siti che hanno un valore di densità troppo alto (siti spam) o troppo basso (siti di scarsa rilevanza). Anche se sono poco propenso a dare dei valori di riferimento, in alcuni articoli viene indicato come valore ottimale di keyword density nel corpo della pagina attorno al 3%. Stesso valore per il meta tag keywords e description, che diventa 20% per il TITLE. Il mio consiglio quando scrivete un testo è sempre il solito: non preoccupatevi delle percentuali, ma create contenuti utili agli utenti e di facile lettura (scrittura naturale). Bing è il portale di ricerca di Microsoft nato nel giugno del 2009 in sostituzione dei precedenti MSN e Live Search. In termini SEO Bing da grande importanza ai meta tags ed alla posizione delle keywords nel testo (keywords prominence). Bing dà maggior peso alle parole chiave più in alto nel testo. Altri fattori di posizionamento SEO sono: età del dominio (più è vecchio e più sarà rilevante). Una delle strategie da utilizzare in questo senso è di acquistare domini già esistenti; parola chiave principale nel dominio; presenza della parola chiave nel tag TITLE; contenuti di qualità e lunghi almeno 300-500 parole per pagina; struttura della pagina web, in modo che sia facilmente navigabile (utilizzo tag H1, link building interna, “breadcrumps” e URL semplici e non lunghi); codice del sito pulito e che rispetti la validazione HTML (W3C); link in entrata ed in uscita. Bing dà meno peso alla link building rispetto a Google. Tuttavia una buona strategia di “link in ingresso” può essere utile, soprattutto se le pagine web da cui arriva il collegamento contengono la parola chiave del vostro sito nel tag TITLE. Bing considera invece maggiormente i link in uscita dal proprio sito, purchè i siti web esterni a cui viene indirizzato il collegamento siano ritenuti rilevanti, oltre che utili ai fini di un approfondimento del contenuto della vostra pagina. In ogni caso sia che ottimizzate per Google che per Bing cercate di linkare siti considerati autorevoli. utilizzo di segnali social. La condivisione social influenza direttamente il posizionamento delle pagine web nella SERP del motore di ricerca di Microsoft; 6/7
  • 7. Bing e l’Adaptive Search A partire dal 2011 il motore di ricerca di Microsoft sta utilizzando un tipo di approccio chiamato Adaptive Search, con l’obiettivo di risolvere il problema dovuto all’ambiguità dei termini utilizzati nella ricerca. Parole identiche possono avere infatti diversi significati. Come può allora un motore di ricerca capire quello che effettivamente stiamo cercando? Semplicemente, ma non troppo, sulla base delle ricerche che sono state effettuate precedentemente da uno stesso utente. Ogni volta che effettuiamo una ricerca con Bing, l’informazione fornita aiuta il motore stesso a capire cosa stiamo cercando. Più effettuiamo ricerche e clicchiamo su un certo risultato, più Bing impara e può usare queste informazioni per fornirci le risposte più attinenti, che vengono visualizzate in maniera più evidenziata rispetto alle altre. Dal punto di vista SEO, appare chiaro che Bing Adaptive Search ha la capacità di influenzare il traffico verso il vostro sito. Supponiamo ad esempio che vendiate solo attrezzature per il golf e che siate ottimamente posizionati per questo termine. Può succedere che dopo un certo periodo di tempo diventi chiaro a Bing che alcuni utenti, digitando la parola chiave golf, siano interessati alle news sul golf e non all’acquisto della attrezzatura. Bing modificherà allora i risultati delle SERP per questi utenti, con il risultato che il vostro sito verrà scavalcato nel posizionamento dai siti di news sul golf. Verrete invece favoriti nel posizionamento per quegli utenti che ricercano, con la keyword golf, le attrezzature per questo sport. Riassumendo l’algoritmo adaptive search ha come obiettivo quello di fornire una lista di risultati rilevanti per l’utente, sulla base delle ricerche effettuate da ogni utente. Quindi personalizzare le SERP attraverso le esperienze di ricerca. Questo articolo sugli “algoritmi dei motori di ricerca” è stato pubblicato in data 7 luglio 2016. I diversi algoritmi vengono aggiornati di frequente, per cui alcune delle informazioni che troverete potrebbero cambiare. Sarà mia cura mantenere il più possibile attuale questo articolo, anche attraverso degli approfondimenti. 7/7