I ranking factor non esistono: l’oracolo SEO e l’idea di “correlazione”

Tempo stimato di lettura: 8 minuti, 56 secondi
Pubblicato il 11 luglio 2013

Gli oracoli sono figure mistiche che fanno riferimento, nella storia, a personalità considerate “fonte di saggi consigli o di profezie” (Wikipedia): nel caso della SEO significa che riuscirebbero a prevedere trend, più in generale a desumere informazioni inedite dall’analisi di casi singoli. Il caso tipico per l’ottimizzazione dei motori di ricerca, dettato dal fatto non conosciamo le sue logiche, è quello dell’individuazione dei ranking factor, sui quali generazioni di esperti si sono affannati negli anni: ma è davvero possibile fare una cosa del genere?

Cosa sono i SEO factor?

Per capirci, nella mentalità comune i fattori di posizionamento potrebbero essere la distribuzione delle chiavi di ricerca nel testo, oppure i cosiddetti social signals (share su Facebook o Twitter di una pagina); tuttavia, esiste un enorme fraintendimento alla base di questo tipo di approccio. Nel nostro lavoro si usa spesso parlare di fattori SEO (o SEO factors), in altri termini si tratta di riuscire ad individuare elementi singoli che possono essere utili a garantire un posizionamento dignitoso: si tratta quindi delle ipotetiche “manopole” che utilizziamo per realizzare il tuning del nostro sito sui motori di ricerca. Vado al punto: ho letto il discussissimo, negli ultimi giorni, “The Ranking Factors – Rank Correlations 2013 for Google USA” (lo trovate in bella mostra sul blog di SearchMetrics) e mi trovo d’accordo con Enrico Altavilla che ha risposto, giustamente, mostrando la propria avversione a questo genere di approccio, poichè “i risultati di questi studi sono quasi sempre fuorvianti e a volte dannosi“. Senza entrare nel dettaglio della sua argomentazione – che vi suggerisco di leggere a parte – il problema di questo modus operandi è legato all’eccessiva semplificazione di argomenti troppo complessi. La SEO è un mondo affascinante per chi volesse avvicinarsi ma va trattata con grande attenzione, e per quanto riguarda le varie illazioni fatte sul suo conto seguo un semplice criterio ormai da tempo: “se è troppo semplice, è in genere falso“. La cosa che noto, del resto, è che troppe persone finiscono per citare contenuti di questo tipo a prescindere, e questo provoca un effetto di link baiting involontario (del tutto distorto, poichè di solito le link bait contengono qualcosa di utile agli utenti): l’effetto prodotto da articoli che parlano a sproposito di statistiche, ormai scritti periodicamente dall’azienda (anche colleghi illustri come SEOmoz lo fanno, purtroppo), diventa devastante.

Cosa sostiene SearchMetrics?

Che cosa ci racconta l’articolo “incriminato”? In pratica sono andati ad inquadrare i ranking factor per il 2013, individuando una serie di fattori (ad esempio condivisioni su Google Plus, backlink con àncora di un certo tipo e così via) e calcolando, mediante formule matematico-statistiche, il fattore di correlazione tra posizionamento ed ognuno di questi singoli elementi: in pratica se questi numeretti sono prossimi a 0 quel fattore viene considerato irrilevante, se invece si avvicinano ad 1 (oppure a -1) si tratta di una correlazione positiva (nel senso di “migliorativa”) o, rispettivamente, negativa (nel senso di “peggiorativa”). Tutto questo dovrebbe servire ad individuare gli aspetti da evitare, e quelli da valorizzare, nella nostra attività. Nella speranza che agli statistici in ascolto non sia preso un colpo, nel frattempo, faccio notare perchè questo tipo di approccio non può funzionare, e con la scusa non mancherò di propinare le mie consuete “pillole”.

Perché questo approccio non dovrebbe essere considerato?

Esistono almeno cinque problemi legati a questo genere di operatività, che possiede il difetto di illudere molte persone che “quest’anno è meglio ottimizzare i contenuti“, mentre l’anno scorso – neanche fossimo nel peggior blog di gossip – “andavano di moda” l’azzurro, i backlink con dofollow ed evitare di duplicare i contenuti.

Problema 1: correlazione non implica causalità

Questo aspetto, da un punto di vista formale, dovrebbe bastare da solo a fare debunking di una delle più grosse bufale mai concepite in ambito SEO: infatti, anche se riuscissimo a stabilire una correlazione tra due fenomeni distinti, come ho scritto e detto a più riprese durante le mie consulenze, nulla ci autorizza a pensare che si tratti di regole valide in assoluto, formalizzabili e considerevoli di attenzione. Dire che correlazione (“legame” statistico tra due misurazioni distinte) non implica causalità  (ovvero, la prima misurazione potrebbe non influire affatto sulla seconda) serve a delineare uno dei più grossi limiti della statistica: fornisce metodi e misure per grosse quantità di numeri sfruttando indici (medie, mediane ecc.), ma non può per questo ergersi a golem della conoscenza su ciò che non possiamo conoscere. Se qualcuno conosce il pastafarianesimo, per intenderci, potrebbe tranquillamente applicare quel principio anche qui: il fisico Bobby Henderson, inventore di questa religione parodica, osannava ironicamente la correlazione tra riscaldamento globale, terremoti ed uragani come conseguenza della diminuzione del numero dei pirati a partire dal XIX secolo

Tale ragionamento si potrebbe estendere a molti altri ambiti, ad esempio: è stato visto, in certe analisi che ho letto, che la maggiorparte di articoli che finiscono in prima pagina su Google sono anche i più condivisi sui social network. Senza cedere alla tentazione di pensare che i social network abbiano causato tale comportamento, ci limitiamo dunque a confermare che esiste una correlazione e, per onestà intellettuale, dobbiamo fermarci qui. In sostanza il nostro Henderson, dunque, non ha fatto altro che fissare l’attenzione su una correlazione numerica tra due fenomeni sconnessi l’uno dall’altro, per mostrare a livello “pop” come la statistica possa causare facili fraintendimenti. Eppure quella correlazione esiste, è molto prossima ad 1 ed è valida di per sè: tuttavia lo è almeno quanto quella che lega le “ancore esatte” con il posizionamento delle pagine del nostro sito, ma questo non implica assolutamente nulla in termini pratici.

Problema 2: un insieme di casi non può costituire una “teoria” generica

La statistica, si sa, ragiona su campioni di dati: è compito di chi ci lavora garantire che tali informazioni siano omogenee e rappresentative di tutto quello che caratterizza lo scenario. Il rischio, in questo caso, è legato al fatto che tali statistiche possano riguardare tipologie di siti (o target di mercato, o linguistici) differenti da quelli/e che ci interessano, per cui un’applicazione acritica e passiva potrebbe avere effetti involontariamente deleteri, quando non comici del tutto. Solo perchè su un campione di siti – ad esempio e-commerce – si sia rilevato che ciò che conta sono le àncore esatte non significa che il nostro piccolo sito e-commerce debba essere promosso seguendo quella falsariga. Se fosse così, il mondo SEO sarebbe estremamente piatto (cosa che non è affatto) e privo delle sfumature che, in ogni campo, lo caratterizzano.

Problema 3: i fattori considerati sono arbitrari e semplicistici

Esiste anche un altro aspetto controverso: i ranking factor scelti da SearchMetrics (e compagnia) sono il più delle volte arbitrari, ovvero derivano dalle convinzioni personali che l’autore dell’articolo possiede. Anch’io del resto, come chiunque altro sia addentrato in materia, mi sono formato alcune regolette “pratiche” in ambito SEO, ma cerco sempre di fare molta attenzione a non farle passare per dogmi. Certa gente, invece, sembra essere del tutto estranea a questo genere di logiche, fregandosene altamente di chi legge i suoi articoli e pensando solo a fare cheap marketing. I motori di ricerca sono progettati da professionisti dell’IT e dell’IR, del resto, e non c’è motivo di credere che il loro funzionamento dipenda da fattori semplici, isolati e soprattutto manipolabili banalmente dai webmaster come tag, title, descrizioni, meta-keyword o quello che preferite.

Problema 4: la somma delle parti, in ambito SEO, è maggiore della totalità

Questo aspetto è forse il meno intuitivo di tutti, per cui cerco di spiegarlo in parole semplici: molti sistemi presenti in natura, ma anche creati dall’uomo, rispondono ad uno strano principio secondo il quale il tutto non è pari alla somma delle parti. Questo aspetto è il medesimo che si registra ad esempio nei mercati finanziari, nei quali un comportamento complesso non è prevedibile nè desumibile dalla semplice considerazione dei singoli elementi che compongono il sistema o, per parafrasare Wikipedia, in un motore di ricerca è possibile “rilevare le modifiche locali, ma non […] prevedere uno stato futuro del sistema considerato nella sua interezza“. Ragionare su fattori singoli come àncore o numero di backlink, in sostanza, è incompatibile con la complessità del comportamento dei motori, tanto più che alcuni comportamenti possiedono una metrica prettamente umana (i cosiddetti quality rater, ad esempio).

Problema 5:  l’autorevolezza latita

Per concludere, aggiungo che i risultati statistici in questione vengono promossi come “autorevoli” in modo del tutto autoreferenziale: certo, qualcuno potrebbe dire che sono linkatissimi e questo, anche solo per Google, è un buon motivo per dedurne l’importanza a livello di contenuti. Del resto la strategia utilizzata è molto furba: in quel modo i “volponi” si beccano sia link da (pochi) debunker che da passivi adoratori delle loro “teorie” che, direi soprattutto, da parte di SEO creduloni o con minore esperienza che tendono a linkare il dato, sia perchè queste teorie sono senza dubbio affascinanti e poi “non si sa mai, magari hanno ragione“. Tutto questo senza contare condivisioni nei forum SEO, sui social network, mediante pingback e chi più ne ha ne metta: un pozzo senza fondo di sorgenti di traffico che finiscono, senza che nessuno se ne accorga, per fare inconsapevolmente pubblicità gratuita a SearchMetrics, a prescindere dalla correttezza scientifica di quello che si sostiene. Prima ho scritto “autoreferenziale” proprio per questo: la fama che mostrano di avere è stata costruita a tavolino sfruttando un principio simile al flaming, della serie: se scriviamo cose del genere continueremo a far incazzare le persone più competenti che ci citeranno (seppur in polemica), mentre i più ingenui e gli “agnostici” ci linkeranno per via della forma della ricerca stessa, come suggerivo all’inizio.

Cosa comporta questo nella pratica? Vedo sempre più il processo di ottimizzazione dei motori di ricerca corrispondere con una strategia di marketing del sito web: fatta da sfumature, idee spesso che si escludono a vicenda, trovate adatte ad incuriosire i visitatori e molto altro. Questo, come si vede, tende a prescindere dalle tecniche utilizzate abitualmente, che certamente rimangono parzialmente valide ma che, a lungo andare, diventano limitanti e diffondono un’idea di SEO scialba, ingenua e soprattutto inutile. Inoltre è necessario pianificare correttamente le azioni che devono essere eseguite, per dare al cliente l’idea del lavoro che è necessario svolgere, prima di raggiungere il sospirato obiettivo: la prima pagina di Google, o anche “solo” un incremento di visite (e quindi di opportunità) o di conversioni (vendite). Questo aiuterà a sgombrare il campo dalle illusioni di avere vita facile, cosa che attanaglia moltissime persone che sono tuttora convinte, dopo aver letto in giro sul web, che il mondo dei motori di ricerca sia governato dal Nuovo Ordine Dofollow o dal famoso PageRank (ideato magari dalla CIA). Il webinar di qualche tempo fa, del resto, insisteva molto su questo concetto, e anche dal tipo di domande che mi sono state poste ho tratto la conclusione che sia necessario capire al 100% in cosa consista la nostra attività (pianificazione) prima di buttarsi a capofitto nelle solite illazioni pseudo-scientifiche proposte da SearchMetrics o da altri “degni compari”.

Shares