Fare SEO oggi: contenuti di qualità, esigenze degli utenti

Tempo stimato di lettura: 3 minuti, 18 secondi
Pubblicato il 17 novembre 2011

Il campo della Search Engine Optimization si muove in modo assai frenetico: spesso è facile vedere cambiamenti nel modus operandi dei motori di ricerca, ad esempio, che lasciano intuire che qualcosa stia ogni volta cambiando. Leggere i vari blog sull’argomento produce sempre un effetto positivo sulla creatività e sul sapere inventarsi soluzioni nuove: tuttavia sta di fatto che molte pratiche classiche nel settore stanno inesorabilmente perdendo valore.

Una di queste riguarda la logica di monitoraggio del posizionamento del proprio sito, che non deve più essere vissuta in modo ossessivo, ma va bilanciata con una serie di fattori nuovi. I risultati delle ricerche, infatti, stanno perdendo la propria valenza assoluta, ovvero ogni utente vede risultati diversi per le stesse ricerche, e di fatto può:

  • decidere autonomamente cosa escludere dai propri risultati, bloccando definitivamente i siti indesiderati anche quando semplicemente di scarso interesse;
  • visualizzare facilmente eventuali risultati che sono stati promossi da qualche utente delle nostre cerchie (+1);
  • segnalare i siti che siano potenziale spam, il che si aggiunge al lavoro di quality rating umano su cui Google sta puntando da qualche anno.

Al tempo stesso dal punti di vista dei webmaster:

  • parte consistente delle chiavi di ricerca dei Google Analytics sono state clamorosamente nascoste (in particolare quelle provenienti da altri utenti di Google);
  • il tool per la ricerca di Google Adwords visualizza i suggerimenti in termini generici di bassa, media ed alta concorrenza;
  • il Webmaster Tool rimane l’ultimo (e forse l’unico) appiglio per visualizzare le statistiche dei propri siti, che Google ci tiene molto a far rimanere private per ogni gestore di sito. A tal proposito bisognerebbe ricordare che le informazioni sugli accessi ai siti della concorrenza, offerti da numerosi portali free e a pagamento, dovrebbero essere accolti con il beneficio del dubbio poichè si tratta di dati di provenienza quantomeno dubbia.

Non ci vuole certo un guru per intuire che queste nuove caratteristiche, tutte di quest’anno, pongano le esigenze reali dell’utente al centro dell’universo, e che tutto il resto – almeno sulla carta – diventi semplicemente irrilevante. In altri termini, anche se riuscissimo a fregare il motore di ricerca e a comparire nella prima pagina quando non ce lo meritiamo, se abbiamo poco valore aggiunto gli utenti finirebbero per punirci vanificando i nostri sforzi. Di conseguenza, mentre Google Panda è diventato l’argomento dell’anno, e nell’attesa che la Dreamworks esiga i diritti d’autore sull’utilizzo – da parte del 90% dei blogger – dell’immagine di un loro celebre personaggio (sono ironico, ma non troppo), si materializza un nuovo modo di fare SEO riassumibile, a mio parere, nell’idea che non abbia più valore provare a “fregare” i motori di ricerca.

Costruire backlink a raffica, incrementare la propria popolarità in modo artefatto o spammare i propri contenuti sui social network può essere (forse) utile nella fase iniziale di promozione di un sito sconosciuto, ma non può (e non deve) diventare una strategia a lungo termine. Una delle cose che mi ha più colpito dall’avvento di Panda update, per la cronaca raramente supportato da dati credibili che ne testimonino l’impatto, è il fatto che abbia scoperto gli altarini, e mostrato chiaramente su cosa lavoravano molte persone: stuffing di parole chiave, copia di articoli, contenuti costruiti su piccole variazioni nel testo, articoli scadenti con ripetizioni ed errori e via dicendo. Uno scenario francamente deprimente, e per rendersene conto basta provare ad usare Google Alert sulla propria parola chiave preferita e vedere coi propri occhi la bassa qualità che – troppo spesso – esce fuori.

Dicevamo, siti che siano molto utili agli utenti: probabilmente si tratta dell’aspetto più interessante dell’approccio alla SEO di questi mesi, ma si tratta ancora di qualcosa che suona estraneo a molti webmaster, specie quando (come nel mio caso) possiedono un background prettamente informatico. Essere troppo attaccati alle logiche di implementazione, trovare automazioni per falsare i risultati col minimo sforzo e vedere blogger che promettono che “d’ora in poi” produrranno contenuti di qualità fa sorgere una domanda un po’ sgradevole: ma queste persone su cosa hanno lavorato finora?

  • Questo mito del “background informatico” mi pare che sia da sfatare. Semmai, c’è un certo aiuto a comprendere certi risultati; la ripetizione automatizzata è inutile, ma conoscere i linguaggi di programmazione e tutto ciò che ne viene dietro, aiuta ad utilizzare gli strumenti di WMT.

    Con in testa “qualità per l’utente e non per il bot”, la SEO “informatizzata” aiuta a completare il distacco tra il mondo reale (l’utente) ed il SEO-ese

    • ciao Andrea,

      il tuo commento è stato forse troncato (“ed il SEO-ese…”) non riesco a leggerlo tutto… comunque sì, la mia idea è che sia un errore grossolano applicare le logiche programmative classiche o procedurali (Java, PHP, object oriented, …) immaginando che un motore di ricerca faccia le stesse cose e per questo (e solo per questo) si possa facilmente falsificare o manipolare. I motori si basano su assunti in partenza completamente differenti, tra cui il fatto che devi disporre di un modello statistico o matematico coerente per la rappresentazione dei dati anche solo per iniziare a discutere… e visto che in pochi possono farlo e costa tantissimo impostare il discorso così, tanto vale focalizzarsi sulle necessità degli utenti visto che sono loro, alla fine, il vero valore aggiunto di ogni sito.

Shares