Nessuno di noi sa come funziona Google: eppure qualche ipotesi possiamo farla, ed è anche piuttosto realistica.Chiaramente questo genere di articolo si basa sulla mera speculazione personale, per quanto le basi metodologiche di cui parlo siano reali. Anzitutto, per non complicare troppo il discorso, direi di partire dall’assunto che ad influenzare i ranking ci siano principalmente i backlink al sito (non è così nella realtà, basti pensare ai posizionamenti su Google che variano anche quando non facciamo nulla lato SEO, oppure ci limitiamo ad ottimizzare un title o una description: ma è una semplificazione comunque accettabile). Si tratta di concetti che applico quotidianamente al lavoro SEO che sta prendendo la maggiorparte del mio tempo lavorativo, ovvero l’hosting Keliweb dove mi trovo attualmente in consulenza.




Ipotesi Zero: Google lavora su un modello di dati incompleto

Assumiamo che Google disponga di un certo numero di informazioni sullo stato dell’indicizzazione di ogni singolo sito (e questo è realistico perchè lo possiamo vedere nel WMT), e che tali informazioni siano verosimilmente incomplete: è questo uno dei punti chiave che a molti tende a sfuggire, specie qualora non abbiano una formazione prettamente ingegneristica. Durante la modellazione dei sistemi, in effetti, in molti casi esistono degli “ingressi nascosti” (abuso di un’espressione che significa altro, nella realtà), ovvero dei fattori che la nostra concettualizzazione, molto semplicisticamente, non sta considerando: eppure quei fattori “ignoti” intervengono nel sistema, e spiegano perchè, in molti casi, non riusciamo a capacitarci del perchè un ranking sia crollato e via dicendo. Google lavora su un modello di dati per forza di cose incompleto, non fosse altro che i dati (le pagine dei vari siti) vengono aggiornate in modo asicrono e non prevedibile: ci vuole tempo perchè il nostro articolo venga approvato, non sempre le directory approvano subito i nostri contributi e via dicendo.

Ipotesi uno: se è troppo semplice, è sbagliato

Si tratta di un’ipotesi per lavorare su un modello sostanzialmente a scatola chiusa, in cui non sappiamo nulla che non siano delle indicazioni che Google ci propone: usare title sensati, description utili, non forzare la link building e così via. Se esistesse un modo per posizionare un sito in modo elementare, come utilizzare almeno 7 link dofollow (scrivo a casaccio) con almeno 3 àncore corrispondenti ad una chiave di ricerca… lo farebbero tutti, tutti sarebbero soddisfatti del proprio ranking e non ci sarebbero le maree di discussioni sull’argomento che invece affollano blog, community e forum. Ergose un presupposto, una strategia o una teoria è troppo semplice, è in genere sbagliata.

Ipotesi due: spesso si confonde l’Emulazione con la Verità

Nella maggioranza dei casi i SEO non conoscono neanche il significato dell’Information Retrieval, il “recupero di informazioni” alla base del funzionamento dei motori, basato su complessi concetti di logica e statistica: si limitano invece ad emulare strategie proposte da altri, convincendovi che il modo sensato di lavorare sia corrispondente a quello del blogger con maggiore carisma (alla fine dei conti, questo è, purtroppo). Ma la realtà è che il modello migliore per lavorare nell’ottimizzazione dei motori di ricerca corrisponde realisticamente con un modello di “WEB sostenibile”: è semplicemente il buonsenso a suggerirlo, e questo si riconduce alla costruzione di “link naturali” di cui ho parlato in più occasioni. Se non fosse così, per assurdo, andrebbe rivoluzionata la definizione stessa di ipertesto, ma anche di àncora e pagina web proposta dal W3C, e formalizzata in migliaia di documenti sulla sintassi e sulla semantica dei contenuti.

Ipotesi tre: “immaginare” cosa faccia Google è da sfigati

Cosa faccia Google delle nostre pagine non è dato sapere: inutile propinare troppe masturbazioni mentali sul quando e sul come, quindi. Non è affatto detto, ad esempio, che un crawler che passa da un link ne consideri per forza di cose il contributo all’istante: per la stessa ragione i link nofollow hanno creato un gigantesco equivoco negli anni, proprio per questa smanìa di troppi SEO di giocare a fare “reverse engineering“. In effetti l’equivoco nasce dalla negazione del nofollow, della serie: Google invita ad usare onestamente l’attributo nofollow per taggare, ad esempio, i link affiliati. Nulla di strano, anzi nell’ecologia del WEB ci sta una meraviglia. Di conseguenza (?) secondo alcuni, che si sentono più furbetti degli altri, i link dofollow diventano automaticamente essenziali – neologismo convenzionale, questo del dofollow, molto infelice e del tutto inesistente nella documentazione ufficiale, alcuni addirittura arrivano a scrivere: rel=”dofollow”, una cazzata per cui prenderebbe un colpo a chiunque  – secondo altri sarebbero addirittura i soli che contano qualcosa per il ranking. Un’enormità, quest’ultima, facile da smantellare seguendo l’assunto di cui sopra: se fosse così, lo farebbero tutti, nessuno avrebbe problemi oppure, nella peggiore delle ipotesi, Google si accorgerebbe dell’inganno e la cosa smetterebbe di funzionare. Altro inganno è ingenerato dalla traduzione del termine: “nofollow” non significa “non seguire quel link”, bensì significa “non considerare a livello di PageRank” (che non è tutto ai fini del posizionamento, anzi), per cui di cosa stiamo parlando, esattamente? Sono arrivato a pensare, ed alcuni piccoli test hanno mostrato, anche se qualcuno non ci crederà, che si possa raggiungere la prima posizione anche sfruttando solo link nofollow. Il link è il cuore del WEB, e non deve essere demonizzato o osannato: deve, semplicemente, essere preso per quello che è. Google, nella nostra ottica, sta diventando sempre più bravo a capire “quanto conta” quel link per l’utente umano.

Ipotesi quattro: non è detto che tutti i backlink siano considerati

In effetti sono piuttosto convinto, analizzando i link profile con cui ho avuto a che fare in questi anni, che non tutti i link “pesino” nella valutazione: alcuni secondo me sono del tutto ignorati, e questo sulla base di un meccanismo che potrebbe funzionare basilarmente in due modi contrapposti, entrambi euristici (ovvero approssimati).

  1. Un modello statistico che ignora una percentuale di link – secondo criteri basati su distribuzioni statistiche oppure addirittura casuali – in modo da alleggerire il carico di lavoro delle macchine, e favorire una valutazione più veloce del ranking di una pagina;
  2. un modello “a soglia” che stabilisce, ad esempio, quale numero minimo (o massimo) di backlink sia “doveroso” considerare o meno. La soglia minimale potrebbe derivare da un criterio di qualità delle pagine, a noi del tutto ignoto, difficile da immaginare peraltro perchè in beta perenne da anni.

Ipotesi cinque: Google dovrebbe clusterizzare le tipologie di siti ed utilizzare modelli “ad apprendimento”

Per spiegare rapidamente cosa intendo: non tutti i siti vengono valutati nello stesso modo, quindi ogni tipologia (ad esempio e-commerce, adult oppure blog) viene valutata secondo criteri a se stanti. Questo è uno dei motivi per cui, ad esempio, è impossibile stabilire “il valore di un link” in assoluto. I modelli ad apprendimento sono quelli utilizzati per effettuare una ulteriore clusterizzazione (ovvero raggruppamento in base a determinate caratteristiche): Amit Singhal (oggi chi lo ricorda? Era sulla bocca di tutti fino a qualche tempo fa, durante l’ennesima “gossippata” SEO) ha fatto uso di una terminologia simile, mutuata dall’intelligenza artificiale, per definire la classificazione di pattern (nello specifico, di pagine web):

Si può immaginare un mucchio di punti in un iperspazio, alcuni di essi sono rossi, altri sono verdi, e in altre zone sono misti. Il tuo compito è quello di trovare un piano che possa suggerire che tutto ciò che sta da un lato è per maggioranza rosso, e tutto il resto del piano l’opposto di rosso

Nella pratica questo significa che un “separatore” sempre più raffinato permette di discernere in automatico lo spam dalle pagine buone, i duplicati dagli originali e via dicendo. E qui mi fermo: come al solito non vorrei che le mie parole venissero travisate, come se fossi il portatore di chissà quale verità. Cosa ne pensate?


Visita anche:

Vota!

Commenta il post qui sotto o abbonati al feed RSS per non perderti i prossimi articoli. Se hai una domanda, puoi porla nel nuovo forum! Prima di commentare, leggi le regole del blog