2 aprile 2007 | |

I nuovi ‘algoritmi’ di Google secondo La Repubblica: parliamone

L’odierno inserto Affari & Finanza dedica molto spazio ai “nuovi” algoritmi di Google. L’articolo rivela però una certa dose di approssimazione, con inesattezze che se possono essere veniale per una lettura superficiale al bar, prese alla lettera diventano vere e proprie inesattezze. Vediamo un po’ in dettaglio la cosa, in corsivo il testo pubblicato sul’inserto.

I nuovi ‘algoritmi’ di Google: per passare in testa alle selezioni bisogna essere scelti dal pubblico. Il meccanismo automatico, recentemente perfezionato, prende in considerazione solo le preferenze degli utenti per identificare i siti

In realtà tale meccanismo, denominato Google Co-Op, è ancora in via sperimentale e al momento funziona per un numero di ricerche infinitesimale rispetto ai miliardi di ricerche effettuante quotidianamente con Google.

L’attenzione alle keyword non conta nulla: pesano i contenuti reali che sono presenti nelle pagine di un sito spiega Massimiliano Magrini, responsabile italiano del motore di ricerca

Non è così, se nei contenuti non sono presenti le keyword, per Google è impossibile stabilire una corrispondenza con le parole chiave digitate dall’utente. Magrini evidentemente si riferisce a keyword nascoste (spam), e infatti un’altra sua frase riportata nell’articolo lo conferma: La rilevanza è l’elemento fondamentale alla base del processo di ranking: maggiore è la rilevanza tra i contenuti di un certo sito e i termini indicati dagli utenti nel corso delle ricerche, tanto più alte saranno le possibilità di vedere apparire quel sito in cima alla lista dei risultati di ricerca. Più chiaro di così…

Non necessariamente alti indici di traffico da parte della rete garantiscono un posizionamento migliore nelle pagine di risposte fornite dai megacomputer responsabili dell’indicizzazione dei contenuti.


Quando mai il traffico ha garantito alti posizionamenti ? Non c’è alcun legame tecnico. Molti siti hanno alto traffico perchè sono ai primi posti dei motori di ricerca e non viceversa.

Google utilizza un proprio algoritmo per indicizzare i siti web esistenti in rete e, di conseguenza, i loro contenuti: è la nuova frontiera di Internet, quella del web semantico.

Magari gli algoritmi di Google fossero semantici! I motori di ricerca non sono ancora in grado di distinguere il significato di una ricerca, basta provare a digitare “madonna” in Google Images.

Continua Magrini: «Le attività di web marketing che funzionano sono quelle che permettono di creare siti interessanti e usabili che incontrino il favore degli utenti sul lungo periodo. Chi cerca di fare il furbo viene sanzionato immediatamente esattamente come succede nella comunità dei navigatori di YouTube».

Magari fosse vero… Google ha validi sistemi per scovare lo spam, ma ci sono continui casi di spammatori che riescono a posizionarsi per parole chiave anche molto difficili. D’accordo non alimentare panico, ma stiamo attenti a quello che clicchiamo cercando in Google !

Un sito molto linkato da altri siti, giornali, blog, avrà più possibilità di salire in graduatoria rispetto a chi non ha saputo creare tale interesse nei confronti di chi va online. Per poter incidere su queste logiche non serve assoldare blogger o mettere a punto software sofisticati che ordinano alle macchine di cliccare in automatico un certo indirizzo del web: bisogna produrre buoni contenuti e proporli tecnicamente in modo usabile.

Finalmente, in chiusura di articolo, ecco un’affermazione che corrisponde all’attuale situazione, che merita dunque di essere evidenziata. Gli studi di psicologia cognitiva dicono che i lettori ricordano molto di più le ultime frasi di un articolo. Speriamo che valga anche per quelli di Repubblica!

Rimane però un dubbio… se i “nuovi algoritmi” di Google sono così avanzati, perchè come motore di ricerca interno il sito di Repubblica utilizza il rivale Yahoo ?


Be Sociable, Share!