Ho già espresso la mia personalissima opinione sul fatto che Google debba modificare presto alcuni dei criteri di ranking se vuole restare al passo con le dinamiche dell’informazione sul web e rimanere il primo motore di ricerca.
Ci ritorno con una domanda che non va presa come tecnica, SEO (adesso Google indicizza e da un ranking ai tweet? è poi così importante indicizzare miliardi di messaggi da 140 caratteri?).
La domanda è: ha un senso penalizzare i contenuti duplicati quando, con il diffondersi della “condivisione” sulla rete, questi spesso rappresentano proprio il successo dell’informazione contenuta?
Questa domanda la potrei aggiungere alle 10 domande sul futuro dei motori di ricerca che avevo già posto. Anzi, va a completare la domanda 2: “Quando l’informazione è quantitativamente eccessiva quali sono i modi per filtrarla? Eliminare i contenuti duplicati?”
Fino a poco tempo fa avevo sul mio blog, sulla colonna destra, una lista di articoli di altri blog che ritenevo interessanti. L’ho rimossa anche nel dubbio che il “ripubblicare” parte di materiale che ritenevo degno di nota potesse essere penalizzante per gli autori. Non so se potesse essere. Ma nel dubbio, visto che riguardava penalizzazioni non solo a mio carico, ho rimosso. E’ questa la SEO?
Su Twitter, se pubblico una notizia interessante questa verrà immediatamente “duplicata” in un re-tweet. Il re-tweet è l’indice di successo di un micro-post. Un criterio valido solo per il micro-blogging?
Human Search Optimization
Non ho mai troppo amato il termine SEO perchè l’idea di una Search Engine Optimization si scontra con la mia idea che le macchine debbano essere d’aiuto agli uomini e non viceversa. L’idea di una pagina che sia ottimizzata per un motore di ricerca e non per l’utente non mi piace.
Questo non significa che la SEO sia tutta da buttare. Anzi. Seguendo i principi di ottimizzazione spesso si ottengono pagine ben strutturate che aiutano l’utente a trovare quello che cerca. Ed è quello che, nei miei lavori, cerco di fare: scrivere titoli e meta-description che descrivano bene il contenuto, evitare di ripetere la stessa parola cento volte ma tentare di trovarne anche dei sinonimi, classificare la notizia secondo categorie o tag utili a individuare notizie correlate.
Realizzare una buona Human Search Optimization non è facile. E’ certamente più difficile che seguire regole SEO più o meno conosciute e/o abusate. Un sito HSO deve aiutare una intelligenza umana a individuare rapidamente il contenuto e a classificarlo.
I motori di ricerca devono essere intelligenze artificiali plasmate sulla nostra intelligenza e sui nostri criteri di valutazione. E allora la domanda finale è: una notizia riportata molte volte, ripetuta, duplicata (magari anche copiata e rubata) è indice che è importante o no?