Nonostante Google abbia assicurato di avere strumenti abbastanza intelligenti da capire la migliore pagina da visualizzare nella SERP qualora sia costretta a scegliere da una lista di contenuti duplicati, questo problema, lato SEO, porta sicuramente delle conseguenze negative.
Se leggete questo blog da un pò di tempo (tiratona d’orecchi in caso contrario eh eh) avrete notato come in passato l’argomento é stato affrontato sia nell’elencare strumenti utili per individuare contenuti duplicati e sia parlando in dettaglio del Tag Canonical messo a disposizione in html da Google proprio per questo scopo.
Ciononostante mi sembra utilissimo riprendere questo articolo di SEOmoz in cui sono riassunti i diversi modi per risolvere problemi di contenuti duplicati, le differenze fra le varie modalità e i relativi vantaggi e svantaggi in modo da provare, voi stessi, a giudicare quale sia il metodo migliore da utilizzare per la situazione specifica.
Tag Canonical
Si tratta della soluzione migliore da utilizzare, come sottolineato nell’articolo dedicato, quando diversi path conducono allo stesso identico contenuto. Questo accade soprattutto in siti di e-commerce che mettono in vetrina prodotti la cui pagina é raggiungibile da diversi path o tramite varie ricerche oppure può accadere utilizzando alcuni CMS che creano, nelle URL, alcune variabili poco utili come nell’esempio sottostante o altro :
http://www.example.com/path/file.php?var1=x&var2=y
http://www.example.com/path/file.php?var2=y&var1=x
Redirect 301
Soluzione decisamente più specifica nel caso di pagine raggiungibili allo stesso modo con o senza il www (www.example.com e example.com) o in caso di trasferimenti di domini o di semplici contenuti. Come sapete, tutto avviene a livello di file .htaccess e a questo link trovate un’ottima guida qualora vi occorra approfondire l’argomento.
Meta Robots NoIndex/Follow
Probabilmente si tratta della soluzione migliore da applicare in un blog o sito web laddove un post é visualizzato più volte (e, quindi, duplicato) in un archivio dove l’utente può ricercare per data, categoria, autore ecc.
In tal caso, il redirect non avrebbe significato né tantomeno lo avrebbe l’inserimento del tag canonical essendoci, nella stessa pagina (come accade spesso nel consultare un archivio), più di un post elencato. Basta pensare ad una ricerca effettuata per autore, ad esempio. Solo evitando l’indicizzazione di queste pagine si evita di avere contenuti duplicati.
Lasciata per ultima, come soluzione, perchè é la più datata e la meno consigliata. I vari search engines che scansionano il file robots.txt potrebbero trovare al suo interno URL bloccate e da non indicizzare. Si tratta, come é intuibile, di una soluzione drastica a dir poco e il problema potrebbe nascere qualora le varie url bloccate direttamente da file robots.txt siano linka
Leggi dall'autore
0 commenti:
Posta un commento