login
Inicia sessió

register
Registra't

marketingdigital.flog.cat

Lloc web, pàgines d'arxiu i Google

Lloc web, pàgines d'arxiu i Google

Una persona que executa un lloc web de WordPress i vulgui evitar el risc de contingut duplicat, és normal que es pregunti si el més correcte és utilitzar una etiqueta noindex en categories i arxius de pàgines, i si això afectaria directament la seva mitjana de trànsit.

Aquesta es presenta com una bona pregunta, és important que tot professional de SEO entengui i comprengui la forma en què funciona Google, com actua davant de contingut duplicats, etiquetes i arxius de pàgines.

En general, les pàgines no tenen per què sentir preocupació davant la idea que Google rastree alguns llocs web que no tenen valor algun. Les pàgines de fitxer, categories i els resultats de cerca que formen part de coneguts CMS com WordPress i Drupal no solen ser suficientment freqüents per tenir importància. La forma en què es rastreja i indexat, és que Google veurà algun valor, de manera contrario, això no passarà, pel que resulta innecessària aquesta preocupació latent dins del creador d'un lloc web.

Si es parla d'un lloc gran de comerç electrònic, amb una gran quantitat de productes publicats, això si pot arribar a convertir-se en un problema de major grandària, en voler orientar els rastreadores de Google a les pàgines que importen i esgoten coses sense aparent valor .

Páginas de fitxer, etiqueta metanoindex i bloqueig de robots.txt.

Per poder oferir una resposta completa a aquesta inquietud, s'ha de conèixer la diferència existent entre una etiqueta de metanoindex, pàgines de fitxer i el bloqueig de robots.txt.

Si es proporciona un comandament a l'arxiu robots.txt destinat a bloquejar l'accés de Google o d'altres rastreadores a les pàgines, s'evitava eficaçment l'ingrés. Al moment en què Google troba un lloc web que està bloquejat en robots.txt, no es procederà a executar el comandament "Obtenir" per obtenir accés al capçal de la pàgina. El que significa que, si al passar el temps decideix que la pàgina no hauria de ser indexada, o voleu presentar un altre estat, Google no serà capaç d'observar aquesta modificació.

Deberían limitarse, els comandos de Robots.txt, a pàgines que Google no podia notar d'una altra forma. No és bona opció bloquejar els fitxers de CCS o JavaScrip que resulten necessaris per a la representació adequada de les pàgines.

Existeixen certes diferències entre una etiqueta robots = noindex i el robots.txt, encara que és habitual que els professionals de SEO tractin igual. Entre aquestes es poden esmentar:

1-Encara que sigui una directiva de robots, la seva restricció és menor que robots.txt.

2-Noindex fa què ofereix, indicar-li a Google que no indexe, és a dir, que no es postula a la pàgina com a elegible per trobar-se en els resultats de cerca. Google seguirà recopilant les dades del lloc web i seguirà els enllaços, encara que això no passarà si la pàgina fa ús, a més, de Nofollow.

3-Si la pàgina fa ús de noindex i posteriorment pren la decisió d'enviar un redireccionament del costat del servidor o 404, Google serà capaç d'accedir al canvi realitzat del estat i podrà actualitzar-los de forma conseqüent.

font:posicionamiento web barcelona i consultor seo judith sauch.

Comentaris (0)06-09-2018 14:43:53

Escriu un nou comentari:

Comentari extern

Nom:


Registrar-me a flog.cat

Usuaris registrats

Usuari de flog.cat:

Contrasenya: