A través de una entrada de Matt Cutts me entero de las posibles acciones que podría tomar Google con las páginas de resultados que pueden ser indexadas por su robot.
Si yo busco información sobre un libro en Google, me pueden salir dos cosas:
- Un sitio donde se habla sobre dicho libro
- Un listado de webs donde se habla sobre ese libro
Teniendo en cuenta que yo ya buscaba resultados en el propio Google, que una lista de resultados dirija a su vez a otra lista más podría considerarse redundante. Y a Google no le gusta eso.
La solución infalible según Matt Cutts es modificar el fichero robots.txt
y añadirle instrucciones para que no se detecten las páginas de resultados. A priori parece algo lógico y que puede eliminar mucha redundancia. Pero no es oro todo lo que reluce, porque si Google comienza a penalizar a las webs que no bloquean el acceso del robot a las páginas de búsqueda va a suponer trabajo extra.
Creo que Matt se olvida de la utilidad de ciertas páginas de resultados, como una lista de libros en Amazon, o una lista de llaveros USB en una tienda de informática. No creo que sus respectivos sitios deban ser penalizados por incluirlas, ya que contienen información de utilidad. Pero aún tiene que dar muchas vueltas este tema.
¿Deberíamos restringir con el robots.txt
el acceso a las páginas de resultados?
Search results in search results (vía search engine land, a su vez vía Techmeme).