::Trucos de google - buscadores y gestion documental

google en español, posicionamiento en buscadores, findability y gestión de contenidos

:: 7/31/2002 | enlace del articulo |

Google en Agosto.. ¡¡ del 2009 !!

Ahí va el último post hasta Septiembre. Una amiga me acaba de pasar algo increíble, ¡la leche!: un largo artículo a modo de cuento de ficción, que imagina en qué puede llegar a convertirse google en el año 2009, ¿por qué no? Además, si no sabes lo que es, de paso explica muy muy bien lo que es y lo que puede hacer por tí, por mí, y por Amazon, la web semántica. Alucino en colores la peña que hay por la Red y lo que saben.

Impresionante ejercicio de condensación de teorías, metadatos, XML, Inteligencia artificial, nueva economía y google. ¡Ojo! en ingles. No tengo palabras, para imprimírselo y leérselo despacito; como el resto del weblog. Ahí va, un regalito para estrujarse las meninges:

August 2009: How Google beat Amazon and Ebay to the Semantic Web

Un abrazo y buen verano,

| enlace del articulo |

Si optimizas en buscadores, usa metatags

Para los que quieren que su web sea la primerita que sale en las respuestas de google. ¡Que aproveche!

PREGUNTA:

Estoy intentando optimizar una web para que aparezca en los buscadores entre las primeras respuestas. He leido hace tiempo que Google pasa de las meta-tags, keywords y description, ¿Es cierto? ¿Y el resto de buscadores (yahoo, altavista, etc.)? ¿Usan estas meta-tags? ¿Sirven para algo?

RESPUESTA:

Respecto a lo de google, sí, cierto, cierto, no usa las metas, pero eso no debe hacerte pensar que no son importantes, qué va qué va. Pero vamos por partes.

¿Por qué google no las usa? Porque se percataron de los tejemanejes que empezaba a llevarse la peña para cambiar los pesos de las keywords, esto es, la relevancia que un buscador otorgaba a una página web para una determinada query (búsqueda). Como suele pasar, una buena idea se pervirtió, y el algoritmo de google no se diseñó para dejarse engañar por esas trampas, de ahí que todo el peso de su filosofía de establecimiento del ranking de una página, de la relevancia/interés/importancia que google piensa que tiene ante una pregunta, está puesto en los links que apuntan a tu web, un método en principio más democrático y en principio, científico (siguiendo el análisis de citas de las leyes de la bibliometría de toda la vida; ya sabes, unos pocos científicos son muy citados, muchos científicos son poco citados. El que tenga más citas, es el más valorado)

Pero ten en cuenta que cuando buscas ser más visto en google, has de recordar que no es el único buscador de la tierra, ni está sólo. Ojo: juega bien tus cartas con otros buscadores, y a largo plazo verás los resultados en google. Y el corto plazo no es bueno cuando optimizas una web. Ser más visto en otros hará que más gente te linke, y al final, eso se verá recompensado en google. Y ahí sí te valen las metas, y mucho.

Para que veas la interrelación de los buscadores te aconsejo este estupendo gráfico de interrelaciones de Bruceclay.

Si quieres averiguar qué metas te pueden interesar, te recomiendo esta herramienta gratuita del buscador Overture que te da keywords relacionadas por orden de frecuencia de búsquedas.

No es bueno pensar que sólo me debo concentrar en una palabra superpopular, ni que la única página que merece la pena optimizar es la home. Piensa en TODA la web, y que muchas palabras no tan buscadas te harán la vida más fácil, y finalmente, te ayudarán a mejorar tu posición para esa superkeyword.

Conclusión: al final, lo más importante es un buen contenido, que tenga mucho que ver con las metas, buenas metas, y buenos links, que no muchos.
¿Por qué buenos y no muchos? Jeje, para otro día...

NOTA: No puedo demostrarlo con hechos porque la web que antes optimizaba la han finiquitado, pero vaya, creedme si os digo que yo he jugado sólo con metas, y se consiguieron varios ranking 3 en google, sin un sólo link directo, para alguna palabra relativamente popular. Pero claro, con la palabra "sexo" ni de coña, ya
me entendeis.


:: 7/25/2002 | enlace del articulo |

Qué hacer cuando google indexa una versión vieja de mi web
PREGUNTA:
"¿Por que varias veces durante un mes toma la última actualización que hice con respecto al título y la descripción del día anterior y luego vuelve a una version anterior?"

RESPUESTA:
Por lo que he leído en su ayuda para webmasters, Googlebot, el robot de google, sigue periódicamente todos los links de su base de datos, para reconocer actualizaciones, nuevas webs, nuevos contenidos, etc. Si en un momento dado sigue un link que apunte a una versión antigua de tu web, seguirá ese rastro y tome la web antigua como la actual. Es probable que ese sea el problema. Pero si alguno tiene alguna respuesta mejor, por favor, no dude en compartirlo.

Lo más conveniente es asegurarse de que las webs que te linkan lo hagan a tu versión más moderna, bien no cambiar de versión, jejeje. Tanto para saber qué te cuenta la ayuda de google al respecto, como para reconocer quienes apuntan a tu antigua versión, en su FAQ para Webmasters, apartado A, punto 2, te explican cómo funcionan y lo que puedes hacer.

Espero que sirva.

| enlace del articulo |

Cómo controlar a un buscador cuando indexa mi web

A veces no aparece todo nuestro contenido en las respuestas de los buscadores, o hay partes de la web que no son tomadas en cuenta. Hay varias razones, pero para empezar, podemos pensar que muchos problemas relacionados con la calidad de la indexación de nuestro web por parte de los motores de búsqueda, vienen dados por la mala o nula gestión del fichero robots.txt de nuestro servidor.

Robots.txt es un archivo de los muchos que hay en el software que gestiona nuestro servidor (ubicado por ejemplo en http://www.tu dominio.com/robots.txt). Identifica a los robots, y les indica qué pueden o no visitar del árbol de tu directorio de ficheros.

También es recomendable ayudarse de los metatags, que pueden indicar si el robot puede indexar y/o seguir visitando ese directorio, o cada cuánto la página hace un "refresh", informando al robot buscador (en el caso de google, googlebot) de tu periodicidad de inclusión de contenido novedoso.

Ojito con eso, porque si le ponemos un refresh muy rápido, puede ser que a los buscadores no les guste, y te penalizen, bien bajándote en los puestos de ránking, bien incluso eliminándote de su base de datos.

Ahí va un poco de información para los que quieran controlar al detalle cómo visitan los robots nuestro sitio web, no sólo google, todos; si vamos a enseñarles todo nuestro contenido, o hay apartados privados (sobre todo para extranets de portales corporativas) que no queremos que sean indexados por los robots. Hablan exactamente de cómo funciona el protocolo de exclusión de robots (Standard for Robot Exclusion), y el fichero robots.txt. Espero que sirva:

Más información:

FAQS de google para Webmasters

The Web Robots Pages

Search Indexing Robots and Robots.txt - SearchTools.com

Robots.txt File Tutorial


:: 7/19/2002 | enlace del articulo |

Servicios de información para el ciudadano

Para terminar con el temita del desastre de servicio al usuario del INEM, otro tanto podemos decir de la "ventanilla única" que con tanto bombo y platillo se anunció, administracion.es. Para todos aquellos que no se dediquen a esto quizá no sea tan conocido el hecho de que este servicio es otro desastre más.

El sitio administracion.es se creó en teoría para que los ciudadanos conectados (cada vez más) pudieran perder menos tiempo en solventar sus cuestiones administrativas. Si no han visto el sitio, háganlo. Para partirse.

En su lugar, un conjunto de profesionales de la usabilidad, han realizado una propuesta de rediseño orientada al usuario, pensada para que cada cual encuentre lo que necesita perdiendo el menor tiempo posible. Pueden discutirse los detalles, pero no así la sana intención de crítica constructiva. Muy recomendable su estudio para aquellos que queremos diseñar servicios de información que sirvan para algo.

Más información:

-cadius.org, que acoge a la mayor lista de correo de arquitectos de información de habla hispana.
-terremoto.net, weblog dedicado a la arquitectura de información, usabilidad, diseño, para leer y leer y no parar...
-ainda.info, excelente web personal de Eduardo Manchón, una joya. Este "trucosdegoogle" es una patata en comparación.


:: 7/16/2002 | enlace del articulo |

Si no hay trabajo en el INEM, en ¿América?

¡Arrea! Esta sí que es buena. Acabo de leer en channel3000 que en los USA empiezan a faltar bibliotecarios y gestores de información. Por si alguno está interesado, lo tenéis en Who Will Run The Libraries?


:: 7/15/2002 | enlace del articulo |

Encontrar trabajo en... ¿¿el INEM??

No, no, no es un truco de google, ya me gustaría a mí. Todavía estoy esperando que el INEM me llame para darme curro, jajajaja.Como gestor de información, me dedico a eso, a intentar que la gente encuentre lo que necesita en su trabajo, organizando su información. Por eso me ha parecido interesante contaros una anécdota que refleja muy bien lo horríblemente mal que gestiona su información... el INEM.

Resulta que han cerrado mi sección de Planeta en la que trabajaba para el portal Temalia.com, y nos han echado a todos (en las redes hay comunicados que aseguran que nos están recolocando, je, no os creáis ni una palabra) Afortunadamente ya he encontrado trabajo como arquitecto de información para districtedigital.com.

El caso es que me voy al INEM para solicitar la prestación por desempleo, y para empezar me entierran a base de papeleo. ¿Para qué están las bases de datos distribuídas? ¿Para qué rellené yo todo lo que rellené la última vez que estuve? En pleno siglo veintiuno siguen pidiéndome fotocopias de todo otra vez, rellenar triplicados ¡¡con papel autocopiable!! volviendo a poner todos los datos que ya he puesto diezmil veces y que tienen en 30 bases de datos de cualquier ministerio. Pero eso no es lo mejor.

Cuando ya lo tengo todo, resulta que no me pueden pagar en mi cuenta la prestación, porque la cuenta en la que quiero que me ingresen el dinero está abierta fuera de Barcelona. ¡Tuve que abrirme una libreta completamente nueva en Barcelona, aunque la entidad era para empezar catalana, y tenía delegaciones hasta hartarte en Cataluña, obviamente!

Como es lógico semejante actitud hiper-localista no era cosa de la entidad financiera, que fueron muy amables conmigo y menearon la cabeza incrédulos (tuvieron que llamar dos veces porque no se lo podían creer, que yo tuviera que iniciar todo ese proceso por algo así), ni es una cuestión catalana. Esto ocurre en toda España, y es que el sistema no permite, no puede reconocer una cuenta abierta en otra ciudad que no sea aquella en la cual uno pide la prestación. ¡¡¡Ole el fomento de la movilidad geográfica!!! En los tiempos en que podría irme a trabajar a Alemania, toma ya, ahora te chinchas. Sólo faltaría que no pudiera sacar el dinero de la prestación en otro cajero que no sea de la ciudad, para que así no puedas buscar trabajo fuera y estés más en el paro, etc. En fin, si alguien sabe por qué demonios ocurre esto, que me escriba, por favor.

A priori la anécdota, como diseño de la arquitectura de base de datos es irrisoria, pero como servicio al ciudadano es insultante, patético, una vergüenza. He tardado un mes en darme de alta de nuevo en el Inem, a base de "vuelva usted...la semana que viene". Sólo queda el derecho al pataleo virtual, por ejemplo, aquí. Ya me perdonaréis no haberos contado ningún truco. Afortunamente trabajaré en breve y ¡horror! tendré que ir de nuevo a darme de baja. ¡Qué pérdida de tiempo, cuando sólo debería modificarse un estado de una base de datos: ¿Trabaja? SI/NO

Por si alguno quiere quejarse de una forma más real, podéis hacerlo en su libro de quejas.

No me extraña que triunfe una web como infojobs, cuando no debería ni existir...

Otro rato, más truquillos, de veras. ¡FELIZ VERANO!