Buscadores
Directorios y Motores de búsqueda son las principales herramientas de búsqueda en la Web. Sin embargo, también existen otro tipo de herramientas que funcionan como intermediarios en la recuperación de información, ya que actúan como interfaz único a múltiples motores de búsqueda. Se trata de los multibuscadores y metabuscadores que no son buscadores en sí mismos aunque se basen en ellos y su interfaz suele ser similar a la de los índices temáticos o motores de búsqueda. Estas herramientas no buscan por sí mismas, sino que limitan a pedir a otros que busquen por ellos.
Podemos distinguir:
Los multibuscadores se limitan a colocar en una página web una lista con los buscadores más comunes y con una ventana de texto para poder enviar la cadena de búsqueda introducida por el usuario a cada uno de ellos. También pueden enviar la cadena de búsqueda a una serie de motores de búsqueda e índices temáticos previamente definidos. Una vez realizada la consulta a los buscadores prefijados, el multibuscador devolverá la información de todos los enlaces encontrados. Con la utilización de multibuscadores, el usuario se evita tener que ir de buscador en buscador hasta encontrar la información deseada. El usuario elige los buscadores que quiere utilizar y desde allí realiza su consulta que ofrecerá las respuestas buscador por buscador. La única ventaja es la posibilidad de consultar un gran número de buscadores partiendo de una única página. La exhaustividad primará sobre la precisión, ya que el usuario encontrará un gran número de enlaces y muchas páginas repetidas. Un buen ejemplo de multibuscador es el ofrecido por CyberJournalist: http://cyberjournalist.ourtoolbar.com/xpi
Los metabuscadores también permiten buscar en varios buscadores al mismo tiempo. Los metabuscadores no almacenan las descripciones de páginas en sus bases de datos, sino que contienen los registros de los motores de búsqueda y la información sobre ellos, adecuando su expresión a los diferentes motores para remitir la consulta a los motores. Una vez que reciben la respuesta, la remiten al usuario no directamente, sino tras realizar un filtrado de los resultados. Este filtrado consiste en eliminar y depurar los enlaces repetidos y en ordenar los enlaces. Además, sólo aparecerá un número limitado de enlaces, los que se consideren más importantes. Los más repetidos ocuparán los primeros puestos ya que el metabuscador considerará que son los más relevantes por estar dados de alta en mayor número de buscadores. Se trata de herramientas muy útiles, el único problema es que, por lo general, no permiten realizar búsquedas tan avanzadas como en un motor de búsqueda, con lo que las consultas tienen que ser generales y no se puede buscar en profundidad.
Directorios o Índices temáticos
Los directorios son listas de recursos organizados por categorías temáticas que se estructuran jerárquicamente en un árbol de materias que permite visualizar los recursos descendiendo desde los temas más generales situados en las ramas superiores, a los temas más específicos situados en las ramas inferiores. Las categorías ofrecen una lista de enlaces a las páginas que aparecen referenciadas en el buscador. Cada enlace también ofrece una breve descripción de su contenido. Así pues, los directorios o índices se estructuran por temas o categorías principales que, a su vez, contienen otras subcategorías, y así sucesivamente hasta que al final se ofrecen enlaces directos a otras páginas o recursos de Internet.
Motores de búsqueda
La diferencia fundamental entre un índice y un motor de búsqueda es que mientras los índices mantienen su base de datos “manualmente”, utilizando para la inclusión de las direcciones a sus empleados o a los propios internautas que dan de alta sus páginas, los motores de búsqueda emplean para ello un robot de búsqueda. Estos robots no son otra cosa que potentes programas que se dedican a recorrer la Web automáticamente recopilando e indizando todo el texto que encuentran, formando así enormes bases de datos en las que luego los internautas hacen sus búsquedas mediante la inclusión de palabras clave. Los robots recorren los distintos servidores de forma recursiva, a través de los enlaces que proporcionan las páginas que allí se encuentran, descendiendo como si de un árbol se tratara a través de las distintas ramas de cada servidor. Luego, periódicamente, visitarán de nuevo las páginas para comprobar si ha habido incorporaciones o si las páginas siguen activas, de modo que su base de datos se mantenga siempre actualizada. Además, estas actualizaciones se realizarán de forma “inteligente”, visitando con más asiduidad aquellos servidores que cambien más a menudo, como por ejemplo los de los servicios de noticias.
|
No hay comentarios:
Publicar un comentario