Ahora esta pregunta puede ser fácilmente respondida en 5000 palabras. Se han escrito libros sobre este tema. Pero el punto es que quiere conocer en profundidad? Lo único que importa es algunos datos interesantes para impresionar a tus amigos. Hay una hermosa flash que describe el proceso de trabajo google. [Para ver, haga clic aquí] El flash da una veraniega de todo el libro en 2 minutos entity.Really audiovisual interesante ver.
Si usted no está interesado en aprender cómo Google crea el índice y la base de datos de los documentos que se accede cuando se procesa una consulta, omita esta descripción. Google se ejecuta en una red distribuida de miles de computadoras de bajo costo, por lo que puede llevar a cabo el procesamiento en paralelo rápido. El procesamiento en paralelo es un método de cálculo en la que muchos cálculos pueden realizarse de forma simultánea, lo que acelera significativamente el procesamiento de datos. Google tiene tres partes bien diferenciadas: 1.
Googlebot, un rastreador web que encuentra y recupera páginas web. 2. El indexador que ordena cada palabra en cada página y almacena el índice resultante de las palabras en una enorme base de datos. 3. El procesador de consultas, que compara su búsqueda al índice y recomienda los documentos que considere más relevantes. Echemos un vistazo más de cerca a cada parte. 1. Googlebot, Web de Google Crawler Googlebot es robot de rastreo web de Google, que encuentra y recupera páginas en la web y las manos de encima a la indexador Google.
Es fácil imaginar el robot de Google como una pequeña araña corriendo por los mechones del ciberespacio, pero en realidad Googlebot no atraviesa la web en absoluto. Funciona muy parecido a su navegador web, mediante el envío de una petición a un servidor web para una página web, la descarga de toda la página, a continuación, la entrega fuera de indexador de Google. Googlebot se compone de muchos equipos que solicitan y ir a buscar páginas mucho más rápido de lo que puede con su navegador web. De hecho, Googlebot puede solicitar miles de diferentes páginas simultáneamente.
Para evitar sobrecargar los servidores web, o desplazar a las peticiones de los usuarios humanos, Googlebot hace deliberadamente las peticiones de cada servidor web individual más lentamente de lo que es capaz de hacer. Googlebot encuentra páginas de dos formas: a través de un formulario de URL complemento, www.google.com/addurl.html, ya través de la búsqueda de enlaces de rastreo de la web.