EL ALGORITMO DE GOOGLE

                                         EL ALGORITMO DE GOOGLE


El algoritmo de Google es una serie de operaciones sistemáticas de cálculo matemático que usa el buscador para determinar la relevancia de una página web para una determinada búsqueda.


La misión del algoritmo es facilitar el acceso a información de calidad, ayudar a las personas a encontrar lo que están buscando de la forma más sencilla posible.
Mide la autoridad de una página web, su importancia dentro de un sistema de páginas, en base a la cantidad y calidad de los enlaces que se dirigen hacia ella.

Depende del interés de los lectores, de su conocimiento y de sus inclinaciones. Pero se puede describir matemáticamente .
PageRank  es un algoritmo que valora de forma objetiva y mecánica la atención e interés humanos dirigidos hacia cada página mediante una búsqueda aleatoria idealizada. Conviven así una gran cantidad de información estructurada, las páginas web, con información no estructurada, los intereses y  la atención humanos.
En 1999 Larry Page y Segey Brin, de la Universidad de Stanford patentaron el algoritmo PageRank, una herramienta para determinar  posicionamiento en buscadores, Search Engine Optimization, SEO. Uno de los usos del algoritmo es el de determinar el ranking en una red cualquiera.
En 1997 Page y Brin ofrecieron este algoritmo a Yahoo (principal buscador entonces) por 1 millón de $. Yahoo no aceptó. En 2000 surge Google usando este algoritmo. En 2002 Yahoo ofreció a Google 3.OOO millones de $ por el algoritmo, pero Google rechazó la oferta.

El algoritmo PageRank utiliza la teoría de grafos. Considera las páginas web como un conjunto de puntos, los nodos,  relacionados entre sí a través de unas líneas, las aristas, con una dirección, por lo que se tratan como grafos dirigidos.
Se elabora una tabla/matriz del grafo dirigido entre los nodos de salida y los nodos de llegada, obteniendo así datos cuantitativos de probabilidades matemáticas.

Añade el elemento humano, incorporando la probabilidad de saltar a cualquier otra página y la tendencia a seguir enlaces. Así se obtiene otra matriz con datos matemáticos que ha incorporado esas dos probabilidades humanas ponderadas.

Puede considerarse un problema de ingeniería matemática, que precisa de un modelado matemático adecuado para confirmar que los algoritmos que se usan son correctos, precisa de resultados matemáticos robustos, y precisa de técnicas computacionales para una resolución eficiente.

Para dotar a cada página de una importancia numérica en el ranking de probabilidades para que se muestren primero las páginas más adecuadas a la búsqueda, el sistema va analizando al azar los diferentes nodos, viajando a través de la red continuamente, actualizando con el tiempo los datos de ranking de diferentes nodos.
Arañas que viajan por la red y visitan páginas para ver sus relaciones con otras páginas, surfeando por la red en busca de esa información… son imágenes figuradas de ese análisis aleatorio y continuo que el sistema del algoritmo va haciendo.

Muestro aquí un ilustrativo ejemplo de cómo se añaden las ponderaciones de las variables humana a una anterior matriz de probabilidades basadas únicamente en el número de enlaces dirigidos a cada nodo o página web, teniendo en cuenta 4 nodos únicamente, extraído del artículo “Es mi Internet y busco como quiero” publicado en Cuentos Cuánticos el 24 de octubre de 2014:

El algoritmo muestra que el nodo 3 es la página web que más tráfico  puede generar, ya que redirige a otras dos. Resulta curioso que las páginas 1 y 4 tienen igual peso en la red.


El algoritmo inicial de Google, ha ido evolucionando, volviéndose cada vez más sofisticado, considerándosele actualmente una de las inteligencias artificiales más avanzadas.


Así Google mejora los criterios para determinar la relevancia de un sitio, y además evitar las técnicas Black Hat SEO que violan las condiciones de uso del buscador, una serie de estrategias que seguimos las personas que publicamos en la red para adaptarnos a dicho algoritmo y posicionar mejor nuestro contenido.

Tras el algoritmo PageRank  inicial se realizó la actualización Panda para  evitar la estrategia de saturar el contenido de un sitio web con miles de palabras clave para que esa web posicionara para todas esas búsquedas.

Posteriormente se hizo la actualización  Pengin para que no se pudiera engañar los algoritmos y posicionar mejor en el ranking  comprando enlaces.
La actualización Hummingbird permite a Gooogle hacer interpretaciones más naturales y eficientes de la intención de cada búsqueda.

La actualización Pigeon aumenta la calidad y seguridad de las búsquedas.

La actualización Google Owl identifica sutilezas que captan la mala calidad, el plagio, noticias falsas, el contenido ofensivo.

Todo ello en aras de una mejor calidad , mayor reconocimiento y autoridad de los contenidos, así como una mayor utilidad de las páginas.

Para asegurarse que los algoritmos de la búsqueda cumplen altos estándares de calidad y relevancia, Google ha implementado un proceso riguroso en pruebas en tiempo real, en el que participan miles de especialistas externos repartidos por todo el mundo, que evalúan los resultados de la búsqueda, con objetivos estrictamente definidos para los algoritmos de búsqueda, que se pueden consultar en Internet.

Comentarios

Publicar un comentario

Entradas populares de este blog

"Los LOGROS de una persona dependen más de las expectativas de éxito que de las capacidades"

Tecnologías flexibles o rígidas

EL CÓDIGO GENÉTICO