-   - 

Penguin 4.0 ¿Qué significa realmente “granular”?… y por ende “tiempo real”

Introducción:

Una de las premisas fundamentales de un “buen” SEO no es sólo mantenerse a la vanguardia de la tecnología sino comprenderla dentro de sus posibilidades. Esto avanza rápido, pero que muy rápido, y Google Penguin “4.0” se ha superado con creces. Y sino, compara lo que sabías hasta ahora y las nuevas bases tras esta actualización… tan granular.

Empezamos con un mini resumen (con mis anotaciones entre paréntesis): Google publica hace pocos días que actualiza Penguin (que no son sólo enlaces) que será en tiempo real (muchas cosas caben aquí por ejemplo la indexación de quien me enlaza)  y granular (¿tiempo real y luego granular o granular y por ende tiempo real?). En definitiva, se entiende que los parámetros incluidos en Penguin actuarán sin necesidad de actualizaciones periódicas y que será granular (de lo que he leído a lo que es granular… ufff).

Concepto:

Al tema y en resumen “resumidísimo”, granular: es la representación de la información simple (en nuestro caso keywords únicas) en gránulos de información de alto nivel. Es decir, vinculaciones de keywords con significados particulares que al vincularse unas cosas otras, aportan un valor implícito diferente y de mayor nivel conceptual.

Para hacernos una idea mejor, se puede explicar granular como la abstracción de una agrupación de palabras que alcanzan un significado que por sí solas no tenían. En otras palabras, las pinceladas para hacer un cuadro y el resultado final de cuadro tras agregar todas esas pinceladas y lo que finalmente representa el cuadro (gránulo/concepto de alto nivel).

La base sobre la que se fundamenta, y de aquí Penguin en “tiempo real”, es que no podemos ser conscientes de cada uno de los detalles que nos rodean (demasiados datos). Por tanto, y pensando en personas, el cerebro para no sobrecargarse hace una extracción de esta información y nos la simplifica para poder asimilarla. De este modo el proceso es más rápido pues se genera un compendio de datos finales, con un valor diferente de que se podría obtener dato a dato, y haciendo una posterior agregación de los mismos. Además, esta idea permite un análisis computacional de los datos diferente al que se usaba hasta ahora, que también acelera el proceso de comprensión conceptual. Es decir, eliminar lo irrelevante para ser más precisos y rápidos en los cálculos.

El cambio importante que supone la granularidad, es el análisis de palabras como conceptos más allá de la simplificación número/palabra que se usaba con frecuencia antes. Ahora, se trabaja computacionalmente con conceptos. Veamos algún ejemplo (en el que nos vamos a saltar todo lo relacionado con matemáticas avanzadas, etc. que son unas pocas).

Ejemplo 1º:

Imaginemos un sistema de climatización y que obtenemos datos (numéricos concretos como temperatura, humedad y gasto) pero lo que queremos saber es el nivel de “comodidad” que ese sistema de climatización aporta (concepto abstracto no cuantificable o medible en la misma medida que la temperatura es un dato concreto/número y el confort no es un valor concreto). Y por último queremos saber si es eficiente o no (otro resultado abstracto que se obtiene por agregación/vinculación de datos concretos y abstractos). A los tecnicismos paso luego, pero para que se entienda rápido: podemos conocer la eficiencia (gránulo y dato único abstracto) de un sistema de climatización mediante la vinculación de otros gránulos abstractos de numéricos concretos (mayor granularidad). De vincular números y conceptos obtenemos un concepto resumen más elevado, más simple y más rápido de procesar computacionalmente. Puntualización simplista como valor generalista para la comprensión: eficienica = comodidad (temperatura + humedad) + gasto

pm-cp2

 

De un modo más técnico y utilizando las palabras apropiadas: Granular linguistic model of a phenomeno, GLMP. Es una red de percepciones computacionales o computacional perceptions (CP) estructurados por niveles en los que los niveles inferiores o más básicos tienen una mayor granularidad y a medida que ascendemos la complejidad del elemento/keyowrd/concepto aumenta y a su vez disminuye la granuralidad. Estas percepciones están relacionadas por funciones de percepción o perception mappings (PM) que en definitiva son una red de nodos cada uno de los cuales recibe como entrada un conjunto de perception models (CP). En resumen, los PM son operadores utilizados para crear CPs gracias a la borrosificación/fuzzy (funciones de primer orden 1-PMs) o a partir de otras CPs mediante su agregación en otro nivel (función de segundo orden 2 – PMs). Los más bajos agregados dan como resultado los niveles más altos abstractos.

Ejemplo 2º:

Computanción Granular con Rough Sets (Conditional Granules y Decision Granules):

 

GC={P2,P5} GD={P1,P2,P3,P6}

PACIENTE DOLOR CABEZA DOLOR MUSCULAR FIEBRE GRIPE
1 no si alta si
2 si no alta si
3 si si muy alta si
4 no si normal no
5 si no alta no
6 no si muy alta si

 

Recalcar que el concepto de granularidad está íntimamente ligado a procesamiento de datos y a la agilidad que permite. Por lo que facilita el concepto de “tiempo real”.

Conclusiones:

Ahora podemos ver que la información ofrecida por Google, es muy generalista pues no podemos concretar en qué ámbito de Penguin se incluye la granularidad (obviamente es por niveles de granularidad como he explicado) pero ¿A nivel contextualización de anchor con contenido? ¿A nivel contextual simple? ¿A nivel aproximación con entidades? ¿A nivel estructura web?…

Y lo que yo creo (entre otras cosas) ¿Quizá a nivel de enlaces entrantes de granularidad alta que acaban ofreciendo un resultado granular más abstracto? Es decir, enlaces entrantes diferentes (diferenciados unos de otros) aportan un valor como enlace (en conjunto, agregándose entre ellos) diferente del que aportaría de uno en uno y así de este modo el análisis de enlaces se reduce, por simplificar, a un anchor text común (en vez de analizar un montón de anchor texts diferentes y lo que supone, con lo que el análisis computacional se reduce).

Corolario:

En Cráneo Previlegiado hacemos link building avanzado y artículos acorde que no leerás en otros sitios hasta ahora ;).

Si te ha gustado, comparte si quieres.

Bibliografía:

https://es.wikipedia.org/wiki/Infobright#Mecanismo_de_computaci.C3.B3n_granular

https://app.assembla.com/spaces/Api_Fpga/wiki

http://www.fierasdelaingenieria.com/computacion-granular/file:///C:/Users/C%C3%A9sar/Downloads/113.pdf

http://player.slideplayer.es/14/4595286/# (muy recomendable)

http://uea2013.frbb.utn.edu.ar/wp-content/uploads/S9_2.pdf

https://www.saber.cic.ipn.mx/cake/SABERsvn/trunk/Repositorios/webVerArchivo/5248/1 (muy recomendable)

http://www.academia.edu/6014979/Extensi%C3%B3n_del_concepto_de_precepci%C3%B3n_computacional_utilizando_Z-numbers

http://oa.upm.es/39386/1/MARIA_GLORIA_SANCHEZ_TORRUBIA.pdf Imágen extraída de aquí (lectura muy recomendable).

https://www.google.es/search?q=Granular+Linguistic+Model+of+Phenomena&num=100&espv=2&biw=1517&bih=735&source=lnt&tbs=lr:lang_1es&lr=lang_es&sa=X&ved=0ahUKEwiIkZj3jMHPAhXIWj4KHf4SCgcQpwUIFg&dpr=0.9

https://www.google.es/search?q=Granular+Linguistic+Model+of+Phenomena&num=100&espv=2&biw=1517&bih=735&source=lnt&tbs=lr:lang_1es&lr=lang_es&sa=X&ved=0ahUKEwiIkZj3jMHPAhXIWj4KHf4SCgcQpwUIFg&dpr=0.9


Suscríbete al blog de Cráneo Previlegiado