jueves, 5 de junio de 2014

SALUD: Todo acerca de la Guayaba

También conocido como guayabo,  (Psidium guajava L.) se cultiva en casi todos los países tropicales del mundo, en regiones del O. Pacífico forma bosques espesos conocidos con el nombre de guayabales. De aroma agradable e intenso, su sabor , color, forma y tamaño difieren según la variedad, normalmente una baya piriforme. Asi, hay guayabas dulces o ligeramente ácidas, de pulpa blanca o rosada y desde 60 hasta 500 gramos de peso. El Guayabo es un árbol pequeño que puede alcanzar hasta los 8 m de alto, flores blancas agrupadas de 1 a 3 , con numerosos estambres, florea casi todo el año.
Baja encarbohidratos y compuesta en su mayoría por agua, la guayaba tiene apenas 68 calorias por cada 100 gramos de porción comestible. Su contenido de fibra, en combinación con su aporte de magnesio, resulta en un suave laxante.

Rica en antioxidantes, concentra casi seis veces mas vitamina C que la naranja, un contenido que favorece la resistencia a infecciones. Además participa en la formación de glóbulos rojos de la sangre, e interviene en la absorción de hierro.

Alta en provitamina A o betacaroteno, la guayaba también contiene otras vitaminas del grupo B y aporta vitamina K, fundamental en la coagulación sanguínea. Entre otros minerales aportados, destacan el potasio, el fósforo, el calcio y el hierro.
Su consumo es especialmente recomendado a niños y jóvenes dado su período de crecimiento, mujeres embarazadas, madres lactantes y deportistas. Su riqueza en potasio y su bajo contenido de carbohidratos y sodio hacen de la guayaba una excelente opción para pacientes con diabetes, hipertensión arterial o afecciones cardiovasculares. Eso sí, los pacientes con insuficiencia renal deben consultar con un nutricionista acerca de la conveniencia de consumirla.
Las hojas, las flores y los frutos verdes del guayabo se usan en medicina popular como astringente contra la diarrea y la disentería como cicatrizante, para combatir el mal aliento y mitigar dolencias de las encias.




lunes, 2 de junio de 2014

Page Rank Ultimate: SE Spam


De los hechos que cambiaron el mundo el registro de la Patente: "Method for node ranking in a linked database" United States Patent Nº 6.285.999, Page Sept 4, 2001. En días anteriores solo existian SE como AltaVista, que fallaban mucho a su cometido, SE Google hizo un antes y un después.

Random & Intentional Surfer.


El Random Surfer es aquel a quién se le dá una página web aleatoriamente y se mantiene buscando enlaces nunca usando el boton "back del browser", pero eventualmente se aburre de la página y elige una nueva aleatoriamente, este no es mas que un S.E., un algortimo,  lo contrario al Intentional Surfer que es un internauta de carne y hueso, con intenciones de búsqueda discrecionales o con semántica, es decir con algún fin discreto.
 La definición de Page de septiembre de 2001 favorecia el engaño al Random Surfer para asi llegar al Intentional Surfer, esta perversa desviación tuvo que ser corregida pues esta distorsión aprovechada por los SEO Black Hat comenzó a afectar negativamente en el desempeño de los SE, devirtuando su razón de ser y única razón para usarlos. La aparición de SE Spam fue la consecuencia de las lagunas en la definición de PR halladas por los Hackers SEO.

Page Rank: Dos errores mayores.


La definición de PR de Page "The Anatomy of a Large-Scale Hypertextual Web Search Engine(SE)", es una definición matemática y por lo tanto formal y muy bién definida pero al analizar con detalle la fórmula PR(A) = (1-d) + d (PR(T1)/C(T1) + ... + PR(Tn)/C(Tn))
se dá uno cuenta de la discrecionalidad no solo en el factor d, sino en la función recursiva en si que quedó no definida, y así esta: Indefinida y sujeta a "discrecionalidad del funcionario" o subjetiva al fin y al cabo, los Hackers hicieron fiesta de esta indefinición.
El Paradigma de Google Scientific Papers proviene de los Information Retrieval Systems, pero aqui los Hackers también hicieron su agosto al implementar Google una versión super dimensionada, Talla XL de los Scientific Papers, los Hackers la explotaron con los Link Farms.

Relevance & Popularity.


Estos son los dos factores de importancia en este paradigma del SE: Relevance, que indica que un documento es importante para la Query dada por el internauta usuario o Intentional Surfer.
Y la Popularity: que indica cual es la mas tomada por respuesta por los Intentional Surfers, y es aquí donde los SE se lavan las manos cual Poncio Pilato, y salvan su responsabilidad en la respuesta que el Intentional Surfer toma de entre las que le fueron mostradas en los SERP.  Es aquí donde la tabla de la Oui-Ja se junta con la mas avanzada tecnologia para producir, un si pero no, un perfecto Oráculo de Delfos en plena Era Moderna.

Solución: Google Panda, Penguin y Humming Bird.


En el año 2004 para enmendar la plana Google descubrió que tiene al GooglePlex, una de las plataformas de ordenadores mas avanzadas  y todo el dinero del mundo para pagar a los mejores matématicos y adivinen : ¡ lograron su objetivo!
Esta fué la respuesta de Google a las debilidades expuestas por los Hackers a su Page Rank, y la respuesta es una total redefinición del algoritmo y paradigma, hoy se toman encuenta unos doscientos factores para Identificar Univocamente una Respuesta, hoy Google puede indexar y rankear una Internet de tal tamaño que los humanos tardaremos siglos en producir tanto conocimiento como para que en un Bucket de una Query dada por un Intentional Surfer requiera del uso de PR otra vez, la atomización es tal que el PR no es necesario.
A pesar de esto todavia se lee en muchas páginas en la web textos como: "because we all know that link popularity is the single most important factor that affects rankings in the search engines" y se encuentran estategias erradas como: "Tiered Link Building Strategy". No se si es por ignorancia o si es intencional para hacerse pasar por "Experto-Gurú" y ganar así dinero.

Google Panda refiere a las penalizaciones a Link Farms, Google Penguin refiere a las penaslizaciones por Spam. Google Caffeine penaliza a las páginas de contenido no actualizado rrecientemente.

Ley de Pareto & Ley de Mercado.


El Economista y sociólogo italiano Pareto (Vilfredo 1848-1923) descubrió una interesante relación que se aplica bien a Internet la 80/20, pero Internet la mejoró al punto 90/10 y aún peor. El 90% de tráfico de la red lo poseen tan solo el 10% de las web pages. La leyes de la Oferta y la Demanda hacen de la suyas desviando tráfico de un sito web a otro, el PR nada tiene que ver con estas leyes, y nada lo liga así al tráfico.

A la final esto de los SEO nada tiene que ver con la tecnologia sino con el Marketing.
Manipular el PR como hemos visto de nada sirve, no se puede empujar con una cuerda. Producir Contenido de Calidad es la fuente mas segura de Tráfico en Internet, igual que en el mundo real.

Puedes COMPARTIR esta entrada en tus redes sociales: Twitter; Facebook; Google+ Con solo presionar un botón. ¡gracias por compartir!
 
Sígueme en Twitter

Sígueme en FaceBook

Lecturas Relacionadas



Quesillo de Auyama

sábado, 31 de mayo de 2014

AdSense Stats Tráfico Blogger

¿Cómo interpretar las estadísticas de un blog?


También conocidas como stats, los números que debes de conocer al dedillo de tu blog para Interpretar y estudiar las estadísticas de un blog supone todo un arte, que intento acercar a modo de introducción con este artículo, basándome como ejemplo en el servicio de Google Analytics.

De una manera gratuita, con nuestro blog podemos obtener una información muy valiosa gracias a las estadísticas de visitas, que según la manera de interpretarlas nos podrán dar datos interesantes.

¿Cuál sistema de estadísticas usar?


Hay muchos sistemas de estadísticas para nuestra web o blog: algunos gratuitos y otros de pago. Entre los gratuitos existen dos que probablemente son los más usados con diferencia: Google Analytics y Statcounter.

Depende a quién se le pregunte dirá un sistema o el otro; usar el sistema de Google y no Statcounter, he perdido algunas funcionalidades pero he ganado otras a mi razón más importantes.

¿Qué mide un sistema de estadísticas?


Mide muchas cosas, las principales son las páginas vistas, los usuarios únicos, el porcentaje de visitas nuevas, el porcentaje de rebote o el promedio de tiempo en el sitio:

    Las páginas vistas son el número de páginas que carga un único usuario. Por ejemplo, si entra directamente a nuestro blog y luego hace click en una entrada para leerla, se contabilizarán dos páginas vistas.
    Los usuarios únicos o visitas son el número de personas que han visitado nuestra página. En el anterior caso sería un usuario único.
    El porcentaje de visitas nuevas nos indica cuáles de nuestras visitas son de usuarios que nunca antes habían visitado nuestra página
    El porcentaje de rebote nos indica el tanto por ciento de usuarios que han llegado a una página y se han ido sin visitar ninguna página más. Obviamente este dato interesa tenerlo lo más bajo posible, y es por ello que es todo un arte para muchos.
    El promedio de tiempo en el sitio nos indica la media de tiempo que un usuario está visitando nuestra web.

¿Qué otros datos nos puede dar un sistema de estadísticas?


Basándome en Google Analytics, podemos saber la ubicación de nuestros visitantes: esto es importante para saber si la primera posición tiene mucha diferencia respecto al resto o no. En el caso de Bloguismo un 74% de los visitantes son de España, lo que me llevó a trasladar mi servidor de Estados Unidos a España para así ofrecer un servicio más eficaz.

Con un sistema de estadísticas también podremos saber las fuentes que nos mandan tráfico a nuestro sitio, divididas casi siempre en 3: los sitios web de referencia, que enlazan nuestra web; el tráfico directo de gente que escribe nuestra URL y los motores de búsqueda, la gente que llega a nuestra web a través de buscadores como Google.

En este caso se podría analizar conciencudamente el tipo de tráfico que nos mandan cada una de estas fuentes: generalmente si tenemos un % alto de sitios web de referencia suele ser tráfico estacional debido a que nuestra web ha salido en servicios de Bitácoras.com o Menéame. Puede que sea un tráfico valioso al comienzo de un proyecto, pero habrá que aumentar el % por ejemplo de motores de búsqueda si queremos tener unaas cifras de tráfico perdurables con el tiempo. Sin duda es otro gran arte de las analíticas web.

Gracias a los servicios de analíticas también podremos observar las palabras clave a través de las cuales la gente llega a nuestro blog: lo que escribe la gente en los buscadores para llegar a él. Este dato creo que es valioso pues nos podría dar ideas para escribir algún artículo en nuestro blog y así también aumentar la llegada de visitantes a través de los buscadores: darle a la gente lo que quiere y busca, ni más ni menos.

Además, con un sistema de estadísticas también podremos analizar cómo son nuestros visitantes, algo muy útil de cara al diseño de nuestra página web. Podremos saber qué navegador usan para acceder a nuestro blog, por ejemplo: en Bloguismo un 64% usan Firefox, un 13% usan Safari y en tercera posición Internet Explorer con un 9%, sin duda un tráfico muy geek…

También podremos ver qué resolución de pantalla usan nuestros visitantes y así poder ver qué ancho mínimo le podríamos meter al diseño de nuestro blog: en el caso de bloguismo las 10 resoluciones más vistas superan los 1000 píxeles de resolución, por lo que ya de nada sirve diseñar para resoluciones como 800×600.

Otro dato que siempre me ha gustado ver es el de las velocidades de conexión de los visitantes de nuestra web: si son velocidades lentas o rápidas y por tanto si nos va a interesar hacer que la página cargue más rápido o podemos introducirle algo necesario pero que ralentice un poco la carga de la página.

Otras Herramientas para afrontar los retos de todo el ciclo de vida analítico



IBM SPSS Statistics Professional Edition va más allá de las funciones estadísticas principales ofrecidas en Standard Edition para tratar los problemas de calidad de datos, complejidad de datos, automatización y previsiones. Está diseñada para usuarios que realizan varios tipos de análisis en profundidad y no estándar y que necesitan ahorrar tiempo mediante la automatización de tareas de preparación.
La edición IBM SPSS Statistics Professional incluye las funciones clave siguientes:
Resumiendo

Las estadísticas son un auténtico arsenal de información para estudiar hábitos y ver cómo mejorar en general nuestro blog. He intentado hacer un resumen muy por encima de qué son y cómo interpretarlas, espero que a modo de inicio os ayude. En un futuro iré publicando artículos relacionados con el estudio algo más a fondo de las analíticas de nuestro blog, así que suscríbete al feed RSS de mi Blog y ¡mejora tu blog!. 

Si te ha parecido útil este u otro post de mi blog publícalo en tu red social favorita y haz que otros lo hallen con facilidad hagamos Universo del Discurso.

Puedes COMPARTIR esta entrada en tus redes sociales: Twitter; Facebook; Google+
Con solo presionar un botón. ¡gracias por compartir!
 
Sígueme en Twitter

Sígueme en FaceBook

Lecturas Relacionadas



Quesillo de Auyama