sábado, 22 de julio de 2017

Hacia las estructuras matemáticas de las redes (de grandes datos)

La forma matemática de las cosas por venir


Los conjuntos de datos científicos se están volviendo más dinámicos, requiriendo nuevas técnicas matemáticas a la par con la invención del cálculo.

Quanta Magazine |  Tang Yau Hoong y Jennifer Ouellette



Simon DeDeo, un investigador en matemáticas aplicadas y sistemas complejos en el Instituto Santa Fe, tenía un problema. Colaboraba en un nuevo proyecto que analizaba 300 años de datos de los archivos de Old Bailey de Londres, la corte penal central de Inglaterra y Gales. Por supuesto, había datos limpios en el formato simple de hoja de cálculo de Excel, incluyendo variables tales como acusación, veredicto y sentencia para cada caso. Pero también hubo transcripciones completas de la corte, conteniendo unos 10 millones de palabras registradas durante poco menos de 200.000 ensayos.

-¿Cómo diablos analizas esos datos? -preguntó DeDeo. No era el tamaño del conjunto de datos que era desalentador; Por los grandes estándares de datos, el tamaño era bastante manejable. Fue la complejidad y la falta de estructura formal lo que planteó un problema. Estos "grandes datos" no se parecían a los tipos de conjuntos de datos tradicionales que el antiguo físico habría encontrado antes en su carrera, cuando el paradigma de investigación implicaba formar una hipótesis, decidir precisamente lo que se quería medir, construir un aparato para hacer esa medición tan preciso como sea posible.



Los grandes datos de hoy son ruidosos, desestructurados y dinámicos.

"En física, por lo general tiene un tipo de datos y usted conoce el sistema realmente bien", dijo DeDeo. "Ahora tenemos estos nuevos datos multimodales [extraídos] de sistemas biológicos y sistemas sociales humanos, y los datos se recogen antes incluso de tener una hipótesis". Los datos están ahí en toda su desordenada y multidimensional gloria, esperando ser consultados , Pero ¿cómo se sabe qué preguntas hacer cuando el método científico se ha vuelto en la cabeza?

DeDeo no es el único investigador que está haciendo frente a estos desafíos. A través de cada disciplina, los conjuntos de datos son cada vez más grandes y complejos, ya se trate de registros médicos, secuenciación genómica, redes neuronales en el cerebro, astrofísica, archivos históricos o redes sociales. Alessandro Vespignani, un físico de la Northeastern University que se especializa en aprovechar el poder de las redes sociales para modelar brotes de enfermedades, el comportamiento del mercado de valores, la dinámica social colectiva y los resultados electorales, ha recogido muchos terabytes de datos de redes sociales como Twitter, Crudo y no estructurado. "No definimos las condiciones de los experimentos, así que no sabemos lo que estamos capturando", dijo.


Gunnar Carlsson, un matemático de la Universidad de Stanford, utiliza el análisis de datos topológicos para encontrar estructura en conjuntos de datos complejos y no estructurados.

Los datos grandes de hoy en día son ruidosos, no estructurados y dinámicos en lugar de estáticos. También puede estar dañado o incompleto. "Creemos que los datos están compuestos de vectores, una serie de números y coordenadas", dijo Jesse Johnson, matemático de la Universidad Estatal de Oklahoma. Pero los datos de Twitter o Facebook, o los archivos de prueba del Old Bailey, no parecen nada de eso, lo que significa que los investigadores necesitan nuevas herramientas matemáticas para recoger información útil de los conjuntos de datos. "O se necesita una forma más sofisticada de traducirla en vectores, o se necesita encontrar una forma más generalizada de analizarla", dijo Johnson.

Vespignani utiliza una amplia gama de herramientas matemáticas y técnicas para dar sentido a sus datos, incluyendo el reconocimiento de texto. Él sifts a través de millones de tweets buscando las palabras más relevantes a cualquier sistema que está tratando de modelo. DeDeo adoptó un enfoque similar para el proyecto de archivos Old Bailey. Su solución fue reducir su conjunto de datos iniciales de 100.000 palabras agrupándolas en 1.000 categorías, utilizando palabras clave y sus sinónimos. "Ahora usted ha convertido el juicio en un punto en un espacio de 1000 dimensiones que le dice cuánto el juicio es acerca de la amistad, o la confianza, o la ropa", explicó.

Científicos como DeDeo y Vespignani hacen buen uso de este enfoque poco sistemático para el análisis de datos, pero el matemático de la Universidad de Yale, Ronald Coifman, dice que lo que realmente se necesita es el gran equivalente de datos de una revolución newtoniana, a la par del siglo XVII. Cree que ya está en marcha. No es suficiente, argumenta, simplemente recoger y almacenar cantidades masivas de datos; Deben ser comisariados inteligentemente, y eso requiere un marco global. "Tenemos todos los pedazos del rompecabezas - ahora cómo los montamos realmente así que podemos ver el cuadro grande?" Él dijo. "Puede que tengas un modelo muy simplista a pequeña escala local, pero el cálculo te permite tomar muchos modelos sencillos e integrarlos en un gran cuadro". De manera similar, Coifman cree que la matemática moderna -especialmente la geometría- puede ayudar a identificar los factores globales subyacentes Estructura de grandes conjuntos de datos. Un conjunto de datos podría estar organizado por geografía o clima, por ejemplo, cada uno de los cuales producirá un mapa de formas muy diferentes.

Nodos y enlaces

La ciudad prusiana de Königsberg (ahora Kalingrad), en el Mar Báltico, cuenta con cuatro regiones geográficas distintas divididas por el río Pregel, con siete puentes que conectan esas regiones. En el siglo XVIII, el matemático Leonhard Euler perplejo sobre un enigma popular de esa época: ¿Era posible caminar a través de todos los puentes de Königsberg, cruzar cada uno apenas una vez, y todavía terminar en su punto de partida original? Para resolver el rompecabezas, Euler redujo el problema a uno de los nodos y líneas: Las cuatro regiones terrestres eran los nodos, conectados por los puentes, representados por líneas. Él encontró que para cruzar todos los puentes solamente una vez, cada región de la tierra necesitaría un número par de puentes. Dado que ese no era el caso en Königsberg, tal viaje era imposible.

Los métodos topológicos se parecen mucho a la proyección de una sombra bidimensional de un objeto tridimensional en la pared.
Gunnar Carlsson

Entre las ideas más notables que Euler recogió del rompecabezas fue que las posiciones exactas de los puentes eran irrelevantes para la solución; Todo lo que importaba era el número de puentes y cómo estaban conectados. Los matemáticos ahora reconocen en esto las semillas del campo moderno de la topología.

Tomando una página del libro de ejercicios de Euler, Gunnar Carlsson, un matemático de la Universidad de Stanford, representa complejos y complejos grandes conjuntos de datos como una red de nodos y enlaces, creando un mapa intuitivo de datos basado únicamente en la similitud de los puntos de datos; Esto utiliza la distancia como una entrada que se traduce en una forma o red topológica. Cuanto más similares sean los puntos de datos, más cerca estarán unos de otros en el mapa resultante; Cuanto más diferentes sean, más distantes estarán en el mapa. Esta es la esencia del análisis de datos topológicos (TDA).

TDA es una consecuencia de la máquina de aprendizaje, un conjunto de técnicas que sirve como un caballo de batalla estándar de análisis de datos grandes. Muchos de los métodos de aprendizaje automático son más eficaces cuando se trabaja con matrices de datos, como una hoja de cálculo de Excel, pero ¿qué pasa si su conjunto de datos no se ajusta a ese marco? "El análisis de datos topológicos es una forma de obtener datos estructurados a partir de datos no estructurados para que los algoritmos de aprendizaje automático puedan actuar más directamente en él", dijo Carlsson.

Al igual que con los puentes de Euler, se trata de las conexiones. Las redes sociales trazan las relaciones entre las personas, con grupos de nombres (nodos) y conexiones (aristas) que ilustran cómo todos estamos conectados. Habrá grupos relacionados con la familia, compañeros de la universidad, los conocidos en el lugar de trabajo, y así sucesivamente. Carlsson piensa que es posible extender este enfoque a otros tipos de conjuntos de datos, como las secuencias genómicas. "Uno puede poner las secuencias al lado del otro y contar el número de lugares donde difieren", explicó. "Ese número se convierte en una medida de lo similar o disimilar que son, y se puede codificar como una función de distancia".

La idea es reducir conjuntos de datos grandes y crudos de muchas dimensiones a una representación comprimida en dimensiones inferiores sin sacrificar las propiedades topológicas más relevantes. Idealmente, esto revelará la forma subyacente de los datos. Por ejemplo, una esfera existe técnicamente en todas las dimensiones, pero sólo podemos percibir las tres dimensiones espaciales. Sin embargo, hay gafas matemáticas a través de las cuales uno puede recoger información sobre estas formas de dimensiones superiores, dijo Carlsson. "Una forma es un número infinito de puntos y una cantidad infinita de distancias entre esos puntos. Pero si usted está dispuesto a sacrificar un poco de redondez, puede representar [un círculo] por un hexágono con seis nodos y seis enlaces, y todavía es reconocible como una forma circular.

Esa es la base de la tecnología patentada que Carlsson ofrece a través de su empresa start-up, Ayasdi, que produce una representación comprimida de datos dimensionales altos en bits más pequeños, similar a un mapa del sistema de tubos de Londres. Tal mapa puede no representar exactamente la última característica de definición de la ciudad, pero destaca las regiones primarias y cómo estas regiones están conectadas. En el caso del software de Ayasdi, el mapa resultante no es sólo una visualización llamativa de los datos; También permite a los usuarios interactuar directamente con el conjunto de datos de la misma manera que utilizarían Photoshop o Illustrator. "Significa que no seremos enteramente fieles a los datos, pero si el conjunto de las representaciones inferiores tiene rasgos topológicos, es una buena indicación de que también hay características en los datos originales", dijo Carlsson.

Si su conjunto de datos de alta dimensión tiene 155 variables, ¿cómo empieza a consultarla de una manera que tenga en cuenta todas esas variables? Carlsson compara la tarea con la búsqueda de un martillo en un garaje oscuro. Si la única herramienta que tienes es una linterna, todo lo que puedes hacer es brillar la luz en una pequeña sección del garaje a la vez. Usted puede encontrar el martillo con el tiempo, pero también podría quedarse sin paciencia con el enfoque fragmentado. Sería mucho más eficiente encender una gran luz que ilumina todo el garaje, dándole una perspectiva global. No sólo va a detectar el martillo, pero también se dará cuenta de la caja de clavos sentados al lado de que no se dio cuenta de que era necesario. La tecnología de Ayasdi es similar a iluminar el garaje entero.

Como prueba de principio, Carlsson y colaboradores en Stanford y el Instituto de Estudios Avanzados de Princeton aplicaron este método a un conjunto de datos más tradicionales de un estudio holandés de genómica sobre pacientes con cáncer de mama realizado hace más de una década. Inicialmente se encontraba en la hoja de cálculo estándar de Excel, con 1.500 columnas y 272 filas correspondientes a las muestras genómicas proporcionadas por los sujetos. Una vez que esto se transformó en una red, el "mapa" resultante tomó la forma de una forma Y, codificada por color para indicar qué temas sobrevivieron (azul) y qué sujetos no (rojo). Los pacientes con peores pronósticos se agruparon en la rama izquierda del Y, con la rama derecha compuesta exclusivamente por el 8 al 9 por ciento de los sujetos que sobrevivieron. Una vez que ese grupo había sido identificado, los genetistas podrían analizar los genes más de cerca para determinar cuáles tenían más probabilidades de haber influido en su supervivencia.

El método es lo suficientemente flexible como para ser aplicado a sistemas muy diferentes. Uno de los internos de Carlsson Ayasdi era un nativo de Houston y un fan de los Rockets de Houston. Creó un conjunto de datos de todos los jugadores de la NBA a partir de 2010 y comparó sus medias de la liga en siete categorías estadísticas: puntos, rebotes, asistencias, robos, tiros bloqueados, pérdidas de balón y faltas personales, reducidos a intervalos de un minuto para asegurar que el tiempo de juego No ser un factor.

Si resulta que hay una vaca esférica al acecho debajo de todos sus datos, entonces TDA sería el camino a seguir. Pero si no está allí, ¿qué puedes hacer?
Benjamin Recht

Inicialmente presentó los datos en una hoja de cálculo estándar de Excel, con 400 filas para los jugadores y siete columnas para los puntos de datos, pero el software Ayasdi detectó patrones estadísticos ocultos entre los jugadores, vinculados a sus estilos de juego, y creó un mapa de estas conexiones. El mapa mostró que además de las cinco posiciones principales en el baloncesto - guardia de puntos, guardia de tiro, delantero de potencia, delantero pequeño y centro - había 13 posiciones "ocultas". Él dobló una categoría "protectores de la pintura," los jugadores que realizan bien en el rebote y el bloqueo, pero que acumulan más faltas que puntos. "Los protectores de pintura de puntuación" son similares, pero acumulan menos faltas y más puntos. Este trabajo ganó el premio a la Mejor Evolución del Deporte en la Conferencia MIT Sloan Sports Analytics anual, en parte debido a su potencial utilidad para la identificación de jugadores infravalorados.

Los métodos topológicos se parecen mucho a la proyección de una sombra bidimensional de un objeto tridimensional en la pared: nos permiten visualizar un conjunto de datos grandes y de gran dimensión proyectándolo en una dimensión inferior. El peligro es que, al igual que con las ilusiones creadas por los títeres de la sombra, uno podría estar viendo patrones e imágenes que no están realmente allí.

"Hay una broma matemática terrible que los topólogos no pueden diferenciar entre su parte trasera y una taza de café porque los dos son topológicamente equivalentes", dijo Benjamin Recht, un informático de la Universidad de California, Berkeley, que dice que es tan lejos No está claro cuando TDA funciona y cuando no. La técnica se basa en la suposición de que un conjunto de datos de alta dimensión grande tiene una estructura intrínseca de baja dimensión, y que es posible descubrir esa estructura matemáticamente. Recht cree que algunos conjuntos de datos son intrínsecamente altos en dimensión y no pueden ser reducidos por el análisis topológico. "Si resulta que hay una vaca esférica al acecho debajo de todos sus datos, entonces TDA sería el camino a seguir", dijo. "Pero si no está ahí, ¿qué puede hacer?" Y si su conjunto de datos está dañado o incompleto, los métodos topológicos producirán resultados igualmente dañados.


Bloques de Occam

En febrero de 2004, Emmanuel Candes, un matemático de la Universidad de Stanford, y su entonces postdoc, Justin Romberg, estaban jugando con una imagen mal mutilada en su computadora, el tipo utilizado por los científicos para probar los algoritmos de imágenes. Ellos estaban tratando de encontrar un método para mejorar las imágenes difusas, como las generadas por MRIs cuando no hay tiempo suficiente para completar un escáner. En una corazonada, Candes aplicó un algoritmo diseñado para limpiar imágenes difusas, esperando ver una ligera mejora. Lo que apareció en la pantalla de su computadora en cambio fue una imagen perfectamente renderizada. Candes compara la unlikeliness del resultado a ser dado apenas los tres primeros dígitos de un número de cuenta bancaria de 10 dígitos, y adivinar correctamente los siete dígitos restantes. Pero no fue una casualidad. Lo mismo ocurrió cuando aplicó la misma técnica a otras imágenes incompletas.


La idea detrás del análisis de datos topológicos es reducir los conjuntos de datos de alta dimensión a dimensiones más bajas sin sacrificar las propiedades topológicas más relevantes.

La clave del éxito de la técnica es un concepto conocido como escasez, que suele indicar la complejidad de una imagen, o su ausencia. Es una versión matemática de la navaja de Occam: Aunque puede haber millones de reconstrucciones posibles para una imagen difusa, mal definida, la versión más simple (sparsest) es probablemente el mejor ajuste. De este descubrimiento fortuito, nació la sensación comprimida.

Considere el caso de la transmisión de vídeo en línea. Los datos en bruto de un video son enormes: treinta cuadros de dos megapíxeles por segundo, por lo que los vídeos o las imágenes de las cámaras digitales se almacenan mediante algoritmos de compresión. Por lo general, para realizar la compresión, primero hay que recoger todos los bits y almacenarlos, para que uno pueda descartar los que son menos significativos. Con la detección comprimida, uno puede determinar qué bits son significativos sin primero tener que recoger y almacenarlos todos. Esto, dice Recht, "le permite adquirir imágenes médicas más rápido, hacer mejores sistemas de radar, o incluso tomar fotografías con cámaras de un solo píxel".

"Si examino una población de una enfermedad rara, ¿necesito tantos exámenes de sangre como individuos?", Dijo Candes. "La respuesta es no. Puedo hacer esto con menos pruebas. Mi señal es escasa, ya que sólo se espera que unas pocas personas prueben positivo. "Supongamos que hay una persona infectada en un grupo de 32, y la clínica agrupa las 32 muestras de sangre. Si la prueba es negativa, no hay personas infectadas. Pero si es positivo, ¿cómo puede determinar quién está infectado? Según Candes, usted podría tomar la mitad de las muestras (16) y volver a ejecutar la prueba. Si es positiva, la persona infectada está en este grupo; Si es negativo, el culpable está en la otra mitad. Puede continuar reduciendo las posibilidades dividiendo de nuevo al grupo por la mitad y volviendo a ejecutar la prueba. Este enfoque de "medición holística" le dará la respuesta dentro de cinco pruebas, en comparación con probar cada una de las 32 personas una por una. Esta es la esencia de la detección comprimida.

Usando algoritmos de detección comprimidos, es posible muestrear sólo 100.000 de, digamos, 1 millón de píxeles en una imagen, y todavía ser capaz de reconstruir en resolución completa - siempre que los elementos clave de la escasez y el agrupamiento (o "mediciones holísticas") sean presente. Es útil cada vez que uno encuentra un gran conjunto de datos en el que una fracción significativa de los datos falta o está incompleta. En el caso de los registros médicos, un sensor podría no registrar un punto de datos con precisión, o el personal del hospital podría estar demasiado ocupado para registrar todos los registros en el equipo o podrían registrar la información incorrectamente. Del mismo modo, la detección comprimida podría ser útil para combatir la oclusión en los sistemas de reconocimiento facial. Por ejemplo, usar gafas de sol podría ser problemático si los ojos son una variable clave en el análisis.

Este enfoque puede incluso ser útil para aplicaciones que no son, en sentido estricto, problemas de detección comprimidos, como el premio Netflix. En octubre de 2006, Netflix anunció un concurso que ofrece un gran premio de $ 1 millón a quien pueda mejorar el algoritmo de filtrado para su motor de recomendación cinematográfica en casa, Cinematch. Un equipo internacional de estadísticos, expertos en aprendizaje de máquinas e ingenieros informáticos obtuvo el gran premio en 2009, pero la comunidad académica en general también se benefició, ya que obtuvo acceso a Netflix muy grande, el conjunto de datos de alta calidad. Recht fue uno de los que lo manipularon. Su trabajo confirmó la viabilidad de aplicar el enfoque de detección comprimida al desafío de rellenar las calificaciones perdidas en el conjunto de datos.

Cinematch opera utilizando la retroalimentación de los clientes: Se recomienda a los usuarios que califiquen las películas que ven y basándose en esas calificaciones, el motor debe determinar cuánto le gustará a un usuario dado películas similares. El conjunto de datos es enorme, pero es incompleto: en promedio, los usuarios sólo clasifican alrededor de 200 películas, de casi 18.000 títulos. Dada la enorme popularidad de Netflix, incluso una mejora incremental en el algoritmo predictivo da como resultado un impulso sustancial a la línea de fondo de la compañía. Recht encontró que podía predecir con exactitud qué películas los clientes podían estar interesados ​​en comprar, siempre que él viera suficientes productos por persona. Entre 25 y 100 productos fueron suficientes para completar la matriz.

"Hemos demostrado matemáticamente que usted puede hacer esto con mucha precisión bajo ciertas condiciones mediante técnicas computacionales manejables", dijo Candes, y las lecciones aprendidas de esta prueba de principio están alimentando de nuevo a la comunidad de investigación, abordando problemas en física cuántica, Cristalografía de rayos y visión por ordenador, entre otras aplicaciones. En el futuro, los astrónomos que trabajan con telescopios sensibles a la luz infrarroja sólo necesitarán registrar el 20 por ciento de los píxeles que de otro modo necesitarían para obtener las mismas imágenes de alta resolución, porque la detección comprimida puede llenar los huecos.

Recht y Candes pueden defender enfoques como la detección comprimida, mientras que Carlsson y Coifman se alinean más con el enfoque topológico, pero fundamentalmente, estos dos métodos son complementarios y no competitivos. Hay varias otras herramientas matemáticas prometedoras que se están desarrollando para manejar este valiente nuevo mundo de datos grandes y complicados. Vespignani utiliza todo, desde el análisis de redes, creando redes de relaciones entre personas, objetos, documentos, etc., para descubrir la estructura dentro de los datos, el aprendizaje automático y las buenas estadísticas anticuadas.

Coifman afirma la necesidad de una teoría global subyacente a la par con el cálculo para permitir a los investigadores a ser mejores conservadores de grandes datos. De la misma manera, las diversas técnicas y herramientas que se están desarrollando necesitan integrarse bajo el paraguas de un modelo teórico más amplio. "Al final, la ciencia de los datos es más que la suma de sus partes metodológicas", insiste Vespignani, y lo mismo ocurre con sus herramientas analíticas. "Cuando se combinan muchas cosas se crea algo mayor que es nuevo y diferente."

jueves, 20 de julio de 2017

Resiliencia en las estructuras de redes de servicios multinivel

Pisando suavemente en un mundo conectado

Quanta Magazine

Los modelos matemáticos buscan prevenir el fallo de la red grande siguiente.


Las luces de la ciudad, como se ve en esta imagen compuesta de la NASA, a menudo dependen de un sistema de redes interconectadas que los científicos dicen que puede ser inherentemente 

Gene Stanley nunca baja las escaleras sin sujetar el pasamanos. Para un joven de 71 años de edad, tiene un miedo mortal de romperse la cadera. En los ancianos, tales interrupciones pueden desencadenar complicaciones fatales, y Stanley, un profesor de física en la Universidad de Boston, cree que sabe por qué.

"Todo depende de todo lo demás", dijo.

Hace tres años, Stanley y sus colegas descubrieron las matemáticas detrás de lo que él llama "la extrema fragilidad de la interdependencia". En un sistema de redes interconectadas como la economía, la infraestructura urbana o el cuerpo humano, su modelo indica que un pequeño apagón en una red Pueden entrar en cascada a través de todo el sistema, tocando un repentino y catastrófico fracaso.

El hallazgo, publicado por primera vez en 2010 en la revista Nature, generó más de 200 estudios relacionados, incluyendo análisis del apagón nacional en Italia en 2003, la crisis mundial de los precios de los alimentos de 2007 y 2008 y el "flash crash" de Estados Unidos El 6 de mayo de 2010.

"En las redes aisladas, un poco de daño sólo conducirá a un poco más", dijo Shlomo Havlin, un físico de la Universidad Bar-Ilan en Israel, coautor del artículo de 2010. "Ahora sabemos que debido a la dependencia entre redes, usted puede tener un colapso abrupto."

Mientras que los científicos siguen siendo cautelosos sobre el uso de los resultados de modelos matemáticos simplificados para reingenierar los sistemas del mundo real, algunas recomendaciones están comenzando a surgir. Basados ​​en refinamientos basados ​​en datos, los nuevos modelos sugieren que las redes interconectadas deben tener copias de seguridad, mecanismos para cortar sus conexiones en tiempos de crisis y regulaciones más estrictas para prevenir fallas generalizadas.

"Hay esperanzas de que algún punto dulce se beneficie de todas las cosas que las redes de redes traen sin ser abrumado por el riesgo", dijo Raissa D'Souza, un complejo teórico de sistemas de la Universidad de California, Davis.


A menudo, las redes de energía, gas, agua, telecomunicaciones y transporte están interrelacionadas. Cuando los nodos de una red dependen de nodos en otro, los fallos de nodos en cualquiera de las redes pueden desencadenar un colapso en todo el sistema.

Para entender la vulnerabilidad de tener nodos en una red depende de nodos en otro, considere la "red inteligente", un sistema de infraestructura en el cual las centrales eléctricas son controladas por una red de telecomunicaciones que a su vez requiere energía de la red de estaciones. De forma aislada, la eliminación de unos pocos nodos de cualquiera de las redes haría poco daño, ya que las señales podrían encaminarse alrededor de la interrupción y llegar a la mayoría de los nodos restantes. Pero en redes acopladas, los nodos derribados en uno eliminan automáticamente los nodos dependientes en el otro, lo que elimina otros nodos dependientes en el primero, y así sucesivamente. Los científicos modelan este proceso en cascada calculando el tamaño del clúster más grande de nodos conectados en cada red, donde la respuesta depende del tamaño del clúster más grande de la otra red. Con los cúmulos interrelacionados de esta manera, una disminución en el tamaño de uno de ellos desencadena una cascada de ida y vuelta de racimos encogibles.

Cuando el daño a un sistema alcanza un "punto crítico", Stanley, Havlin y sus colegas encuentran que el fracaso de un nodo más cede todos los clústeres de red a cero, matando instantáneamente la conectividad en todo el sistema. Este punto crítico variará dependiendo de la arquitectura de un sistema. En uno de los modelos de red acoplada más realistas del equipo, una interrupción del 8 por ciento de los nodos en una red, un nivel plausible de daño en muchos sistemas reales, lleva al sistema a su punto crítico. "La fragilidad que implica esta interdependencia es muy aterradora", dijo Stanley.

Sin embargo, en otro modelo recientemente estudiado por D'Souza y sus colegas, los escasos vínculos entre redes separadas realmente ayudan a suprimir las cascadas a gran escala, demostrando que los modelos de red no son uniformes. Para evaluar el comportamiento de las redes inteligentes, los mercados financieros, los sistemas de transporte y otras redes reales interdependientes, "tenemos que partir del mundo dirigido por los datos y elaborar los modelos matemáticos que capturan los sistemas reales en lugar de usar modelos porque Son bastante y analíticamente manejables ", dijo D'Souza.

En una serie de artículos en la edición de marzo de Nature Physics, economistas y físicos utilizaron la ciencia de las redes interconectadas para identificar el riesgo dentro del sistema financiero. En un estudio, un grupo interdisciplinario de investigadores, entre ellos el economista Joseph Stiglitz, ganador del Premio Nobel, encontró inestabilidades inherentes dentro del complejo mercado de derivados, de múltiples trillones de dólares, y sugirió regulaciones que podrían ayudar a estabilizarlo.

Irena Vodenska, profesora de finanzas de la Universidad de Boston, que colabora con Stanley, diseñó un modelo de red acoplada en torno a los datos de la crisis financiera de 2008. El análisis de ella y sus colegas, publicado en febrero en Scientific Reports, mostró que modelar el sistema financiero como una red de dos redes -bancos y activos bancarios, donde cada banco está vinculado a los activos que tenía en 2007- predijo correctamente qué bancos Fallan el 78 por ciento del tiempo.

"Consideramos este modelo como potencialmente útil para las pruebas de estrés de riesgo sistémico para los sistemas financieros", dijo Vodenska, cuya investigación está financiada por el programa de predicción de la crisis financiera de la Unión Europea. A medida que la globalización enreda aún más las redes financieras, dijo, las agencias reguladoras deben monitorear las "fuentes de contagio" -concentraciones en ciertos activos, por ejemplo- antes de que puedan causar epidemias de fracaso. Para identificar estas fuentes, "es imprescindible pensar en el sentido de redes de redes", dijo.


Leonardo Dueñas-Osorio, ingeniero civil de Rice, visitó una subestación de alto voltaje dañada en Chile luego de un gran terremoto en 2010 para obtener información sobre la respuesta de la red eléctrica a la crisis.

Los científicos están aplicando ideas similares a la evaluación de la infraestructura. Leonardo Dueñas-Osorio, ingeniero civil de la Universidad de Rice, está analizando cómo los sistemas de salvavidas respondieron a los recientes desastres naturales. Cuando un terremoto de 8,8 grados de magnitud golpeó Chile en 2010, por ejemplo, la mayor parte de la red eléctrica se restauró después de sólo dos días, ayudando a los trabajadores de emergencia. La rápida recuperación, según sugiere la investigación de Dueñas-Osorio, se produjo porque las centrales eléctricas de Chile se desacoplaron inmediatamente del sistema de telecomunicaciones centralizado que usualmente controlaba el flujo de electricidad a través de la red, pero que se redujo en algunas áreas. Las centrales eléctricas fueron operadas localmente hasta que el daño en otras partes del sistema disminuyó.

"Después de un evento anormal, la mayoría de los efectos perjudiciales ocurren en los primeros ciclos de interacción mutua", dijo Dueñas-Osorio, quien también está estudiando la respuesta de la ciudad de Nueva York al huracán Sandy en octubre pasado. "Así que cuando algo va mal, necesitamos tener la capacidad de desacoplar las redes para evitar los efectos de ida y vuelta entre ellos".

D'Souza y Dueñas-Osorio están colaborando para construir modelos precisos de sistemas de infraestructura en Houston, Memphis y otras ciudades americanas con el fin de identificar las debilidades del sistema. "Los modelos son útiles para ayudarnos a explorar configuraciones alternativas que podrían ser más efectivas", explicó Dueñas-Osorio. Y como la interdependencia entre las redes aumenta naturalmente en muchos lugares, "podemos modelar esa integración superior y ver qué pasa".

Los científicos también están buscando en sus modelos respuestas sobre cómo arreglar los sistemas cuando fallan. "Estamos en el proceso de estudiar cuál es la manera óptima de recuperar una red", dijo Havlin. "Cuando las redes fallan, ¿qué nodo se arreglan primero?"

La esperanza es que las redes de redes puedan ser inesperadamente resistentes por la misma razón que son vulnerables. Como dijo Dueñas-Osorio: "Al hacer mejoras estratégicas, ¿podemos tener lo que equivale a cascadas positivas, donde una pequeña mejora propaga beneficios mucho mayores?"

Estas preguntas abiertas tienen la atención de los gobiernos de todo el mundo. En Estados Unidos, la Agencia para la Reducción de las Amenazas a la Defensa, una organización encargada de salvaguardar la infraestructura nacional contra las armas de destrucción masiva, considera el estudio de las redes interdependientes su "máxima prioridad de misión" en la categoría de investigación básica. Algunas aplicaciones de defensa ya han surgido, como un nuevo diseño para sistemas de redes eléctricas en bases militares. Pero gran parte de la investigación pretende clasificar las sutilezas matemáticas de la interacción de la red.

"Todavía no estamos en el nivel" vamos a ingeniar la Internet de manera diferente ", dijo Robin Burk, un científico de la información y ex director del programa DTRA que dirigió el enfoque de la agencia en la investigación de redes interdependientes. "Una buena parte de ella sigue siendo ciencia básica - ciencia desesperadamente necesaria."

martes, 18 de julio de 2017

Marketing: Cómo ayuda a la gestión de SEO el uso de grafos

SEO: Cómo impulsar su tráfico de Web con visualización de grafos

Grégory DOMINÉ | Linkurious
En esta entrada de blog nuestros amigos de NetBooster explican cómo convertir los datos de su sitio web en una visualización de grafos para mejorar su palabra clave y las decisiones de contenido de SEO.


Search Engine Optimization es una disciplina de marketing digital que tiene como objetivo mejorar la visibilidad de sitios web en los motores de búsqueda. Una gran parte del trabajo consiste en la minería de datos semánticos para medir el interés y localizar el potencial de crecimiento del tráfico.

Mientras tanto, mediante la ingeniería inversa algoritmo de búsqueda de Google, los expertos SEO tienden a organizar los sitios web en arquitecturas significativas que se rastrean, entendido e indexado por las arañas de Google.

De su blog personal a la venta al por menor en línea de primera clase, la semántica y la arquitectura de la información se convierten en críticas de hecho cuando Google tiene que decidir qué página - de un competidor o de su Web site - alineará primero en las páginas de los resultados de la búsqueda.

SEO orientado a datos

Durante muchos años, la experiencia SEO se basó principalmente en tácticas de prueba y aprendizaje, pero nosotros, en NetBooster, fomentamos el uso de datos para predecir y medir el éxito de SEO.

Mientras que la recolección de datos para dar forma a la estructura del sitio web era un desafío complejo, se hizo obvio que la visualización del gráfico podía ayudarnos a hacer sentido fuera de él: un Web site es apenas otra red de nodos (Webpages) ligados.

Así que empezamos recogiendo datos de SEO: rastreo de sitios, búsqueda centrada en el sitio, búsqueda centrada en el usuario, clasificaciones de sitios.

Rastreo del sitio

Por definición, un sitio web es una red de archivos (la mayoría de las veces los documentos HTML también se llaman páginas web) vinculados entre sí. Pero una página también puede vincularse a otra sin reciprocidad.

De acuerdo con el tamaño del sitio web, la gran cantidad de páginas y enlaces entre ellos puede ser rápidamente abrumadora. Por lo tanto, los expertos SEO utilizan el software para rastrear cada página y cada enlace de un sitio web. El rastreo del sitio resulta en una tabla en la que se enumeran todos (ver datos de ejemplo a continuación: la página car.html tiene un enlace hacia la página plane.html).

Esta red de nodos y enlaces será la base de nuestra base de datos de gráficos.


Búsqueda centrada en el sitio

Google Search Console es una herramienta gratuita que proporciona datos de búsqueda para un sitio determinado. Ofrece a los webmasters una visión general de las actuaciones de su sitio web para cada consulta específica buscada por sus visitantes (ver ejemplos de datos a continuación: la palabra clave ha conducido 20 visitas de Google a la página car.html).


Página fuentePágina destino
mysite.com/transportation/car.htmlmysite.com/transportation/plane.html

Estos datos serán útiles para determinar qué consultas, buscadas en Google, realmente dirigen tráfico a la página de un sitio web. La mayoría de las veces, resulta en miles de entradas.

Búsqueda centrada en el usuario

Google Keyword Planner es otra herramienta gratuita proporcionada por la empresa de Mountain View. Ayuda a los expertos de SEO a pesar volúmenes de búsqueda de miles de consultas y acciones de prioridad (ver ejemplo de datos a continuación: la palabra clave coche se ha buscado 12.000 veces el mes pasado).



CategoryKeyword
Monthly average search volume
Transportationcar
12,000
Transportationplane
8,000
Transportationtrain
4,000


A medida que cada palabra clave está completamente categorizada, los expertos en SEO pueden agruparlos en grupos de intenciones y extrapolar la demanda de búsqueda para propósitos más amplios (por ejemplo, palabras clave como coche, avión y tren podrían agruparse en un grupo de transporte y acumular un volumen de búsqueda de 24.000 consultas por mes).

Esta taxonomía es fundamental para reducir el alcance de las asignaciones de sitios y para priorizar los temas más estratégicos: puede decidir fácilmente si priorizar la creación de contenido dedicado al transporte o al alojamiento.


Visualización del sitio

Después de recopilar e importar los datos en una base de datos de grafos (decidimos usar Neo4J asociado con Linkurious después de resultados infructuosos usando Gephi) pudimos solicitar cualquier nodo de nuestro sitio web y mostrar enlaces entre ellos:

  • Nodos de palabras clave, recopilados a través de datos de búsqueda centrados en el sitio y datos de búsqueda centrados en el usuario;
  • Nodos de página, recopilados a través de datos de rastreo de sitios.

Esto es cuando empezamos a convertir los datos de nuestro sitio web en visualización.

Clasificación por categoría de palabras clave

Una vez importados en la base de datos Neo4J y mostrados a través de Linkurious, ahora podríamos mostrar todas las palabras clave relacionadas con una categoría y ver cuáles de ellas estaban dirigiendo el tráfico al sitio web.

En el siguiente ejemplo, las palabras clave relacionadas con management (strategic management) generaron visitas a 2 páginas del sitio web (nodos grises). El tamaño de los nodos de palabras clave muestra su volumen de búsqueda mensual (manager es más solicitado que management).



Visualización del cluster de palabras clave de management y sus conexiones a páginas web.

En este otro ejemplo, las palabras clave relacionadas con finance no generan tráfico alguno en el sitio web.



Visualización del cluster de palabras clave finance.

Siguiendo esta metodología, el análisis de todos los temas identificados en los datos de búsqueda centrados en el usuario puede caracterizar el tráfico a un sitio web y revelar el potencial de crecimiento: los temas que no tienen una página de respuesta pueden abordarse a través de la creación de contenido.

Creación de página

La creación de páginas que reflejan estructuras semánticas consistentes era una tarea fastidiosa. Y por desgracia, tuvimos que mover cada nodo manualmente para diseñar patrones significativos, ya que aún no sabíamos sobre la opción de peso de ForceLink Layout (que distribuiría nodos según el peso de su enlace) disponible en el SDK.

En la siguiente figura, creamos una nueva página (nodo gris con estrellas) destinada a capturar tráfico de las palabras clave relacionadas con las finanzas: our-finance-programs.html


Visualización de las nuevas conexiones entre la página web y el clúster de palabras clave finance.

Pero estas estructuras pueden ser mucho más complejas, dependiendo del tamaño de los clústeres de palabras clave. En el siguiente ejemplo, las palabras clave relacionadas con el grado de tema, se han reorganizado manualmente en varios subclases, cada uno vinculado a una nueva página dedicada.


Visualización de subgrupos de palabras clave degree y sus respectivas conexiones a páginas web.

Despliegue de contenido

Por último, la visualización de estructuras web que mezclan páginas (existentes o nuevas) y palabras clave (que conducen tráfico o aún no) a menudo resulta en una cartografía compleja.

Pero más allá de su complejidad aparente, tal visualización puede ofrecer una hoja de ruta consistente para la creación y el despliegue de contenido con el fin de ganar más visitantes: cada página existente debe ser editada para dirigir su campo semántico correctamente; Cada nuevo campo semántico puede ser abordado a través de la creación de un contenido específico. Y todos deben estar unidos entre sí dentro de una organización significativa.


Representación de grafos de una estructura de sitio web y las conexiones entre palabras clave, tráfico y páginas web.

PDs: muchas gracias a Olivier Tassel por inspirar esta visualización ya Dimitri Tacita por hacerla posible.

domingo, 16 de julio de 2017

Hay 4 tipos de usuarios de Facebook

Hay sólo cuatro tipos de usuarios de Facebook, los investigadores han encontrado

Lila MacLellan | Quartz



Cualquiera que use Facebook puede asumir con seguridad que a la empresa todos somos un tipo de una cosa: paquetes de datos vendibles. Sin embargo, la masiva red social es más que una cosa para sus clientes. Algunos de nosotros lo usamos para mantener las pestañas en amigos lejanos, por ejemplo, y otros para promover sus obras creativas, o "literalmente" uñas de los pies demasiado lindas. Aún otros ven a Facebook como un medio pasivo, un canal de televisión compuesto por espectáculos protagonizados por todos los que conocen y otros no.
Ahora un nuevo estudio, publicado en la International Journal of Virtual Communities and Social Networking, confirma que Facebook tiene un efecto Rashomon: varios grupos de usuarios interpretan la experiencia de usarlo de manera muy diferente. Sorprendentemente, sin embargo, los investigadores también encontraron que podrían categorizar fácilmente a los usuarios en cuatro tipos generales: "constructores de relaciones", "compradores de ventanas", "pregoneros" y "selfies".
Los autores del estudio, de la Escuela de Comunicación de la Universidad Brigham Young, dicen que estas cuatro categorías surgieron de una encuesta que pidió a los sujetos responder a una lista de 48 declaraciones. Estos incluyen frases como "Facebook es una fuente de estrés, y me deprime" y "Facebook es una forma instantánea de pedir ayuda o algo que necesito de la gente". Los sujetos clasificaron cada declaración en una escala de "más como yo" A "menos como yo", y más tarde fueron entrevistados por los investigadores que reunieron información adicional y datos cualitativos.
En particular, sólo 47 sujetos estuvieron involucrados en este estudio, pero los autores argumentan que, debido a que emplearon la metodología Q, un enfoque para investigar perspectivas divergentes sobre temas subjetivos usando clasificación, estadística y análisis de factores, el tamaño pequeño de la muestra es suficiente para revelar sólidos patrones.
Sin embargo, al leer los perfiles de los tipos de teclas que aparecen a continuación, es posible que se vea reflejado en más de una categoría. Los autores reconocen que no todos somos fácilmente casilleros, pero decimos que es probable que encontremos que somos principalmente como un tipo. Es decir, al menos entre los adultos jóvenes estadounidenses; El estudio sólo involucró a los estadounidenses de 18 a 32 años, por lo que las poblaciones mundiales y los datos demográficos más antiguos pueden incluir otros tipos. Lo que es más, sus actitudes sobre Facebook y su comportamiento en línea pueden cambiar en su vida.
Aquí está una mirada más cercana a los tipos revelados por la encuesta:

Constructores de relaciones

Esta cohorte utiliza Facebook de la misma forma en que los humanos usaron el correo real y los teléfonos fijos: fortalecer las relaciones existentes con amigos y familiares. De hecho, Facebook es una extensión de su vida fuera de línea, según Tom Robinson, director asociado de la Escuela de Postgrado de BYU y profesor de publicidad. Una muestra de la declaración de que los constructores de relaciones se identificó con "Facebook me ayuda a expresar el amor a mi familia y permite a mi familia expresar amor a mí".
Como explican los investigadores en el estudio, esta banda no considera a Facebook como una "sociedad social virtual abierta, sino como un sitio mini-hub para la narración personal, donde la información fluye libremente entre amigos y familiares". En la entrevista, un sujeto que cayó En esta categoría dijo que ella no llamó a su familia, así que Facebook era "una manera fácil de decir 'hola' y compartir un poco de amor".
Los constructores de la relación también tienden para ser carteles pesados ​​y los espectadores de cuadros y de videos; Comúnmente comentan las imágenes y actualizaciones que otros han compartido y participan en conversaciones.


Compradores de ventanas

Impulsados ​​por "un sentido de obligación social" de estar en Facebook, los compradores de ventanas ven a Facebook como una parte ineludible de la vida moderna, pero rara vez divulgan información personal, comparten fotos o escriben actualizaciones. Tampoco les gusta mucho o comentan.
Clark Callahan, uno de los coautores del documento, que también es especialista en métodos de investigación y el director de la escuela de licenciatura de comunicación en BYU, llamó a Facebook window shopping, "el equivalente social de la gente viendo". Hombres y mujeres En este grupo más identificado con declaraciones como: "Puedo mirar libremente el perfil de Facebook de alguien que tengo un enamoramiento y conocer sus intereses y estado de relación", o "Tengo que usar Facebook para mantenerse conectado con la gente. "
Otro comentó que Facebook no era un lugar para "publicar cosas sobre mí mismo o sobre mi vida cotidiana, o sobre lo que hice el sábado, porque creo que las personas Que quieren conocerme estará a punto de hacerlo conmigo ".

Pregoneros

Éstos son los periodistas auto-denominados o profesionales, activistas y organizadores de eventos que ven Facebook principalmente como una caja de jabón. A diferencia de los constructores de relaciones, su mundo virtual no se asemeja a su vida real. Pueden transmitir información que se sienten obligados a compartir con una amplia gama de conexiones cercanas y distantes, pero no están buscando un seguimiento o no en línea de todos modos. "A veces publican cosas y ni siquiera les importa si a alguien le gusta o no", dijo a Quartz Kris Boyle, un profesor de periodismo de BYU que también fue coautor.
Los miembros de esta facción suelen sonar las alarmas en los grandes temas, y pasar a lo largo de los últimos memes, y ver a Facebook como la forma más fácil de hacer eso. Uno tiene que preguntarse si, en un año de agitación política en los EE.UU. y en otros lugares, su constante publicación de artículos en línea -para los que Facebook, como un poderoso distribuidor, se lleva a casa el mayor trozo del pastel de ingresos publicitarios- no ha ayudado El gigante de la tecnología mientras debilitaba aún más la industria periodística. Pero si los periódicos pueden luchar con éxito a través de una batalla legal, como esperan, los pregoneros de la ciudad serán los primeros en contarlo a través de Facebook.
Simplemente no les pida que compartan detalles personales. Aunque están enfocados enfáticamente en empujar alertas (ya sean noticias reales o inventadas) e invitar a la gente a eventos (ya sean protestas o brunch de iglesia), los pregoneros tienden a revelar poca información "privada" en su actividad en Facebook.
Su falta de compartir e interactuar no representa una falta de interés en sus conocidos. "No hablo con mi familia en Facebook", un criador de la ciudad explicó a los autores del documento, añadiendo: "Son más importantes que eso".
La mayoría de los pregoneros prefieren recoger el teléfono, el texto o el mensaje directo de alguien para una conversación real.

Selfies

El grupo final, los selfies, es el que estamos muy familiarizados, y así es como les gusta. Sus caminos han generado miles de ensayos sobre el problema de los medios de comunicación social y han contribuido al mito del Milennial narcisista.
Los selfies usan rutinariamente las mismas características de Facebook que los constructores de relaciones, publicando fotos, videos y actualizaciones de estado, pero lo hacen principalmente para llamar la atención a sí mismos, dicen los investigadores detrás de este estudio. Energizado y validado por gustos y comentarios, los selfies estuvieron de acuerdo con declaraciones como: "Cuanto más" como "alarmas de notificación recibo, más me siento aprobado por mis compañeros".
Hablando en una entrevista de estudio, un selfie explicó que: "Tomar una foto y dejar que se sienta en mi teléfono no hace nada e inútil, pero una vez que publico algo en Facebook, muestra que he hecho algo".
Aunque los selfies se encontraron menos preocupados por la exactitud del self que presentaron en línea, dice Boyle, esa tendencia podría existir en cualquier categoría. "Incluso los constructores de relaciones podrían parecer que tienen una relación amorosa con alguien en Facebook, y cuando se reúnen, es una historia diferente", dice. Entre los pregoneros, la computadora puede proporcionar una barrera protectora para aquellos que no necesariamente se sienten cómodos compartiendo sus ideas u opiniones en la vida real.
Una calidad seductora de la interacción en línea en general, observa Boyle, es que las personas son capaces de crear una versión mejor o diferente de sí mismos.
Para compartir nuestras verdades más oscuras, preferimos el anonimato percibido de una búsqueda de Google.

viernes, 14 de julio de 2017

Ley natural: Los tweets políticos generan polarización

Un grafo muestra cómo los tweets moralmente indignados permanecen dentro de su burbuja política




Los tweets rojos y azules no interactúan mucho. (William Brady et al)


Escrito por Olivia Goldhill | Quartz


"America first"

Miles de personas en todo el mundo han hecho emocionadamente un punto político con un tweet bien afilado e ingenioso. Todo lo que se necesita es 140 caracteres para hacer un argumento rotundo, y el hombre se siente bien para obtener unos retweets.
Pero, independientemente de lo persuasivos o divertidos que sean sus tweets, es probable que no sea bien recibido por alguien que no esté de acuerdo con usted. Un estudio de más de medio millón de tweets, publicado recientemente en las Actas de la Academia Nacional de Ciencias, muestra que los tweets moralmente indignados tienden a ser ampliamente retweeted dentro de sus esferas políticas, pero rara vez escapan de sus burbujas.
Los investigadores, dirigidos por el psicólogo William Brady de la Universidad de Nueva York, comenzaron analizando el lenguaje utilizado en 563.312 tweets sobre tres temas polémicos: control de armas, matrimonio entre personas del mismo sexo y cambio climático. Ellos ordenaron los tweets según su uso del lenguaje moral (por ejemplo, la palabra "deber"), lenguaje emocional (por ejemplo, "miedo") y lenguaje que es tanto moral como emocional (por ejemplo, "odio"). Los tweets que eran estrictamente morales o puramente emocionales no tenían un mayor número de retweets, pero los investigadores encontraron un aumento del 20% en retweets por palabra moral-emocional añadida.

A continuación, los investigadores analizaron cuánto de este intercambio ocurrió en redes ideológicas. Ellos estimaron la inclinación ideológica de cada tweeter usando un algoritmo que mide la persuasión política basada en redes seguidoras. Para cada tweet, calcularon el número de retweets de aquellos con la misma ideología que el autor, en comparación con aquellos con una ideología diferente. En general, encontraron mucho más retweets en grupo que fuera de grupo para mensajes sobre el control de armas y el cambio climático. (Los resultados para los tweets de matrimonio del mismo sexo tienden en la misma dirección, pero no son estadísticamente significativos).
El gráfico de red anterior es una visualización de esos hallazgos, con el azul representando a tweeters liberales y rojo representando conservadores. Los puntos representan tweets en todos los temas políticos, mientras que las líneas representan retweets. Aunque hay cierta interacción entre los dos grupos, el rojo y el azul permanecen en gran medida separados. Incluso las palabras más morales o emocionales, al parecer, no son lo suficientemente poderosas como para inducir un retweet desde el otro lado del pasillo.

martes, 11 de julio de 2017

Detectando influyentes con Pagerank

Cómo encontrar líderes de opinión clave: La campaña #IstandwithCEU

Center for Network Science

Siguiendo nuestro análisis anterior, estudiamos la prevalencia de la campaña #IstandwithCEU en Twitter. Esto incluye el examen de 54k tweets realizados por 15k usuarios durante dos meses con un alcance social total de 180M.

Hemos reconstruido la red de retweets de los usuarios mediante la introducción de un enlace dirigido entre dos usuarios si uno retwitea el otro. Calculamos la importancia de los nodos utilizando el algoritmo llamado PageRank (PR) propuesto por los fundadores de Google. Este método cuantifica el nivel de influencia de cada usuario en la muestra dada. El concepto subyacente es similar a un sistema de votación: si un usuario retweeting a alguien, entonces el usuario retweeted es endosado, y el nivel de respaldo es proporcional a la influencia del retweeter (por ejemplo, el número de seguidores).

El análisis muestra que el puntaje PR está correlacionado con el recuento de seguidores, lo que significa que el éxito y la apreciación anteriores están lógicamente relacionados con la influencia actual y la atención adquirida. Esto es apoyado por la visualización de red también. El color nos dice que hay usuarios que tienen muchos seguidores pero que no son tan influyentes (Fig. 1: nodos grandes en color blanco, Fig. 2: debajo de la línea punteada) y aquellos que no tienen tantos seguidores pero tienen un Gran influencia (Fig. 1: pequeños nodos con color rojo, Fig. 2: puntos por encima de la línea punteada).


 Fig. 1. La red de retweets de los 1000 usuarios más influyentes activos en la campaña. Los nodos representan a los usuarios, su tamaño es proporcional al número de sus seguidores, y su color codifica la centralidad PR de escala de blanco (baja importancia) a rojo (alta importancia).

Hemos encontrado que aunque la intuición ingenua sugeriría que los usuarios altamente seguidos (hasta varios millones de seguidores) son los más importantes para lograr un amplio alcance social, hay un número de usuarios menos populares (con alrededor de 10k seguidores) entre la opinión clave Líderes. Esto significa que además de un alto reconocimiento general, una serie de tweets de calidad y una cantidad razonable de seguidores influyentes pueden en gran medida aumentar el alcance social mediante la inducción de oleadas de retweets entre los usuarios influyentes.


Fig. 2. El puntaje de PageRank versus el recuento de seguidores de cada usuario (representado por un punto) que twittó en el tema #IstandwithCEU. La línea discontinua representa una fórmula analítica (ley de potencia), mientras que los puntos grises dispersados ​​a su alrededor son la tendencia acumulando los datos.
Por Milán Janosov y Zsombor Koman

sábado, 8 de julio de 2017

ARS: Redes y centralidades de oficios en un proyecto de construcción usando Pajek

Utilizando Pajek y análisis de centralidad para identificar una red social de oficios de construcción


Brad W. Wambeke; Min Liu; y Simon M. Hsiang
Journal of Construction Engineering and Management Volumen 138 Número 10 - Octubre 2012


Resumen 

Los gerentes de proyectos de construcción a menudo se enfrentan con el reto de gestionar un complejo proceso de construcción que consiste en múltiples operaciones que trabajan en un gran número de tareas interdependientes. Una red social es un patrón de vínculos que existen entre diferentes entidades (es decir, personas, organizaciones, países). Existe una red social subyacente de oficios que existe con un proyecto de construcción y reconocer que puede ayudar a un equipo de gestión a tener éxito en este desafiante entorno. Se estudió un proyecto de 50 millones de dólares que involucra a 43 oficios durante un período de 28 semanas. Pajek, un programa de análisis de redes sociales, se utilizó para generar una serie de 14 redes sociales para los oficios involucrados. Tanto el grado como la centralidad de los vectores propios se analizaron para reflejar la distribución de las relaciones a través de la red y para identificar las operaciones clave. Esta investigación es útil para los gestores de proyectos y es significativa ya que describe e ilustra un método para identificar la red subyacente y las operaciones clave asociadas de un proyecto de construcción basado en la proximidad espacial. Si bien esta investigación se basa en un estudio de caso individual, los aspectos de esta investigación son repetibles. Los métodos presentados en este documento permitirán a otros desarrollar una red social que se adapte a un aspecto específico de un proyecto, que va desde los equipos de desarrollo de contratos a los oficios individuales utilizando un cronograma de ruta de camino crítico (CPM).