Duncan Watts Cap 5 y 6

59
1 Capítulo 5 Buscar en las redes Stanley Milgram fue en realidad una figura notablemente controvertida durante buena parte de su vida profesional. Milgram, uno de los grandes psicólogos sociales, demostró su ingenio en la ideación de experimentos que dilucidaron la misteriosa interfaz entre las mentes de los individuos y el entorno social en el que típicamente operan. Los resultados de estos experimentos a menudo fueron sorprendentes, pero a veces también resultaron turbadores y poco gratos. En su estudio más célebre, Milgram atrajo hacia su laboratorio de la Universidad de Vale a miembros de la comunidad local de New Haven, con el pretexto de participar en un estudio sobre el aprendizaje humano. Conforme iban llegando, cada participante era presentado al supuesto sujeto del experimento y se le pedía que le leyera una serie de palabras que luego el individuo debería repetir. Si el sujeto del experimento cometía una falta, había de ser castigado con una descarga eléctrica, que debía administrarle el participante en el experimento. Cada error sucesivo producía una descarga de mayor voltaje, que llegaba finalmente a alcanzar niveles dolorosos e incluso letales. Cuando esto se producía, el sujeto del experimento se ponía a gemir, a gritar, a suplicar perdón y a retorcerse por los suelos perdiendo la compostura. A los participantes que se mostraban reacios o protestaban por lo que se les estaba pidiendo que hicieran a otro ser humano, un supervisor, de aspecto severo, enfundado en una bata blanca y armado de una tablilla con sujetapapeles les ordenaba que continuaran. En lo fundamental, sin embargo, nunca ninguno de ellos fue forzado a hacer nada ni fue amenazado con represalias. Si llegados a un determinado punto, se negaban a continuar, el experimento terminaba sin mayores consecuencias. Naturalmente, el experimento no era más que una representación. Las descargas eléctricas no eran reales y el sujeto del experimento era un actor. En realidad se trataba de ver qué eran capaces de hacerle a otra persona, motu propio, individuos libres cuando se les ponía en la situación de obedecer órdenes de terceros. Al final, a los participantes se les comentó todo esto, pero mientras el experimento duró, consideraban que se trataba de algo real, lo cual hacía que su comportamiento fuera aún más incómodo. En una variación de esta prueba, durante la cual los participantes seguían siendo decisivos en el desarrollo del experimento, pero en la que las descargas las aplicaba un intermediario, treinta y siete de los cuarenta participantes aumentaron los voltajes hasta niveles letales, lo cual llevó a Milgram a concluir que las burocracias que Watts, Duncan J. 2006. Seis grados de separación. La ciencia de las redes en la era del acceso. Barcelona; Paidós, 2006.

description

Watts, Duncan J. 2006. Seis grados de separación. La ciencia de las redes en la era del acceso. Barcelona : Paidós, 2006.

Transcript of Duncan Watts Cap 5 y 6

Page 1: Duncan Watts Cap 5 y 6

1

Capítulo 5

Buscar en las redesStanley Milgram fue en realidad una figura notablemente controvertida durante buena parte de su vida

profesional. Milgram, uno de los grandes psicólogos sociales, demostró su ingenio en la ideación de experimentos que dilucidaron la misteriosa interfaz entre las mentes de los individuos y el entorno social en el que típicamente operan. Los resultados de estos experimentos a menudo fueron sorprendentes, pero a veces también resultaron turbadores y poco gratos. En su estudio más célebre, Milgram atrajo hacia su laboratorio de la Universidad de Vale a miembros de la comunidad local de New Haven, con el pretexto de participar en un estudio sobre el aprendizaje humano. Conforme iban llegando, cada participante era presentado al supuesto sujeto del experimento y se le pedía que le leyera una serie de palabras que luego el individuo debería repetir. Si el sujeto del experimento cometía una falta, había de ser castigado con una descarga eléctrica, que debía administrarle el participante en el experimento. Cada error sucesivo producía una descarga de mayor voltaje, que llegaba finalmente a alcanzar niveles dolorosos e incluso letales. Cuando esto se producía, el sujeto del experimento se ponía a gemir, a gritar, a suplicar perdón y a retorcerse por los suelos perdiendo la compostura. A los participantes que se mostraban reacios o protestaban por lo que se les estaba pidiendo que hicieran a otro ser humano, un supervisor, de aspecto severo, enfundado en una bata blanca y armado de una tablilla con sujetapapeles les ordenaba que continuaran. En lo fundamental, sin embargo, nunca ninguno de ellos fue forzado a hacer nada ni fue amenazado con represalias. Si llegados a un determinado punto, se negaban a continuar, el experimento terminaba sin mayores consecuencias.

Naturalmente, el experimento no era más que una representación. Las descargas eléctricas no eran reales y el sujeto del experimento era un actor. En realidad se trataba de ver qué eran capaces de hacerle a otra persona, motu propio, individuos libres cuando se les ponía en la situación de obedecer órdenes de terceros. Al final, a los participantes se les comentó todo esto, pero mientras el experimento duró, consideraban que se trataba de algo real, lo cual hacía que su comportamiento fuera aún más incómodo. En una variación de esta prueba, durante la cual los participantes seguían siendo decisivos en el desarrollo del experimento, pero en la que las descargas las aplicaba un intermediario, treinta y siete de los cuarenta participantes aumentaron los voltajes hasta niveles letales, lo cual llevó a Milgram a concluir que las burocracias que distanciaban a los individuos de las consecuencias últimas de sus actos eran más eficientes a la hora de aplicar con dureza la represión. En otra variación, se le pedía al participante que sostuviera la mano del sujeto en la placa eléctrica mientras le aplicaba la descarga. Aún en nuestros días, resulta difícil leer la elegante exposición que de su trabajo hizo el propio Milgram en Obediencia a la autoridad, sin sentir escalofríos. Pero en el panorama ideológico de posguerra en Estados Unidos durante la década de 1950, los hallazgos de Milgram desafiaban aquello en lo que por entonces se creía, y el experimento se convirtió en un foco de escándalo nacional.

Este experimento, pese a ser sumamente escandaloso, le abrió a Milgram la puerta del panteón de los intelectuales con un reconocimiento público cuya obra es tan ampliamente recordada y tan frecuentemente explicada que ha acabado arraigando en la propia cultura. Todavía estamos bajo el efecto del shock -es una manera de hablar- que supusieron los resultados experimentales a los que llegó, pero no ponemos en tela de juicio su autenticidad, aunque se dé el hecho de que sus experimentos nunca fueron repetidos. (En realidad, en aplicación de las regulaciones vigentes en materia de experimentos con sujetos humanos no podrían serlo.) Tampoco ponemos en duda su investigación sobre el problema del mundo pequeño (véase el capítulo 1), pese a que sigamos encontrando enigmáticos y sorprendentes los resultados a los que llegó. Si bien todos hemos oído hablar de los seis grados de separación, la mayoría no es consciente de quién acuñó la expresión ni de cómo lo hizo, y muy pocos han examinado de cerca y con detenimiento los resultados reales obtenidos por Milgram. Incluso los investigadores que citan el artículo original de Milgram y de los cuales nos inclinaríamos a pensar que lo han examinado a fondo se han mostrado propensos a aceptar sencillamente sus conclusiones sin ponerlas en duda.

Watts, Duncan J. 2006. Seis grados de separación. La ciencia de las redes en la era del acceso. Barcelona; Paidós, 2006.

Page 2: Duncan Watts Cap 5 y 6

2

Ese comportamiento plantea una cuestión sutil sobre la ciencia. Por un lado, la fuerza del proyecto científico reside en su naturaleza acumulativa. Los científicos llegan a abordar sus problemas concretos amparándose en un cuerpo de conocimientos anterior y en el cual esperan basarse sin poner en tela de juicio la validez de todos y cada uno de los métodos, suposiciones o conjuntos de hechos que utilizan. Si todos tratáramos de averiguarlo todo desde los primeros principios o incluso si insistiéramos en comprender cada pieza del puzzle con igual grado de detalle, nadie llegaría nunca a ninguna parte. Así, en cierta medida, tenemos que aceptar aquello que previamente la comunidad científica ha reconocido que se ha hecho con detenimiento y de manera correcta, y que, en consecuencia es de fiar.

Por otro lado, los científicos son tan absolutamente humanos como cualquier otro profesional y están invariablemente motivados por otros muchos factores aparte de la búsqueda de la verdad científica genuina. En parte debido a sus imperfecciones humanas, y en parte por el hecho de que la verdad misma puede ser difícil de discernir, los científicos cometen errores, interpretan mallos resultados que han obtenido y permiten que otros los tergiversen. El sistema recurre a una serie de mecanismos para anticiparse a la indefectible aparición de esos errores, como, por ejemplo, el método de evaluación por expertos (peer review), los congresos y seminarios académicos, y la publicación de artículos de crítica, que permiten filtrar buena parte de las impurezas. Pero el proceso dista mucho de ser perfecto y a veces nos sorprendemos al descubrir que un conocimiento que dábamos por cierto es dudable e incluso erróneo.

¿QUÉ DEMOSTRÓ MILGRAM EN REALIDAD?La psicóloga Judith Kleinfeld dio con lo que ahora parece un ejemplo clásico de esta fe injustificada

mientras impartía su curso de psicología a los estudiantes de primer ciclo. Andaba buscando un experimento práctico que sus estudiantes pudieran realizar y que les permitiera entender el modo en que podía aplicar en sus vidas fuera del aula lo que estaban aprendiendo en la asignatura. El experimento del mundo pequeño que había realizado Milgram parecía un candidato perfecto y Kleinfeld decidió proponer a sus estudiantes que lo repitieran de la manera en que se podía hacer en el siglo XXI, utilizando el correo electrónico en lugar del correo postal. Sin embargo, finalmente en realidad no llegaría a realizarse. A fin de preparar el experimento, Kleinfeld empezó por leer los artículos de Milgram. En lugar de encontrar una base sólida para el experimento en el que estaba pensando, los resultados de Milgram –examinados detenidamente- parecían plantear solo cuestiones incómodas acerca de cómo había llegado a obtenerlos.

Conviene recordar aquí que Milgram puso en marcha su cadena con aproximadamente trescientas personas, todas las cuales trataron de hacer llegar sus cartas a un mismo destinatario en Bastan. Según lo que todo el mundo cuenta, esas trescientas personas vivían en Omaha, pero un examen más detenido de sus orígenes muestra que un centenar vivían de hecho en Bastan. Además, de entre las casi doscientas personas que vivían en Nebraska, sólo la mitad habían sido seleccionadas al azar (a partir de una lista de correos que Milgram adquirió). La otra mitad eran todas inversoras en acciones de primer orden y el destinatario en Bastan, por supuesto, era un agente de bolsa. Los célebres seis grados, en realidad, eran el promedio obtenido a partir de los resultados de estas tres poblaciones, y, como cabía esperar, el número de grados variaba bastante de una porción a otra de esta muestra: así, los naturales de Bastan y los inversores de bolsa consiguieron completar las cadenas con mayor éxito y menos enlaces que la muestra aleatoria tomada de Nebraska.

Recordemos, asimismo, que el sorprendente hallazgo en el problema del mundo pequeño afirma que cualquier persona puede llegar a cualquier otra persona, es decir, no sólo a las demás personas de la misma localidad o a personas con fuertes intereses comunes, sino a cualquier otra en cualquier otro lugar. Así, en realidad, la única población que satisfacía, aunque de modo remoto, las condiciones de la hipótesis tal como se acostumbra a enunciar (e incluso tal como el propio Milgram la enunció) eran las noventa y seis personas que habían sido seleccionadas a partir de la lista de correos. Llegados a este punto, el peso de la muestra empieza a ser inquietantemente menor: de las noventa y seis cartas iniciales enviadas por la población de esa muestra, sólo dieciocho llegaron a su destino. ¡Dieciocho! ¿Y para este viaje tantas alforjas? ¿Cómo podía alguien haber inferido a partir de sólo dieciocho cadenas dirigidas a un único destinatario un principio tan universal y que pretende abarcarlo todo como el que empezamos proponiéndonos explicar? Y ¿cómo todo el resto de nosotros pudimos estar de acuerdo con aquel resultado sin poner en tela de juicio en ningún momento la plausibilidad de semejante afirmación?

Watts, Duncan J. 2006. Seis grados de separación. La ciencia de las redes en la era del acceso. Barcelona; Paidós, 2006.

Page 3: Duncan Watts Cap 5 y 6

3

Turbada por estas preguntas, Kleinfeld pasó a investigar los artículos posteriores de Milgram y de otros autores, suponiendo que a todas luces la insostenible laguna existente entre los resultados empíricos y su posterior interpretación había sido justificada en alguna otra parte. De nuevo, se sorprendió al descubrir que no era así y que más bien había sucedido todo lo contrario. Si bien Milgram y sus colaboradores llevaron a cabo otros experimentos -y el más significativo de los cuales era el que relacionaba a una población de raza blanca en Los Ángeles con destinatarios afroamericanos de la ciudad de Nueva York-, éstos adolecían más o menos de lo mismo que el primero. Y lo que era aún más sorprendente, sólo un puñado de investigadores habían intentado reproducir los hallazgos de Milgram, y los resultados a los que ellos habían llegado eran aún menos persuasivos que los de Milgram. Uno de estos experimentos, por ejemplo, trató de relacionar remitentes y destinatarios en el seno de la misma Universidad del Medio Oeste de Estados Unidos, lo cual difícilmente cabía considerar como una prueba de un principio universal.

Cada vez más preocupada por todo lo que iba descubriendo, Kleinfeld terminó buscando en los archivos de la Universidad de Yale ahondando en las notas originales y los escritos inéditos de Milgram, convencida aún de que se le había pasado hasta entonces algo por alto. Y, en efecto, así era. Tal como descubrió en ese trabajo de documentación, Milgram había realizado otro estudio paralelamente al de Omaha, en el cual había escogido remitentes situados en Wichita, Kansas y, como destinataria, a la esposa de un estudiante del Divinity School de Harvard. Milgram mencionó este estudio en su primer artículo, publicado en Pyschology Today, porque había dado la cadena más corta de las que había tenido oportunidad de medir: la primera carta llegó a su destino en sólo cuatro días y empleó sólo dos intermediarios. Aquello que Milgram no mencionó en ese artículo ni en cualquier otro es que de las sesenta cartas que se enviaron, la primera era sólo una de las tres que llegaron a su destino. Kleinfeld también sacó a la luz informes de dos estudios complementarios en los que los índices de finalización de la cadena eran tan bajos que no se llegaron a publicar los resultados. La conclusión final de Kleinfeld era que el fenómeno del mundo pequeño, tal como estamos acostumbrados a verlo presentado, carecía de base empírica.

Cuando este libro iba camino de la imprenta, estábamos realizando lo que es de lejos el experimento de mundo pequeño más extenso hasta la fecha realizado, en un intento por resolver el tema que debiera haberse resuelto mucho antes. Sirviéndonos del correo electrónico en lugar de cartas convencionales y coordinando los mensajes a través de un website centralizado, pudimos manejar un volumen de remitentes y datos que Milgram ni alcanzó a soñar. Por el momento, tenemos cincuenta mil cadenas de mensajes cuyo origen se halla en cincuenta países en busca de dieciocho destinatarios distribuidos por Estados Unidos, Europa, América del Sur, la región de Asia y el Pacífico. Desde un profesor universitario de Ithaca -¿no se imagina quién es?- hasta un inspector de archivos en Estonia, pasando por un policía de Australia hasta un oficinista de Omaha, nuestros destinatarios cubren la gama de usuarios de Internet, una población de quinientos millones de personas globalmente dispersa. Nuestros remitentes, entretanto, fueron reclutados a través de reseñas sobre el experimento que aparecieron publicadas en la prensa de todo el mundo, y son cientos los que se ponen cada día en contacto con nosotros.

Por grande que pueda parecernos, medio millar de millones de personas no es aún todo el mundo. y casi con toda seguridad, las personas que tienen acceso a un ordenador (y el tiempo libre suficiente para utilizarlo) representan una sección relativamente reducida de la sociedad global. Evidentemente, por tanto, los resultados de un experimento tan gigantesco como el que realizamos no serán universalmente aplicables. Además, el experimento adolece de un problema con el que ya se encontró Milgram, aunque no en la misma medida: la apatía. En la actualidad, mucho más que en la década de 1960, recibimos montones de correo basura, sobre todo correo electrónico, y frecuentemente somos reticentes -o sencillamente estamos demasiado ocupados- como para participar, aunque nos lo pida un amigo. El resultado es un índice de terminación de la cadena aplastantemente bajo, menos del 1 % del total de las cadenas que empezaron llegaron hasta sus destinatarios finales (Milgram, conviene recordarlo, obtuvo un índice de terminación del 20 %). Así, aunque las esperanzas que depositamos en nuestro experimento son altas, el jurado aún está deliberando y puede continuar así aunque nuestros resultados queden enteramente analizados. Quizá, por tanto, el mensaje a transmitir es que resulta increíblemente difícil resolver por vía empírica el fenómeno del mundo pequeño.

¿SEIS ES UN NÚMERO GRANDE O PEQUEÑO?¿Dónde nos deja esto? Al fin y al cabo hemos dedicado un buen rato a tratar de comprender el

fenómeno del mundo pequeño. Y ahora, ¿vamos a ponerlo en tela de juicio? Lo que se dice ponerlo en tela de

Watts, Duncan J. 2006. Seis grados de separación. La ciencia de las redes en la era del acceso. Barcelona; Paidós, 2006.

Page 4: Duncan Watts Cap 5 y 6

4

juicio, no, pero existe una diferencia importante entre el fenómeno del mundo pequeño que definimos para nuestros modelos de red y el fenómeno del mundo pequeño tal como lo investigó Milgram y que, precisamente, hemos glosado en las páginas anteriores. Conviene no olvidar que el principal motivo para el enfoque inicial que dimos al problema era la dificultad de una verificación empírica, de modo que, per se, la continua escasez de pruebas empíricas no supone un problema para los resultados que hemos obtenido. La cuestión en realidad es que existe una gran diferencia entre dos personas que están relacionadas por un camino corto (que es lo que afirman los modelos de red de mundo pequeño) y su capacidad para encontrar ese camino. Recordemos que los sujetos del experimento de Milgram se suponía que pasaban la carta a una persona que consideraban más relacionada con el destinatario de lo que ellos mismos estaban. Lo que se suponía que no hacían era enviar copias de la carta a todas las personas que conocían. Con todo, ése era precisamente el tipo de cálculo que con Steve llevamos a cabo en nuestros experimentos numéricos, y que se halla implícito en nuestros enunciados acerca de las longitudes de camino más cortas. Por tanto, a nuestro entender, es completamente posible vivir en un mundo pequeño, en el sentido de los modelos de redes de mundo pequeño expuestos en los capítulos 3 y 4, y aún así dudar de la veracidad de los hallazgos de Milgram.

Otro modo de expresar la diferencia entre la prueba que nosotros ideamos para el fenómeno del mundo pequeño y la de Milgram consiste en contraponer búsqueda diseminada y búsqueda dirigida. En la modalidad diseminada, uno se lo cuenta a todos aquellos que conoce, los cuales, a su vez, se lo cuentan a todos los que conocen, y así hasta que el mensaje llega hasta su destinatario. Según esas reglas, si es que existe un camino corto que relacione la fuente remitente y el destinatario, uno de esos mensajes lo encontrará. El inconveniente es que la red está totalmente saturada de mensajes, dado que cualquier rincón y ranura son probados como un camino potencial para llegar hasta el destinatario. No parece muy halagüeño, y, en efecto, no lo es. De hecho, precisamente de este modo se propagan los virus informáticos más molestos, de los cuales hablaremos con mayor detenimiento en el capítulo 6.

Las búsquedas dirigidas son mucho más sutiles que las diseminadas y presentan distintos pros y contras. En una investigación dirigida como la del experimento de Milgram, sólo se pasa un mensaje a la vez, de modo que si la longitud de un camino entre dos individuos tomados al azar es, pongamos por caso, de seis pasos, entonces sólo seis personas reciben el mensaje. Si los sujetos del experimento de Milgram hubieran realizado búsquedas diseminadas, enviando mensajes a todas y cada una de las personas que conocían, las cartas hubieran sido recibidas por todas las personas que viven en el país -unos doscientos millones de habitantes más o menos en aquella época- sólo para llegar a un único destinatario. Si bien un método de diseminación hubiera encontrado, en principio, lamino más corto hasta el destinatario, en la práctica; habría resultado imposible. Al requerir la participación de sólo seis personas, el método de la búsqueda dirigida evita inundar el sistema, aunque la tarea de encontrar un camino corto se hace considerablemente más complicada. Si bien en teoría sólo seis grados nos separan de cualquier otra persona en el mundo, el planeta, no obstante, tiene seis mil millones de habitantes, y al menos un número igual de caminos que llevan hasta ellos. Enfrentados a este laberinto de complejidad que resulta harto difícil de concebir, ¿cómo encontraremos aquel camino corto que andamos buscando? Bueno, lo cierto es que es difícil, al menos si lo hacemos en solitario.

Mucho antes de que apareciera el juego de Kevin Bacon, los matemáticos acostumbraban a jugar a algo similar con Paul Erdős. A Erdős, que no sólo era un gran matemático -en extremo prolífico-, sino también casi una celebridad entre la comunidad de matemáticos, se le consideró el centro de esta comunidad del mismo modo en que Kevin Bacon era el centro del mundo de los actores cinematográficos. En consecuencia, cuando se había publicado un artículo con Erdős, se recibía el número Erdős 1. Si no se había publicado un artículo con Erdős pero se había escrito uno con alguien que sí lo había hecho, entonces se recibía el número Erdős 2. Y así sucesivamente. De modo que la pregunta que hacer era: «¿Qué número Erdős tienes?». Y el objeto del juego consistía en tener el número Erdős más pequeño posible.

Si se tenía el número Erdős 1, entonces el problema era trivial. Y si se tenía el número Erdős 2, tampoco estaba mal. Erdős era un hombre célebre, de modo que cualquiera que hubiera trabajado con él probablemente lo habría mencionado. Pero cuando el número Erdős era superior a 2, el problema se complicaba, porque aunque uno conociera bien a los colaboradores con quien trabajaba, por lo general no conocía a todos los demás con los que aquellos habían colaborado. Si se le dedica un tiempo, se podría escribir una lista razonablemente completa de otros colaboradores con los que han trabajado, aunque fuera sólo examinando todos los artículos que han publicado o preguntándoselo directamente. Sin embargo, hay científicos que han escrito artículos durante cuarenta años o más y pueden haber acumulado varias docenas de

Watts, Duncan J. 2006. Seis grados de separación. La ciencia de las redes en la era del acceso. Barcelona; Paidós, 2006.

Page 5: Duncan Watts Cap 5 y 6

5

colaboradores en ese lapso de tiempo, y les puede resultar difícil acordarse de algunos de sus nombres. Todo esto tiene ya el aspecto de ser difícil pero lo es aún más, y en el siguiente paso uno se pierde en lo esencial. Imaginémonos que tratamos de escribir la lista no sólo de nuestros colaboradores y de los que a su vez colaboraron con ellos, sino también la de todos los colaboradores que trabajaron con estos últimos. Ni tan sólo conoceremos a la mayoría y puede darse el caso de que ni siquiera hayamos oído hablar de ellos; así, ¿cómo vamos a tener la posibilidad de saber con quién han trabajado? Básicamente no podemos.

Lo que hemos tratado de hacer aquí es efectivamente una búsqueda diseminada en una red de coautoría y, de nuevo, descubrimos que prácticamente es imposible. Así, todos acabamos haciendo una búsqueda dirigida. Escogemos a uno de nuestros colaboradores cuyo trabajo consideramos que es más similar al de Erdős, y así sucesivamente. El problema es que a menos que se sea un experto en uno de los campos específicos en los que Erdős trabajó, puede que no sepamos cuál de entre nuestros colaboradores es la mejor elección. En cuyo caso, puede que nos equivoquemos desde el principio y terminemos atrapados en un callejón sin salida. O tal vez lo acertemos de entrada, pero en una de las oportunidades siguientes no atinemos a hacerlo. O tal vez estemos en el camino correcto, pero lo abandonemos antes de haber ido lo suficientemente lejos. ¿Cómo sabremos si la búsqueda avanza por buen camino?

Esta pregunta no parece tener una respuesta sencilla y la principal dificultad estriba en que tratamos de resolver un problema global-encontrar un camino corto- utilizando sólo información local sobre la red. Podemos saber quiénes son nuestros colaboradores, pero más allá de ellos, en realidad, nos enfrentamos a un mundo de extraños. En consecuencia, resulta imposible saber cuál de los muchos caminos que parten de nosotros llevan hasta Erdős en el menor número de pasos posible. A cada grado de separación, hemos de tomar una nueva decisión y no hay un modo claro de evaluar cuáles son nuestras opciones. Al igual que alguien que vive en Manhattan puede ir fácilmente en coche hasta el aeropuerto de La Guardia para embarcar en un vuelo que le llevará a la Costa Oeste, la elección óptima del camino de red puede llevarnos, al principio, en una dirección que parece equivocada. Pero, a diferencia del desplazamiento hasta el aeropuerto, en este caso no tenemos un mapa completo de la ruta en nuestra cabeza, de modo que el equivalente en este caso a «conducir en dirección este para volar hacia el oeste» no es una idea tan obviamente buena.

Por muy pequeño que pueda parecernos a primera vista, el seis puede ser un número grande. De hecho, cuando se trata de búsquedas dirigidas, cualquier número superior a dos es de hecho grande, tal como Steve tuvo oportunidad de descubrir un día cuando un periodista le preguntó cuál era su número Erdős. Finalmente lo calculó -era cuatro-, pero tuvo que dedicar dos días enteros para averiguarlo. (Lo recuerdo porque yo estaba tratando de hacer algo con él y Steve estaba demasiado preocupado incluso para hablar.) Aunque puede parecernos que sólo se trata de otros de otros de los modos que los matemáticos tienen para no hacer un trabajo real, lo cierto s que las búsquedas dirigidas tienen una vertiente seria. Desde navegar por Internet hasta localizar un archivo en una red de evaluación por expertos, o incluso hasta tratar de encontrar a la persona indicada para que responda a una pregunta técnica o administrativa, con frecuencia nos encontramos buscando información haciendo una serie de preguntas, y a menudo nos quedamos atrapados en callejones sin salida frustrantes o dudando de si hemos seguido el camino más corto. Tal como veremos en el capítulo 9, encontrar caminos cortos que lleven a la información correcta es algo especialmente importante en épocas de crisis o de rápido cambio, cuando los problemas requieren que se les encuentre una solución a toda prisa y nadie tiene una idea clara de qué se precisa o quién la tiene. Y, tal como pudimos descubrir con el problema original del mundo pequeño, una teoría sencilla a veces puede decirnos mucho acerca de un mundo complejo que no hubiéramos reparado en considerar de haber examinado directamente el mundo mismo.

EL PROBLEMA DE LA BÚSQUEDA EN EL MUNDO PEQUEÑOEn esta ocasión, el avance decisivo lo realizó un joven informático, Jan Kleinberg, que estudió en la

Universidad de Cornell y en el MIT, trabajó en el Almaden Research Center que IBM tiene cerca de San Francisco y luego volvió a Cornell como profesor. Kleinberg planteó una pregunta que ni a Steve ni a mí se nos había ocurrido, aunque, al igual que con las redes sin escala, parecía tan natural considerada a posteriori que nos preguntábamos cómo era posible que se nos hubiese pasado por alto. En lugar de centrarnos en la mera existencia de caminos cortos, como habíamos hecho nosotros, Kleinberg se preguntó cómo los individuos en una red podían encontrar efectivamente esos caminos. Y el motivo volvía a ser el trabajo de Milgram. Dejando a un lado las dudas que Judith KIeinfeld evidenció, ciertamente algunos de los individuos que participaron en los experimentos de Milgram consiguieron que las cartas que ellos enviaron llegaran al

Watts, Duncan J. 2006. Seis grados de separación. La ciencia de las redes en la era del acceso. Barcelona; Paidós, 2006.

Page 6: Duncan Watts Cap 5 y 6

6

destinatario que se pretendía, y el modo en que lo habían logrado, para KIeinberg, no era obvio. Después de todo, los remitentes en esencia intentaban realizar una búsqueda dirigida en una red social muy grande sobre la cual disponían de muy poca información (mucha menos que un matemático que tratara de calcular su número de Erdős).

Ante todo, lo que Kleinberg resolvió fue que, de hecho, si .el mundo real funcionaba de algún modo como proponían los modelos que habíamos propuesto con Steve, entonces las búsquedas dirigidas del tipo de aquella observada por Milgram habrían sido imposibles. El problema, al final, resultó surgir de un rasgo de nuestros modelos de mundo pequeño que aún no hemos expuesto. Si bien los modelos nos permiten construir redes que presentan una cantidad de desorden variable, la aleatoriedad es en realidad de un tipo especial. En concreto, siempre que se crea un atajo a través de una de nuestras renovaciones o reconexiones (rewirings), un vecino queda liberado y un nuevo vecino es escogido uniformemente al azar entre todos los de la red. Dicho de otro modo, cada nodo tiene la misma probabilidad de ser escogido como nuevo vecino, con independencia de dónde se halle situado y lo lejos que esté.

La aleatoriedad uniforme nos parecía una suposición natural que hacer en nuestro primer intento de abordar el problema, porque no depende de la idea particular de distancia de nadie. Pero aquello que Kleinberg señalaba era que las personas, de hecho, sí tienen nociones bastante fuertes de lo que es distancia y las utilizan en todo momento para diferenciarse de los demás. La distancia geográfica es una noción evidente, pero la profesión, la clase, la raza, la renta, la formación, la religión y los intereses personales son, a menudo, factores en nuestras evaluaciones de lo «distante» que uno está respecto a otras personas. Nos servimos de estas nociones de distancia en todo momento cuando nos identificamos a nosotros mismos y a los demás, y es de suponer que los sujetos que participaban en los experimentos de Milgram también las utilizaban. Pero como sea que las conexiones aleatorias uniformes como las representadas en la figura 3.6 no se sirven de estas nociones de distancia, los atajos resultantes son difíciles de utilizar en el caso de las búsquedas dirigidas. La ausencia de toda referencia al sistema de coordenadas subyacente -el retículo en anillo en el caso del modelo beta del capítulo 3- impide que la búsqueda dé en el blanco con efectividad. Así, el mensaje termina o saltando aleatoriamente por la red o abriéndose lentamente camino a través del retículo. Si ése había sido el caso en el experimento de Milgram, sus cadenas habrían tenido una longitud de cientos de enlaces, pocos menos que si el mensaje hubiera pasado de puerta en puerta cubriendo toda la distancia que separa Omaha de Boston.

Así, aquello que Kleinberg consideraba era una clase de modelos de red mucho más general en los que, aunque los enlaces aleatorios se continúan añadiendo a un retículo subyacente, la probabilidad de que un enlace al azar relacione dos nodos decrece conforme crece su distancia medida en el retículo. Para decirlo de una forma más llana, Kleinberg consideraba el problema de pasar el mensaje en un retículo de dos dimensiones (figura 5.1), en la parte superior del cual imaginaba que se añadían enlaces aleatorios según una distribución de probabilidad representada' por una de las funciones de la figura 5.2. Desde un punto de vista matemático, cada una de estas líneas rectas trazadas en una escala de ejes logarítmicos es una ley potencial con un exponente gamma (ɣ) que cambia de una línea a otra.

FIGURA 5.1. Modelo de retículo bidimensional de Kleinberg. Cada nodo está relacionado con sus otros cuatro vecinos más cercanos en el retículo y un único contacto aleatorio.

Watts, Duncan J. 2006. Seis grados de separación. La ciencia de las redes en la era del acceso. Barcelona; Paidós, 2006.

Page 7: Duncan Watts Cap 5 y 6

7

Un exponente con valor cero -la línea horizontal en la parte superior- implica que todos los nodos del retículo tienen igual probabilidad de ser contactos aleatorios; dicho de otro modo, el modelo de Kleinberg se reduce a una versión bidimensional del modelo beta que hemos expuesto en el capítulo 3. Así, cuando gamma es igual a cero, existen muchos caminos, pero tal como acabamos de ver, no se pueden hallar. Cuando gamma, en cambio, es grande, la probabilidad de un atajo aleatorio decrece tan rápidamente con la distancia que sólo aquellos nodos que ya se hallan cerca (en e1 retículo) tienen alguna oportunidad de ser conectados. En este límite, cada conexión aleatoria contiene mucha información acerca del retículo subyacente, y así los caminos pueden ser recorridos con facilidad. El problema estriba en que como los atajos de largo alcance son efectivamente imposibles, no hay camino corto alguno que encontrar. Por tanto, el modelo no daba lugar, ni en un límite ni en el otro, a redes en las que se pueden lanzar procesos de búsqueda. Pero aquello que Kleinberg quería saber era qué sucedía en la zona situada en medio.

FIGURA 5.2. Probabilidad de generar un contacto aleatorio en función de la distancia reticular (r). Cuando el exponente gamma (ɣ) es igual a cero, los contactos aleatorios de todas las longitudes son igual de probables. Cuando, en cambio, el valor del exponente gamma es grande, sólo los nodos situados cerca del retículo estarán conectados.

En realidad sucede algo bastante interesante. La figura 5.3 muestra el número típico de saltos que un mensaje necesita realizar antes de localizar a un destinatario aleatorio, en función del exponente gamma (ɣ). Cuando el exponente gamma es muy inferior a dos, los caminos cortos sencillamente no existen. Pero cuando gamma es exactamente igual a dos, la red alcanza una especie de óptimo entre la conveniencia de navegación del retículo y la potencia acortadora de distancia de los atajos de largo alcance. Continúa siendo cierto que la probabilidad de relacionar un nodo particular cualquiera decrecerá con la distancia. Pero también lo es que cuanto mayor es la distancia, más nodos con los que conexionarse hay. Aquello que Kleinberg demostró es que cuando gamma alcanza el valor crítico de dos, estas fuerzas en conflicto se anulan la una a la otra. El resultado es una red con la propiedad particular según la cual los individuos tienen el mismo número de lazos en todas y cada una de las escalas de longitud.

Watts, Duncan J. 2006. Seis grados de separación. La ciencia de las redes en la era del acceso. Barcelona; Paidós, 2006.

Page 8: Duncan Watts Cap 5 y 6

8

FIGURA 5.3. Principal resultado de Kleinberg. Sólo cuando el exponente gamma es igual a dos, la red posee caminos cortos que los individuos pueden efectivamente encontrar.

Este concepto es algo difícil de comprender, pero Kleinberg aportó una bonita imagen que permite captarlo; me refiero al dibujo View of the World from 9th Avenue de Saul Steinberg, y que fue publicado como una hermosa portada en The New Yorker en una de sus entregas de 1976. Lo hemos reproducido en la figura 5.4. En la imagen, la Novena Avenida ocupa casi tanto espacio como toda una manzana de la ciudad, la cual a su vez ocupa el mismo espacio que la parte de Manhattan al oeste de la Décima Avenida y el río Hudson juntos. La primera parte de la imagen está dedicada a todos los Estados Unidos situados al oeste del Hudson, al océano Pacífico; y, luego, finalmente, al resto del mundo.

FIGURA 5.4. Saul Steinberg, View of the World fmm 9th Avenue, publicado en una de las portadas de 1976 del The New Yorker, ilustra el concepto de fases de búsqueda desarrollado por Kleinberg. Colección particular, Nueva York.

Steinberg hacía en este dibujo un comentario social sobre la tendencia de los neoyorquinos a poner un hincapié muy especial en que los asuntos locales son grandes cuestiones que tiene planteadas el planeta -es decir, su visión de sí mismos como ombligo del universo-, pero, en cambio, en el modelo de Kleinberg, la imagen cobra un sentido aún más tangible. Cuando gamma es igual al valor crítico de dos, un individuo en la Novena Avenida es probable que tenga el mismo número de amigos en cada región, o escala, de la imagen. Dicho d otro modo, sería de esperar que tuviéramos tantos amigos viviendo en nuestro vecindario como en el resto de la ciudad, que tuviéramos el mismo número de amigos viviendo en el resto del Estado como, de nuevo, en el resto del país, y así sucesivamente, hasta alcanzar la escala de todo el mundo. Las posibilidades que tenemos de conocer a alguien que viva en otro continente son más o menos las mismas que las de conocer a alguien que viva en nuestra calle. Sin duda, varios miles de millones de personas viven en otros continentes, y probablemente sólo unos pocos cientos viven en nuestra calle. Pero aquí la idea consiste en que es tan poco probable que conozcamos a alguna persona en particular en el otro lado del mundo que «el resto del mundo» y «la calle» acaban por representar más o menos el mismo número de nuestros conocidos.

Lo fundamental del resultado alcanzado por Kleinberg es que cuando se cumple esta condición de igual conectividad en todas las escalas de longitud, no sólo la red muestra caminos cortos entre todos los pares de nodos, sino que también los remitentes individuales pueden hallar los caminos si cada uno de ellos

Watts, Duncan J. 2006. Seis grados de separación. La ciencia de las redes en la era del acceso. Barcelona; Paidós, 2006.

Page 9: Duncan Watts Cap 5 y 6

9

simplemente remite el mensaje a aquel de sus amigos que parece estar más cerca o ser más allegado al destinatario. Lo que hace factible el problema de la búsqueda es que nadie tiene que resolverlo en solitario. Más bien, todo de cuánto debe preocuparse un remitente particular a cada paso es de hacer que el mensaje llegue a la siguiente fase de su búsqueda, y aquí fase es algo similar a las diferentes regiones del dibujo de Steinberg. Así, en el caso de que nuestro destinatario final fuese un granjero de Tayikistán, no es preciso averiguar cómo hacer que el mensaje recorra todo el camino hasta llegar a su destino, ni siquiera al país indicado. Sólo debemos dirigirlo hacia la parte correcta del mundo, y luego dejar que otro se ocupe de él. Al hacerlo así, suponemos que la persona que viene a continuación en la cadena, al estar más cerca del destinatario, tiene una información más precisa que la nuestra, y, por tanto, está en mejores condiciones de hacer que la búsqueda avance hasta su siguiente fase. Y, en efecto, eso es precisamente lo que se garantiza cuando el exponente gamma es igual a dos. Cuando la red satisface esta condición, sólo se requieren unos pocos remitentes para hacer que un mensaje pase de una fase a otra (desde cualquier parte del mundo hasta el país indicado, desde cualquier punto de ese país hasta la ciudad correcta, y así sucesivamente). Y dado que el mundo, tal como lo refleja la imagen que Steinberg dibujó, siempre se puede dividir en un pequeño número de estas fases, entonces la longitud total de la cadena de mensaje será también corta.

La condición de Kleinberg, como la denominamos, junto con la prueba que hizo de la imposibilidad de buscar en redes uniformemente aleatorias de mundo pequeño, significó, de hecho, un paso importante en nuestra reflexión sobre las redes. La idea de mayor calado de Kleinberg era que los meros atajos no bastaban para hacer que el fenómeno de mundo pequeño tuviera alguna utilidad real para los individuos informados localmente. Para que las conexiones o las relaciones sociales sean útiles --en el sentido de encontrar algo de forma deliberada- tienen que cifrar información acerca de la estructura social subyacente. Pero aquello que el modelo de Kleinberg no explicaba es cómo el mundo podría efectivamente ser así. Tal vez sea cierto que si los lazos en una red social son dispuestos de talo cual determinada manera, entonces el mundo de improviso pasa a ser explorable. Pero, ante todo, ¿cómo diantre se organizaría la red de ese modo? Desde una perspectiva sociológica, de hecho, la condición de Kleinberg parece bastante improbable. Kleinberg, sin duda, no trataba de elaborar un modelo realista en términos sociológicos y, al mantener el modelo que elaboró en ese nivel de sencillez, pudo comprender sus propiedades de una manera en que le hubiera resultado imposible a través de una versión más compleja. Pero, de este modo, dejó también la puerta abierta a una nueva forma de pensar el problema, una forma que incorporaba ciertas ideas sociológicas.

LA SOCIOLOGÍA CONTRAATACA Un día que Mark me visitó en la Universidad de Columbia, a la que me había trasladado tras dejar el

MIT en agosto de 2000 para incorporarme al departamento de sociología, hablamos del problema de la búsqueda dirigida. Después de discutirlo un poco, nos convencimos de que la condición de Kleinberg no era la forma correcta de entender los resultados de Milgram. Pero ¿entonces cuál era? ¿No había probado Kleinberg que no era posible buscar de manera efectiva en cualquier red que no estuviera conexionada equitativamente en todas las escalas de longitud? Bueno, en parte sí y en parte no. Sí, en el caso de que fuera cierto que las personas miden todas las distancias que median entre ellas y cualquier otra en función de un retículo subyacente. Pero tal vez lo que en realidad nos decían los resultados de Kleinberg era que las personas no calculan en realidad las distancias de esa manera. Mientras paseábamos por el campus bajo un sol primaveral, se nos ocurrió un ejemplo que suponía el desafío arquetípico que plantea e1 problema del mundo pequeño: ¿cómo llegar hasta un campesino chino? Tal vez ninguno de nosotros conocía a ningún campesino en China continental y, con independencia de cuántos campesinos hubiera en el país, quizá nunca llegaríamos a conocer a ninguno. Pero conocíamos a alguien que al menos podía indicarnos la dirección a seguir.

Erica Jen, una norteamericana de origen chino que hasta hacía poco había sido vicerrectora de investigación en el Santa Fe Institute y era asimismo la persona que nos había contratado tanto a Mark como a mí, estudió en la Universidad de Pekín durante los años de la Revolución cultural, mucho antes de su llegada a Santa Fe. Además, en aquella época, Jen había sido en cierto modo una activista social (y una de las primeras ciudadanas estadounidenses en estudiar en la capital de China) y nos figuramos que, aunque no conociera a ningún líder rural de la provincia de Sichuan (o cualquier otra donde nuestro hipotético campesino viviese), podría, en cambio, conocer a alguien que sí lo conociera. En todo caso, si le dábamos una carta, podíamos confiar bastante en que el mensaje llegaría a China en un solo paso. No sabíamos exactamente cómo y tampoco qué sucedería una vez la carta llegara a aquel país. Pero si Kleinberg estaba en lo cierto,

Watts, Duncan J. 2006. Seis grados de separación. La ciencia de las redes en la era del acceso. Barcelona; Paidós, 2006.

Page 10: Duncan Watts Cap 5 y 6

10

aquél no era nuestro problema, ya que todo cuanto debíamos hacer era llevar la carta hasta la fase siguiente en el camino de su entrega (es decir, hacerla llegar al país correcto) y entonces dejar que alguien más se ocupara de apuntarla en la dirección que la llevaría hasta su destinatario.

La diferencia entre el modelo Kleinberg y nuestra cadena imaginaria de remitentes consistía en que si bien Erica era a todas luces un enlace fundamental en la cadena, y probablemente la que haría llegar la carta más lejos, no era, en lo que a Mark y a mí concernía, un contacto de «larga distancia». Los tres pertenecimos, en algún momento, a la misma comunidad, pequeña y muy unida que abarcaba a los investigadores empleados en el Santa Fe Institute. Desde nuestro punto de vista, no importaba dónde hubiera vivido Erica Jen o qué hubiera hecho hacía dos décadas: ella era nuestro superior, y nuestra colega y amiga, y trabajaba en el mismo lugar que nosotros y estaba interesada en muchos de los mismos proyectos intelectuales que nosotros. No era más distante de nosotros que nosotros de ella y, por lo que sabíamos, sus amigos en China, a sus ojos, no serían menos cercanos a ella de lo que lo éramos nosotros. Dicho de otro modo, la carta daría lo que a cada uno de los portadores les parecerían dos saltitos -uno desde nosotros a Erica y otro desde ella a un amigo suyo en China-, que, considerados como una única fase, parecerían ser en realidad muy grandes.

Pero ¿por qué dos pasos cortos vi nen a ser por completo distintos de algo corto? En un modelo normal de retículo, como aquel que habíamos considerado primero con Steve y luego con Kleinberg, eso no sucedía, y ésa es la razón por la cual todos los modelos así (el de Kleinberg inclusive) requieren una fracción de lazos de largo alcance. Sin embargo, parece que puede suceder en el mundo social real y esta paradoja ha sido una fuente persistente de preocupación entre los sociólogos con inclinaciones matemáticas.

Ya en la década de 1950, cuando elmatemático Manfred Kochen y el politólogo Ithiel de Sola Pool trabajaron conjuntamente reflexionando sobre el problema del mundo pequeño, las distancias sociales parecían infringir una condición matemática conocida como la desigualdad del triángulo, que la figura 5.5 ilustra. De acuerdo con la desigualdad, la longitud de cada lado de un triángulo es siempre menor o igual a la suma de las longitudes de los otros dos lados. Dicho de otro modo, dar un paso y luego dar otro nunca nos llevará a mayor distancia del punto de partida que la de dos pasos. Con todo, esto era precisamente lo que nuestro hipotético mensaje parecía haber hecho.

FIGURA 5.5. La desigualdad del triángulo afirma que la distancia XAC ≤ XAB + XBC. De ahí que dos pasos cortos nunca lleguen a ser un paso largo.

¿Las redes sociales infringen la desigualdad del triángulo? Si no es así, ¿por qué parecen infringirla? La clave para entender esta paradoja de la distancia en las redes sociales es que medimos la «distancia» de dos modos diferentes, y que tendemos a confundirlos. El primer modo de medirla -aquel del que hemos hablado en la mayor parte de este libro- es la distancia a través de la red. Según esta noción, la distancia entre dos puntos, A y B, es sencillamente el número de enlaces en el camino más corto que los pone en relación y los conecta. Pero ésta no es la definición de la distancia que utilizamos típicamente cuando pensamos en lo cerca o lo lejos que nos encontramos de otra persona. Más bien, tal como Harrison me lo había recordado en el congreso de la American Association for Advancement of Science celebrado hacía ya un año, en Washington D. c., tendemos a identificarnos a nosotros mismos ya los demás en términos de los grupos, las instituciones y las actividades a las que estamos afiliados. Mark y yo, que a esas alturas ya habíamos trabajado cierto tiempo en redes de afiliación, estábamos familiarizados con la idea de identidad social.

Pero ahora nos dábamos cuenta de que los individuos no pertenecen simplemente a grupos: tienen también un modo de disponerlos en una suerte de espacio social para poder medir cuáles son sus similitudes o

Watts, Duncan J. 2006. Seis grados de separación. La ciencia de las redes en la era del acceso. Barcelona; Paidós, 2006.

Page 11: Duncan Watts Cap 5 y 6

11

diferencias con los otros. La manera en que lo hacen resulta en cierto modo similar, de hecho, al dibujo de Steinberg que hemos reproducido en la figura 5.4. Partiendo del nivel de todo el mundo, los individuos empiezan a desglosarlo en una serie manejable de categorías más pequeñas y específicas; luego desglosan cada una de estas categorías en una serie de subcategorías, y, cada una de éstas, a su vez, en categorías aún más pequeñas y específicas. Este proceso prosigue hasta arrojar una imagen de una red de afiliación similar en cierto modo a la reproducida en la figura 5.6.

FIGURA 5.6. División jerárquica del mundo en función de una sola dimensión social. La distancia entre A y Bes la altura del grupo mínimo común antecesor, que en este caso es tres (se considera que los individuos en el mismo grupo más bajo están separados por una distancia de uno).

El nivel más bajo de esta jerarquía abarca los grupos que definen nuestras afiliaciones más íntimas, es decir, nuestro edificio, nuestro lugar de trabajo o nuestros pasatiempos. Pero, a diferencia de las redes de afiliación del capítulo 4, en las cuales dos actores podían pertenecer al mismo grupo (y de ahí que estuvieran afiliados), o no, ahora podemos permitir afiliaciones de diferentes órdenes de magnitud. Dos personas pueden trabajar en equipos diferentes pero pertenecer al mismo departamento. O posiblemente trabajan en diferentes departamentos, pero pertenecen a la misma división, o quizá a la misma empresa. Cuanto más arriba en la jerarquía se tiene que ir para encontrar una agrupación común, más distantes estarán dos individuos. Y, al igual que sucedía en el modelo de KIeinberg, cuanto más lejanos son, menos probable es que se conozcan entre sí. Así, el equivalente del exponente gamma de KIeinberg en nuestro modelo era lo que dábamos en llamar el parámetro de homofilia, por el término sociológica que describe la tendencia de los seres humanos a querer asociarse con quienes se les parecen. En una red muy homófila, sólo los individuos que comparten los grupos más pequeños pueden estar relacionados, lo cual revela un mundo fragmentado de camarillas (cliques) aislado. Cuando este parámetro es cero, tenemos el equivalente de la condición de Kleinberg, en la que los individuos hacen con igual probabilidad asociaciones en todas las escalas de distancia social.

La distancia social, por tanto, funciona en buena medida del mismo modo en que lo hace en el modelo de KIeinberg, sólo que ahora hay muchos tipos de distancia a los que nos podríamos referir al evaluar la probabilidad de que dos personas se conozcan. Mientras que el retículo de KIeinberg de hecho sitúa a los individuos sólo en términos de sus coordenadas geográficas, en el mundo real, los individuos derivan sus nociones de distancia de un surtido de dimensiones sociales. La situación geográfica es importante, pero también lo es la etnia, la profesión, la religión, la formación educativa, la clase, los pasatiempos y las afiliaciones organizativas. Dicho de otro modo, cuando compartimentamos el mundo en grupos más pequeños y más específicos, nos servimos simultáneamente de múltiples dimensiones. A veces, la proximidad geográfica es decisiva, pero en otras instancias trabajar en el mismo ramo profesional, ir a la misma facultad o apreciar el mismo tipo de música, a la hora de determinar a quién conoce una persona, pueden ser mucho más relevantes que el hecho de saber dónde vive. Además, estar cerca en una dimensión no implica necesariamente proximidad o estrecha relación en otra. Al igual que el hecho de haber crecido en Nueva York no hace más probable que ejerzamos la profesión de médico y no la de profesor, que si hemos crecido en Australia, tampoco la pertenencia a la misma profesión implica necesariamente que vivamos cerca de otras personas que ejercen nuestra misma profesión.

Watts, Duncan J. 2006. Seis grados de separación. La ciencia de las redes en la era del acceso. Barcelona; Paidós, 2006.

Page 12: Duncan Watts Cap 5 y 6

12

Por último, si dos personas están cerca en sólo una dimensión, se pueden considerar a sí mismas cercanas en un sentido absoluto, aunque estén bastante alejadas en otras dimensiones. Que dos personas, usted y yo, ten1amos sólo una cosa en común -un único contexto para la interacción puede bastar para que nos conozcamos. La distancia social, dicho de otro modo, hace más hincapié en las similitudes que en las diferencias, y en ello radica la resolución de la paradoja del mundo pequeño. Tal como se puede ver en la figura 5.7, dos individuos A y B pueden tener cada uno la percepción de ser próximos o estar unidos a un tercer actor e, donde A lo es en una dimensión (pongamos, por caso, ubicación geográfica) y B, enotra (por ejemplo, la ocupación laboral). Dado que sólo cuenta la distancia más corta, no importa que e esté también bastante alejado de A y de B en algún otro sentido. Pero como A y B están lejos en las dos dimensiones, se perciben en realidad el uno al otro como muy separados. Sucede lo mismo cuando tenemos dos amigos que hemos llegado a conocer en circunstancias diferentes, y, aunque nos guste la amistad de los dos, tenemos una clara percepción de que no tienen nada en común. Pero tienen algo en común -nosotros- y tanto si son conscientes de ello como si no, de hecho están cerca. Otro modo de reflexionar sobre esta propiedad es que si bien los grupos pueden ser categorizados fácilmente, no sucede así en el caso de los individuos. La identidad social, por tanto, muestra una naturaleza multidimensional -los individuos abarcan diferentes contextos sociales-, lo cual permite explicar que la desigualdad del triangulo se vea infringida en el caso de la distancia social. A Mark y a mí nos parecía qu la naturaleza multidimensional de la identidad social de 1 s individuo ratambién aquello que permitía que los mensajes fuesen transmitidos a través de una réd aun cuando se daban lo que podrían parecer barreras sociales de enormes proporciones.

FIGURA 5.7. Los individuos dividen simultáneamente el mundo según dimensiones sociales múltiples e independientes. Este ejemplo esquemático muestra las posiciones relativas de tres individuos -A, B y C- en dos dimensiones (por ejemplo, la ubicación geográfica y la ocupación laboral). A y C están cerca en cuanto a la ubicación geográfica y B y C lo están en cuanto a la ocupación laboral que ejercen. De ahí que C se sienta cerca de A y B, Y que, en cambio, A y B se perciban como lejanos, infringiendo de este modo la desigualdad del triángulo de la figura 5.5.

En nuestras conversaciones, Mark y yo llegamos hasta este punto antes de que él tuviera que volver a

Santa Fe, momento en el cual los dos pasamos a estar demasiado ocupados como para trabajar en el problema. Al cabo de unos seis meses, Jan Kleinberg hizo una visita a la Universidad de Columbia para dar una conferencia en el departamento de Sociología centrada en la investigación que había realizado sobre el problema del mundo pequeño, y aproveché la oportunidad para comentarle nuestras ideas. No sólo se mostró de acuerdo en que nuestro enfoque parecía ser el modo correcto de plantear el problema, sino que, por su parte, ya había empezado a pensar en una línea similar. Aquello eran malas noticias para nosotros. Jan, al fin y al cabo, es el proverbial científico listo como una flecha, es de aquellos que escuchan la exposición de un problema en una conferencia por primera vez y al final de la misma ya lo comprenden mejor que la persona que lo ha expuesto. Así que, si estaba considerando nuestro enfoque -y, según lo que decía, había otros investigadores que también lo estaban haciendo-, no disponíamos de mucho tiempo para organizarnos y hacer las cosas bien.

Watts, Duncan J. 2006. Seis grados de separación. La ciencia de las redes en la era del acceso. Barcelona; Paidós, 2006.

Page 13: Duncan Watts Cap 5 y 6

13

Por fortuna para nosotros, Jan es casi tan generoso como listo, y estuvo de acuerdo en no revelar los detalles de nuestra conversación durante unos meses para darnos la oportunidad de ser los primeros en publicar algo. Aun así, tanto Mark como yo estábamos totalmente ocupados en un futuro inmediato, de modo que si queríamos hacer algo deprisa; íbamos a necesitar alguna ayuda. Menos mal que en la conversación que mantuve con Jan estuvo también presente Peter Dodds, un matemático de la Universidad de Columbia que formaba parte de mi grupo de investigación. Peter y yo ya trabajábamos en otro problema (el cual se expone en el capítulo 9) y sabía que podía programar un ordenador casi con la misma celeridad que Mark. Además Mark estaba en Santa Fe, así que a Peter lo tenía mucho más cerca. En cuestión de días, después de la visita de Kleinberg, dejamos los demás proyectos y con Peter nos pusimos a trabajar en el problema de la búsqueda. Transcurridas unas pocas semanas sorprendimos a Mark con un conjunto de resultados que eran incluso mejores de lo que habíamos esperado.

FIGURA 5.8. Será factible buscar en las redes sociales siempre que se hallen en el área sombreada del espacio de parámetros de nuestro modelo. Esta región corresponde a grupos sociales homófilos (u > 0), pero los individuos estiman la similitud en función de múltiples dimensiones (H). La condición de Kleinberg, en cambio, se sostiene sólo en un único punto situado en la esquina inferior izquierda del espacio de redes.

Nuestro principal descubrimiento fue que cuando dábamos la posibilidad a los individuos de nuestro modelo de hacer uso de dimensiones sociales múltiples, eran capaces de encontrar, con relativa facilidad, destinatarios escogidos al azar en redes muy grandes, aun cuando se diera el caso de que sus asociaciones fuesen muy homófilas. De hecho, tal como se aprecia en la figura 5.8, resulta que la existencia de redes explorables no depende demasiado del parámetro de homofilia, ni tan sólo del número de dimensiones sociales. En términos gráficos, significa que las redes en las que se pueden lanzar procesos de búsqueda existen para toda elección de parámetros que se halle en el interior de la zona sombreada que podemos ver en la figura 5.8. El equivalente de la condición de Kleinberg, en cambio, es el punto singular situado en la esquina inferior izquierda de la misma figura. Así, nuestro resultado era, en cierto sentido, el opuesto del que había obtenido Kleinberg. Mientras su condición especifica que el mundo tiene que ser de un modo muy particular para que búsquedas de mundo pequeño sean efectivas, nuestro resultado sugería que puede ser casi de cualquier modo. Con tal de que los individuos tengan más posibilidades de conocer a otras personas como ellos (parámetro de homofilia) y -lo fundamental- que siempre midan la similitud con más de una dimensión social, no sólo habrá caminos cortos entre casi cualquiera de ellos y entre casi todas las partes, sino que también los individuos que disponen sólo de información local sobre la red serán capaces de encontrarlos.

Lo que sorprendía por partida doble, sin embargo, era que se conseguían los mejores resultados cuando el número de dimensiones era sólo de dos o tres. Desde un punto de vista matemático, que así fuera tenía sentido. Cuando todos utilizan únicamente una sola dimensión (por ejemplo, la geográfica) para explorar el mundo, no pueden sacar partido de sus múltiples afiliaciones para saltar grandes distancias en el espacio social. Así, volvemos otra vez al mundo de Kleinberg, donde los lazos han de ser dispuestos equitativamente

Watts, Duncan J. 2006. Seis grados de separación. La ciencia de las redes en la era del acceso. Barcelona; Paidós, 2006.

Page 14: Duncan Watts Cap 5 y 6

14

en todas las escalas de longitud para que las búsquedas dirigidas sean efectivas. y cuando todos extienden sus contactos entre demasiadas dimensiones -cuando ninguno de nuestros amigos pertenece al mismo grupo que nuestros otros amigos- entonces volvemos otra vez al mundo de las redes aleatorias, donde los caminos cortos, si bien existen, no pueden hallarse. Así, tiene sentido que las redes en las que los caminos pueden hallarse estén en algún lugar intermedio, donde los individuos ni son demasiado unidimensionales ni demasiado dispersos. Pero el hecho de que el rendimiento óptimo se produzca cuando el número de dimensiones es más o menos dos era también otra grata sorpresa, porque ése parece ser el número que en realidad las personas utilizan.

Varios años después de que Milgram publicara su fundamental artículo sobre el mundo pequeño, otro grupo de investigadores encabezado por Russell Bernard (un antropólogo) y Peter Killworth (un oceanógrafo, lo cual no deja de ser sorprendente) llevaron a cabo lo que dieron en llamar «experimento del mundo pequeño a la inversa». En lugar de enviar paquetes y seguir su avance, como Milgram había hecho, se limitaron a describir el experimento a varios cientos de individuos que decidieron participar en él y a preguntarles por el criterio que utilizarían para dirigir un paquete si les pedían que lo hicieran. Lo que este grupo de investigadores descubrió fue que la mayoría de los individuos se servían sólo de un par de dimensiones -las más dominantes eran la geografía y la ocupación laboral- para dirigir sus mensajes hasta el siguiente destinatario. El hecho de que el mismo número apareciera en nuestro análisis, transcurrido todo un cuarto de siglo y sin haberlo provocado de manera especial (no teníamos ni idea de cuál sería, pero no pensábamos que fuese dos), sorprendía por ser bastante destacable. Pero conseguimos otro aún mejor.

Al introducir en nuestro modelo las estimaciones de los parámetros más o menos tal como se hubieran aplicado al experimento de Milgram, pudimos comparar nuestras predicciones con los resultados reales de Milgram. La figura 5.9 muestra la comparación. Los dos conjuntos de resultados no tan sólo parecen más o menos comparables, sino que utilizando pruebas estadísticas estándares son indistinguibles unos de otros. Son, a todos los efectos prácticos, los mismos. A tenor de las enormes libertades que nuestro modelo se toma en relación con las complejidades del mundo, este resultado era una auténtica maravilla. Para ver cómo funciona, retomemos el ejemplo del hipotético campesino chino. A! escoger a nuestra amiga Erica como nuestro primer intermediario, estábamos utilizando dos conjuntos de información. Primero, nuestra noción de distancia social nos llevaba a concluir que estábamos bastante alejados de nuestro destinatario. Pero también nos decía a qué grupos debía pertenecer alguien para estar cerca. Nuestra noción de distancia social, por tanto, nos ayuda a identificar las condiciones que hacen de un individuo un buen candidato para pasarle el mensaje. Y, en segundo lugar, hacíamos uso de nuestro conocimiento local de la red para determinar si alguno de nuestros amigos satisfacía alguna de estas condiciones, es decir, si alguno de nuestros amigos pertenecía al menos a un grupo que lo hacía estar más cerca del destinatario. El hecho de que hubiera vivido en China, convertía a Erica en una buena candidata.

FIGURA 5.9. Resultado del modelo de búsqueda en una red social comparado con los resultados para Nebraska de Milgram. Las barras representan las cuarenta y dos cadenas completadas que se iniciaron en Nebraska, y la curva es la media entre muchas búsquedas simuladas realizadas en conformidad con nuestro modelo.

Watts, Duncan J. 2006. Seis grados de separación. La ciencia de las redes en la era del acceso. Barcelona; Paidós, 2006.

Page 15: Duncan Watts Cap 5 y 6

15

Éste es en esencia el método que utilizaron los sujetos de Milgram y, por tanto, nuestros modelos

demuestran cómo, con tal de que los individuos tengan al menos dos dimensiones con las cuales estimar su similitud con respecto a los otros, aun en un mundo en el cual la mayoría de la relaciones que estableciesen fuesen con personas muy similares a ellos, podrían encontrar caminos cortos que les llevaran hasta individuos incluso distantes y extraños. El hecho de que la concordancia entre nuestro modelo y los resultados de Milgram sea tan firme, y en buena medida de manera independiente del modo en que escojamos los parámetros particulares, permite colegir algo más serio acerca del mundo social. A diferencia de las redes de generadores de electricidad o de las neuronas en el cerebro, los individuos en las redes sociales tienen sus propias ideas acerca de qué les hace ser lo que son. Dicho de otro modo, en una red social cada individuos viene acompañado por una identidad social que, al impulsar tanto la creación de la red como las nociones de distancia que permiten a los individuos navegar por ella, hace posible la búsqueda en las redes.

BÚSQUEDA EN REDES PUNTO A PUNTO (peer to peer)La posibilidad de lanzar procesos de búsqueda en la red (searchability) es, por tanto, una propiedad

genérica de las redes sociales. Al desglosar el mundo del modo en que lo hacemos -según nociones múltiples simultáneas de distancia social- y al descomponer el proceso de búsqueda en fases manejables, podemos resolver con relativa facilidad un problema que parecía tremendamente difícil (basta con intentar jugar al Seis Grados de Separación de Kevin Bacon sin el ordenador). Al igual que sucede con tantas de las cosas que de pronto comprendemos, el hecho de darnos cuenta de que las redes tienen que provenir de algún lugar y que su origen en la identidad social es decisivo para las propiedades que con posterioridad muestran, nos parece ahora evidente. Pero en una ciencia cada vez más dominada por la física, la reentrada de la sociología en escena era un avance intelectual significativo. Y lo que hemos aprendido es que mientras que los modelos sencillos no tienen nada de malo, para cualquier realidad compleja existen muchos de esos modelos, y sólo reflexionando a fondo sobre el modo en que el mundo funciona -sólo pensando como lo hacen los sociólogos y los matemáticos- podremos escoger el correcto.

Existe, no obstante, una razón práctica para entender las búsquedas dirigidas en redes, a saber, el proceso de hallar a una persona destinataria en una red social, a través de una cadena de conocidos intermediadores, es en esencia lo mismo que encontrar un archivo o cualquier otro trozo de información especificada de forma única en una base de datos de distribución. En fecha reciente se ha prestado bastante atención al potencial de las redes llamadas P2P (peer to peer) o punto a punto, sobre todo en el sector de la música. La primera generación de este tipo de redes, el arquetipo de las cuales es el célebre Napster, no era más que una red P2P, aunque en un sentido limitado. Si bien los archivos mismos se hallan situados en los ordenadores personales de cada individuo -usuarios iguales (peers)- y los intercambios de archivos se producen directamente entre los usuarios, en el servidor central se mantiene un directorio completo de todos los archivos disponibles (y sus ubicaciones).

En principio, un directorio central hace que el problema de encontrar la información buscada sea trivial, aun en redes muy grandes, pues basta con formularle la pregunta al directorio y éste indica la ubicación del archivo. Pero los directorios centrales resultan caros de crear y mantener. Desde el punto de vista del usuario, los motores de búsqueda en Internet, como, por ejemplo, Google, actúan como directorios centralizados, y, en general, hacen un trabajo razonable de ubicación de la información (a pesar de la ocasional frustración). Pero Google no es como cualquier website habitual. A fin de poder tratar las enormes demandas de procesamiento formuladas por millones de preguntas simultáneas, abarca decenas de miles de servidores de capacidad high end. Hace un par de años, en un congreso celebrado en San Francisco, tuve oportunidad de escuchar a Larry Page, uno de los fundadores de Google, hablar de su empresa: dijo que cada día se sumaban una treintena de nuevos servidores a fin de poder seguir dando respuesta a la demanda. Los directorios centrales puede que sean una solución efectiva para el problema de la búsqueda, pero no son baratos. Una arquitectura centralizada, además, puede resultar bastante vulnerable, tal como los usuarios de Napster pudieron descubrir cuando su mecanismo favorito de intercambio de archivos de música fue cerrado por la furiosa industria discográfica. y de ahí que en una línea aérea que sólo dispone de un único hub o conector a través del cual tienen que pasar todos los vuelos, cuando el centro falla, todo el sistema se desmorone.

Watts, Duncan J. 2006. Seis grados de separación. La ciencia de las redes en la era del acceso. Barcelona; Paidós, 2006.

Page 16: Duncan Watts Cap 5 y 6

16

Antes de que Napster entrara en su agonía final, sin embargo, aun las formas más radicales de base de datos distribuidas -a las cuales podríamos denominar como las verdaderas redes P2P o punto a punto- ya habían empezado a hacer acto de aparición en el submundo de Internet. Una de ellas, llamada Gnutella, fue diseñada por un programador que se rebeló contra su antigua empresa, American On-Line (AOL), y que colgó el protocolo desarrollado del programa en la web de AOL en algún momento del mes de marzo de 2000. Sabiendo que en potencia no estaba cumpliendo con los derechos de propiedad intelectual implícitos en cualquier sistema que permita compartir los archivos y al corriente también de la recién consumada fusión con Time Warner, la dirección de AOL cortó por lo sano y eliminó el código open source que infringía la ley cuando hacía apenas media hora que había sido publicado en la red. Pero, aun así, lo hicieron demasiado tarde: ya había sido descargado y circulaba como una droga por el sistema sanguíneo de la comunidad hacker, generándose docenas de actualizaciones y variantes. Uno de los primeros en hacer proselitismo en favor de Gnutella fue un joven ingeniero informático, Gene Khan, para quien Gnutella era la respuesta a las oraciones de todos y cada uno de los intercambiadores de archivos y la Némesis imparable de la industria discográfica. Por el hecho mismo de que era sólo un protocolo, no podía ser confiscado. y dado que no tenía centro, no había a quién demandar ni qué cerrar. Escuchando a Khan, uno llegaba a creerse que Gnutella era indestructible y todopoderoso.

Transcurrido un año, se demostró que Khan sólo tenía parte de razón. Nadie había conseguido destruir Gnutella, aunque por entonces tampoco parecía haber demasiada necesidad de hacerlo. Gnutella, a juzgar por las apariencias, se metió en un brete debido sobre todo a la misma arquitectura diseminada que le había hecho ser tan prometedor. Dado que ningún servidor sabía dónde estaban todos y cada uno de los archivos -dado que no hay un directorio central-, cualquier demanda pasaba a ser una búsqueda diseminada que en efecto preguntaba a todos y cada uno de los nodos de la red: «¿Está ahí el archivo?». Así, una red punto a punto como Gnutella, que por entonces contenía miles de nodos, generará del orden de unas diez mil veces más mensajes que una red similar a la que había utilizado Napster (cliente servidor) del mismo tamaño y en la cual cada petición es enviada a un único servidor de alta capacidad. Dado que el objetivo de una red punto a punto es llegar a ser lo más grande posible (a fin de aumentar el número de ficheros disponibles), y dado que cuanto más grande es la red, peor será su rendimiento, ¿no será que las verdaderas redes punto a punto son en sí mismas contraproducentes?

Fortuitamente la clase de sexto curso de la asignatura de sociales en la Escuela Primaria de Taylorsville, en Carolina del Norte, desveló, hace más o menos un año, un mundo con un dejo similar al de Gnutella. Al acometer el desarrollo de un «proyecto de correo electrónico», la maestra de esta clase, Janet Forrest, y sus alumnos enviaron un simpático y escueto mensaje a sus familiares y amigos, añadiendo la petición de que, cuando lo recibieran, lo remitieran a su vez a «cualquier persona que conozcas para que lo envíen a su vez a todas las demás personas que conozcan... ». Pedían, además, que cada destinatario les respondiera de modo que pudieran mantener el registro del número de personas a las que les había llegado y de dónde eran. Nefanda idea. Cuando, al cabo de unas pocas semanas, el proyecto fue finalmente cerrado, la clase había recibido 450.000 respuestas de cada uno de los Estados de la Unión y 83 de otros países. ¡Y sólo se contabilizan las personas que respondieron! Ahora imaginemos que cada curso de sexto de primaria tratara de realizar en la asignatura de ciencias sociales un experimento similar. (Increíblemente, recibí otro mensaje similar no hace mucho de una escuela de Nueva Zelanda, firmado por nada más y nada menos que por el ministro de Educación neozelandés. A algunos les cuesta aprender.) y lo que es aún peor, imaginemos que cada vez que alguien quisiera hacer llegar un mensaje a alguien más, iniciara exactamente este tipo de difusión mundial. La era de Internet se precipitaría a un rápido e ignominioso final, atorada en uria congestión de tráfico peor que la de una autovía de Bangkok.

En general, por tanto, los directorios centrales son carros y vulnerables, y las búsquedas diseminadas dan más problemas que alegrías. En consecuencia, los algoritmos eficientes de búsqueda que necesitan sólo de una red local información serán de considerable interés práctico. Así, uno de los aspectos más enigmáticos del fenómeno de mundo pequeño es que los individuos integrados en redes sociales parecen capaces de resolver problemas de búsqueda punto a punto, aunque ellos mismos no sepan qué están haciendo. Al comprender y sacar partido de las propiedades de la versión sociológica del problema, podemos esperar, por tanto, que idearemos soluciones novedosas para los problemas de búsqueda en redes que no tienen necesariamente que involucrar, en absoluto, a las personas. Se han propuesto algunas otras soluciones al problema de los procesos de búsqueda en redes punto a punto, o P2P, que vienen a complementar el enfoque que, hemos dado al

Watts, Duncan J. 2006. Seis grados de separación. La ciencia de las redes en la era del acceso. Barcelona; Paidós, 2006.

Page 17: Duncan Watts Cap 5 y 6

17

problema y que sacan partido de otros aspectos de la estructura de red. Entre estos esfuerzos, uno de los más notables es el de Bernardo Huberman y su alumno Lada Adamic, del laboratorio de investigación de Hewlett Packard en Palo Alto, California.

Adamic y Huberman, tras observar que la distribución de grado de la red parece seguir una ley potencial (con ciertos límites), propusieron un algoritmo de búsqueda a través del cual los nodos dirigen las peticiones a su vecino más conectado, e cual comprueba entonces su directorio y los directorios de sus vecinos para encontrar una copia d 1 archivo buscado, y repite el procedimiento si no llega a encontrarlo. De esta manera, cada petición rápidamente ubica a uno de los relativamente pocos hubs o conectores, que son característicos de las redes sin escalas, y, juntos, son conectados a la mayor parte de la red. Al lanzar procesos de búsqueda aleatoriamente en esta red de conectores, el grupo demostró que la mayoría de los archivos podían ser hallados en un espacio relativamente corto de tiempo sin sobrecargar con ello el conjunto de la red. A pesar de ser ingenioso, este modo de enfocar las cosas adolece, sin embargo, de una versión débil de la solución propia del directorio centralizado: los conectores o.h deben tener mucha mayor capacidad que los 'nodos ordinarios, y el rendimiento de la red depende sensiblemente de la operatividad de los conectores que son decisivos. En cambio, lanzar procesos de búsqueda en las redes sociales parece un ejercicio muy igualitario. En nuestro modelo, los individuos corrientes son capaces de encontrar caminos cortos, de modo que no se requiere la presencia de hubs o conectores especiales.

Tal vez, la cuestión principal es que, al alentar soluciones novedosas a problemas (en apariencia) diferentes, el problema del mundo pequeño proporciona un ejemplo perfecto de cómo las diferentes disciplinas se pueden ayudar unas a otras a elaborar la nueva ciencia de las redes. Ya en la década de 1950, Kochen (un matemático) y Pool (un politólogo) fueron los primeros en pensar también en ello, pero, al no disponer de ordenadores, no llegaron a encontrar una solución. Milgram (que era psicólogo), ayudado por White, físico y sociólogo, y seguidos por Bernard y Killworth, que eran, respectivamente, antropólogo y oceanógrafo, abordaron entonces el problema desde su vertiente empírica, pero no llegaron a explicar de qué modo funcionaba en realidad. Al cabo de tres décadas, Steve y yo mismo, ambos matemáticos, convertimos el problema en una cuestión sobre redes en general, pero no llegamos a ver su componente algorítmico y dejamos de este modo la puerta abierta a Jan, un ingeniero informático. Jan, a su vez, abrió la puerta a Mark, que es físico, a Peter, que es matemático, y a mí mismo, que en la actualidad se me podría calificar de sociólogo, para que entráramos y escogiéramos la solución que ahora nos parece que siempre estuvo ahí.

Sin embargo, ha sido preciso recorrer una larga senda de casi medio siglo y ahora, cuando pensamos que finalmente entendemos el problema, nos parece que alguien debió de entenderlo y explicarlo hace ya mucho; tiempo. Pero tenía que suceder así. Sin la intervención de Jan, por ejemplo, nunca hubiéramos comprendido e1 modo de pensar el problema de la búsqueda, no hubiéramos sabido qué puerta cruzar. Y sin nuestro anterior trabajo sobre las redes de mundo pequeño, Jan nunca se hubiera puesto a pensar en el problema. Sin Milgram, ninguno de nosotros hubiéramos sabido qué estábamos tratando de explicar. Y sin Pool y Kochen, Milgram se hubiera puesto a hacer un experimento diferente. Visto a posteriori, todo parece evidente, pero la verdad de la cuestión es que el problema del mundo pequeño sólo se resolvería a través del esfuerzo combi' nado de muchos pensadores distintos que llegaron a planteárselo desde todos los ángulos y que aportaron una increíble diversidad de habilidades, técnicas, ideas y perspectivas. En ciencia, al igual que sucede en la vida, no se puede hacer avanzar la cinta para ver qué final nos espera, porque el final se va escribiendo sobre la marcha. Y del mismo modo en que sucede también con los filmes más taquilleros de Hollywood, el final, aun cuando aporta cierta sensación de resolución, es meramente un prólogo para la secuela. Para nosotros, la secuela fue la dinámica. Y junto a los enigmas de las dinámicas en una red -ya se trate de las epidemias de enfermedades, los fallos en cascada de distribución de energía eléctrica o los estallidos de las revoluciones-, los problemas de las redes que hemos encontrado hasta ahora son sólo como un puñado de guijarros en la playa.

Watts, Duncan J. 2006. Seis grados de separación. La ciencia de las redes en la era del acceso. Barcelona; Paidós, 2006.

Page 18: Duncan Watts Cap 5 y 6

18

Capítulo 6

Epidemias y apagones

LA ZONA CALIENTEA casi todos, para qué negarlo, la posibilidad de que se produzcan epidemias catastróficas no nos

quita el sueño. Quizá sea porque la mayoría no hemos leído Zona caliente, el libro en que Richard Prestan cuenta la verdadera historia del ébola, un virus increíblemente letal que mata a su víctima en un macabro delirio de hemorragias de una furia tan cruel que sólo la naturaleza pudo haberlo ideado. El virus, que tomó prestado el nombre del río Ébola, que avena las regiones septentrionales del antiguo Zaire, actual República Democrática del Congo, salió en 1976 por primera vez de su escondrijo en el interior de las selvas. Asoló primero Sudán y luego, al cabo de dos meses, el Zaire, donde irrumpió en cincuenta y cinco aldeas de manera casi simultánea, cobrándose casi setecientas vidas sólo durante aquel año.

Si bien es muy poco lo que conocemos, se cree que el ébola saltó, como el virus de la inmunodeficiencia adquirida, de los monos a los seres humanos por lo menos a través de tres cepas, cada una de ellas más mortífera que la anterior. El brote de ébola que recientemente se registró en Uganda fue debido a la cepa Sudán, que, con una tasa de mortalidad de sólo el 50 %, es el alfeñique de la familia (el ébola Zaire se cobra el 90 % de sus víctimas). Aun así, en el distrito de Gulu, entre los meses de octubre de 2000 y enero de 2001, murieron 173 personas, antes de que el brote siguiera su curso. Durante las tres últimas décadas, otros brotes se han cobrado la vida de un número similar de seres humanos en circunstancias más o menos análogas, principalmente en pequeñas aldeas aisladas con escasas instalaciones sanitarias. A su paso, estos brotes han dejado innumerables historias de horror: las víctimas acudían a los médicos locales para visitarse, aquejadas de síntomas similares a los de la gripe, y al cabo de unos pocos días caían desplomadas, desangrándose en el hospital más cercano. Aquélla era la prueba -por lo general percibida demasiado tarde- de que el ébola había asolado la zona. El heroico personal sanitario que perdió la vida en la primera línea de defensa; el pánico generalizado; docenas de cuerpos desangrados hallados en cabañas abandonadas; aldeas asoladas y desiertas; todas las regiones aterrorizadas. El ébola, qué duda cabe, es un monstruo y un mensajero del Infierno.

Por irónico que pueda parecer, la tremenda violencia del ébola es también su única debilidad: es demasiado mortífero por su propio bien. A diferencia del hermético e insidioso virus de la inmunodeficiencia humana, el ébola se presenta con la misma brutalidad que un accidente ferroviario: revela su verdadera naturaleza en cuestión de días y mata poco después.

Además, una vez que los síntomas hacen su aparición, las víctimas quedan tan impedidas que tienen serias dificultades para desplazarse, lo cual permite ponerlas en cuarentena con relativa facilidad, reduciendo de este modo la capacidad del virus para extenderse e infectar a nuevos portadores.

En consecuencia, la mayoría de los brotes han podido ser contenidos en las áreas remotas vecinas de la selva tropical y lejos de los principales centros de población.

Tan sólo en una ocasión, durante su segundo brote registrado en 1976, el ébola se abrió paso hasta una gran ciudad, cuando una joven enfermera conocida como Mayinga N. fue infectada por la cepa Zaire del virus paseó un día por Kinshasa, la capital y la principal ciudad del Congo. Por fortuna, la catástrofe se llegó a evitar debido a otra singularidad del virus: el ébola, al menos en sus primeras fases, no es tan contagioso. Incluso cuando el paciente infectado se halla ya en fase terminal, con hemorragias internas y expulsando al toser mucosidades empapadas de sangre, en general se tiende a pensar que el virus sólo puede afectar a nuevos anfitriones si entra en contacto con una herida en la piel o una membrana permeable como las que tenemos en la nariz o los ojos. Cuando la enfermera Mayinga había llegado a ese estadio de la enfermedad, sin embargo, ya se había dado cuenta de su fatal destino y la habían puesto bajo cuarentena en el hospital.

Al leer todo esto, uno podría pensar que el ébola es sólo uno más en la letanía de horrores, por lo que parece interminable, que asolan el África subsahariana. y África, el más exótico y trágico de los continentes,

Watts, Duncan J. 2006. Seis grados de separación. La ciencia de las redes en la era del acceso. Barcelona; Paidós, 2006.

Page 19: Duncan Watts Cap 5 y 6

19

seguramente se halla lo suficientemente lejos de América como para que la siguiente plaga, en el momento y en la forma en que surja, no tenga por qué afectarnos mucho más allá de un gesto ocasional de dolor y estremecimiento cuando leamos la noticia en la prensa matutina. Sin embargo, una lección que se puede sacar del libro Zona caliente es precisamente que nada ya justifica esa sensación de relativa tranquilidad. El ébola no es sólo un problema para África, sino también para el mundo. Del mismo modo en que el virus de la inmunodeficiencia humana se abrió lentamente paso por la autopista de Kinshasa en su truculento avance desde el lugar de la selva en que nació, y, de algún modo, encontró, probablemente en una de las ciudades de la costa congoleña, a Gaetan Dugas -el auxiliar de vuelo canadiense, más conocido como el paciente cero-, que lo llevó luego a las saunas de San Francisco e introdujo el sida en el mundo occidental, asimismo la cadena correcta de acontecimientos podría también liberar al ébola de sus grilletes.

El aspecto más turbador de la exposición de Prestan, mucho más que sus intensas descripciones de la muerte causada por el ébola, son las posibilidades que existen para una explosión global del virus. Durante el siglo XX, los seres humanos no sólo penetramos a fondo en los ancestrales sistemas ecológicos de las selvas tropicales africanas, donde acechan los virus más mortíferos, sino que también hemos construido un sistema internacional de redes de transportes que pueden transmitir una enfermedad infecciosa a las metrópolis y los centros de poder del mundo en un plazo de pocos días, un lapso de tiempo que, si se da la eventualidad, es inferior al período de incubación del ébola. En este sentido, Prestan no duda en afirmar lo siguiente refiriéndose a uno de sus protagonistas condenados -que subió a un pequeño avión con destino a Nairobi y, una vez sentado a bordo, empezó a vomitar sangre negra a borbotones-: «Charles Monet y la vida que llevaba en sus entrañas habían entrado en la red».

Considerar la perspectiva de que el ébola pueda hacer su irrupción en el centro comercial de una localidad es casi espeluznante, pero después de leer Zona caliente el lector llega a sorprenderse incluso de que aún no haya sucedido. De hecho, en este sentido, el argumento secundario del libro describe el brote de una tercera cepa del virus ébola entre una población de monos en un laboratorio dedicado a la investigación del Ejército de Tierra en Restan, Virginia, casi en las afueras de Washington, D. C. El virus, en la actualidad identificado como ébola Restan, resultó ser inocuo para los seres humanos, pero atrozmente letal para la pobre población de monos, que fue aniquilada. El ébola Restan es tan similar al ébola Zaire que ninguna de las pruebas estándares hechas en aquella época permitían distinguirlos, y durante algunos días, tensos y llenos de angustia, los científicos y los cuidadores dc los animales, que habían quedado expuestos a este virus, creyeron que se trataba dc la cepa Zaire. De haberlo sido -y se puede decir que no fue así por pura suerte-, entonces sabríamos mucho más hoy del ébola de lo que en realidad sabemos.

VIRUS EN INTERNETEn la actualidad, los virus biológicos no son la única fuente en potencia de epidemias, tal como Claire

Swire, una joven mujer británica, tuvo oportunidad de descubrir, para su mayor disgusto, justo antes de la Navidad del año 2000. Unos días antes Claire Swire, al parecer, tuvo un devaneo amoroso con un joven también británico llamado Bradley Chait. Claire, una mujer moderna, al día siguiente le envió un correo electrónico felicitándole en términos tan halagadores que Chait decidió decírselo a sus amigos. Sólo los más íntimos, claro, sólo seis de ellos. Pero los amigos según parece encontraron la halagadora felicitación contenida en aquel correo electrónico tan amena que cada uno de ellos la envió a varias de sus amistades más allegadas y queridas, muchas de las cuales hicieron también lo propio. Y así fue como este correo electrónico, con el añadido de Chait: «Es un buen cumplido viniendo de una chica», comenzó a dar vueltas por el mundo, entreteniendo a unos siete millones de electores en cuestión de días. Siete millones. La pobre Claire tuvo que esconderse para evitar la frenética presión mediática, y Chait fue «castigado » por el despacho de abogados en el que trabajaba por haber hecho un uso indebido de su cuenta de correo electrónico (como si las personas no se enviaran correos personales desde el trabajo constantemente). Tal vez es una historia muy ridícula, pero sin lugar a dudas es un excelente ejemplo del poder del crecimiento exponencial, sobre todo cuando se mezcla con la transferencia de información, casi a coste cero, que ofrece Internet. Y, sobre este tema, se pueden exponer muchas cosas que merecen ser tenidas en cuenta.

Los virus, tanto los humanos como los informáticos, en lo fundamental realizan una versión de aquello que en el capítulo 5 denominamos búsqueda diseminada a través de la red. Las búsquedas diseminadas, tal como vimos, representan el modo más eficiente de empezar desde un nodo dado y encontrar a todos los demás ramificándose sistemáticamente desde cada nodo recién enlazado hacia cada uno de sus

Watts, Duncan J. 2006. Seis grados de separación. La ciencia de las redes en la era del acceso. Barcelona; Paidós, 2006.

Page 20: Duncan Watts Cap 5 y 6

20

vecinos aún no explorados. Cuando una enfermedad emprende un proceso de «búsqueda», sin embargo, no trata de encontrar nada en particular, es decir, simplemente trata de propagarse tan lejos y son tanta amplitud como le sea posible.

De este modo el término «eficiencia» aplicado al caso de una entidad infecciosa, como es, por ejemplo, un virus, tiene la connotación de mortífera atrocidad. Cuanto más contagioso es un virus, y cuanto más tiempo es capaz de mantener al portador en estado de infectado, más efectivo es su proceso de búsqueda diseminada. Así, el ébola, por ejemplo, es más eficiente que el virus de la inmunodeficiencia humana (VIH) porque es mucho más infeccioso -los pacientes infectados con el VIH no vomitan sangre en la sala de urgencias-, pero, en cambio, es menos eficiente debido a que mata muy rápido. Y tanto el VIH como el ébola son virus mucho menos eficientes que el virus de la gripe, el cual no sólo mantiene vivos a sus portadores durante mucho más tiempo, sino que también es capaz de propagarse a través de las partículas del aire. Para no perder de vista la verdader dimensión de la enfermedad, vale decir que si el contagio del ébola se hiciera a través del aire que respiramos, la civilización tal y como hoy la conocemos habría terminado hacia finales de la década de 1970.

Por mucho que nos preocupe la posibilidad de que llegue a aparecer un «borrador» de lo humano -tal como Prestan denomina a las plagas realmente devastadoras- que elimine al hombre de la faz de la tierra, en cuanto a eficiencia, los virus informáticos son mucho más problemáticos que los virus humanos. Un virus -sea humano o informático- se puede considerar como poco más que un conjunto de instrucciones que le permiten reproducirse, utilizando el material que encuentra en el anfitrión a modo de componente básica. El sistema inmunológico de los seres humanos criba y elimina los conjuntos de instrucciones ajenos potencialmente peligrosos, pero los ordenadores en general no tienen sistemas inmunológicos.

La función de un ordenador, en esencia, consiste en ejecutar las instrucciones del modo más eficiente posible, con independencia del lugar de donde provengan, lo cual le hace ser notablemente más vulnerable que los seres humanos a los fragmentos malévolos de código. Y, si bien una epidemia de un virus informático a escala mundial puede que no marcara el fin de la civilización, se cobraría un significativo peaje económico. Si bien aún no se ha producido nada similar, hemos tenido oportunidad, en cambio, de notar algunas inquietantes sacudidas. Durante los últimos años del siglo xx, antes aún de que el Y2K resultara ser el principal anticlímax del milenio, una serie de brotes de virus informáticos provoca ron un notable nivel de trastorno e incomodidad a centenares de miles de usuarios en todo el mundo. Los organismos y agencias gubernamentales, las grandes corporaciones e incluso el público, que suele tener sentimientos encontrados, empezaron a prestar atención.

Los virus informáticos han estado ahí durante décadas. ¿Por qué, entonces, sólo en fecha reciente hemos empezado a encontrarlos a escala global? La respuesta, al igual que sucede con tantas otras cuestiones planteadas durante la segunda mitad de la década de 1990, es Internet. Antes de Internet, los virus circulaban y los usuarios de ordenadores se enfrentaban de vez en cuando a situaciones difíciles. Pero en aquella época, en buena medida el único modo de transmitir un virus de una máquina a otra era a través de un disco flexible, el cual, además, había de ser introducido físicamente en la máquina. Sin duda el disco contaminado podía circular por muchos ordenadores, y una vez que un ordenador quedaba infectado, el hecho de guardar los archivos afectados en un disco flexible no infectado acababa por infectar también este disco. Así, si bien existía claramente la posibilidad de un crecimiento exponencial, la naturaleza ampliamente manual de la diseminación -análogamente al requisito de que haya un corte o herida en la piel para que se produzca el contagio del ébola- en general reducía lo bastante la eficiencia del virus como para que los pequeños brotes no acabaran convirtiéndose en verdaderas epidemias.

Internet, en general, y el correo electrónico, en particular, han cambiado todo este panorama, y el mundo empezó a entenderlo en marzo de1999 con la llegada del virus Melissa. Si bien nos referimos en general al Melissa como un virus (o un bug o fallo en el programa), en realidad tiene muchas cosas en común con otro tipo de código malévolo conocido con el término de gusano. Los gusanos causan estragos no tanto en los ordenadores individuales como en las redes de ordenadores. Se replican y transmiten en grandes cantidades de una máquina a otra sin que deban ser activados por un usuario. El Melissa, que de todos los virus conocidos hasta entonces se caracterizó por ser el que más rápido se propagó, llegaba en forma de un correo electrónico con la indicación en el apartado tema: «Mensaje importante de <nombre> », donde <nombre> era el nombre del usuario que enviaba el mensaje. El cuerpo del mensaje decía: «Aquí tiene el

Watts, Duncan J. 2006. Seis grados de separación. La ciencia de las redes en la era del acceso. Barcelona; Paidós, 2006.

Page 21: Duncan Watts Cap 5 y 6

21

documento que solicitó... no lo muestre a nadie más;-)» y llevaba un documento en formato Word con el nombre list.doc adjunto. Cuando se abría el documento adjunto, la macro del Melissa enviaba automáticamente copias del mensaje a las primeras cincuenta direcciones del listín de correo del usuario. Si alguna de las direcciones resultaba ser una lista de correo, entonces todos los que figuraban en ella acababan recibiendo el virus.

Los resultados fueron bastante espectaculares. Fue detectado el viernes 26 de marzo y en el plazo de sólo algunas horas el Melissa se había extendido por todo el mundo, y el lunes por la mañana había infectado ya a más de cien mil ordenadores de trescientas organizaciones, bombardeando algunos websites con tantos mensajes -en un caso, se llegaron a contabilizar treinta y dos mil en sólo tres cuartos de hora- que se vieron obligados a desconectar de la red sus sistemas de correo. Pero aún hubiera podido ser mucho peor. El Melissa no sólo era relativamente benigno, me refiero a que su peor efecto era insertar una inocua referencia a Los Simpson en el documento que estuviera abierto cuando se daba la casualidad de que el minuto de la hora correspondía con el número del día del mes, sino que, además, sólo podía propagarse a través del programa de correo electrónico Microsoft Outlook. Los usuarios que no tenían el Outlook, si bien podían recibir el virus, sin embargo, no lo hacían circular. Se trata de una distinción que tiene consecuencias importantes para la probabilidad de que llegue a darse un virus global realmente devastador (y posiblemente, devastador también para la corporación Microsoft misma) tal como veremos más adelante. Antes, sin embargo, debemos aprender un par de cosas sobre las matemáticas de la enfermedad infecciosa y, para ser más explícitos, nos será necesario entender mejor cuáles son las condiciones en que un pequeño brote de una enfermedad llega a ser una epidemia.

LAS MATEMÁTICAS DE LAS EPIDEMIASLa epidemiología matemática contemporánea nació hace más de setenta años con la presentación del

modelo SIR, que fue formulado por dos matemáticos, William Kermack y A. G. McKendrick, y continúa siendo un marco básico de referencia alrededor del cual se elabora la mayoría de los modelos de enfermedades contagiosas. Las letras del acrónimo representan los tres estados iniciales (ilustrados en la figura 6.1) que cualquier miembro de una población puede ocupar en relación con una enfermedad: susceptible, cuyo significado es que los individuos son vulnerables a la infección, pero aún no han sido infectados; infectivo, en el sentido de que el individuo no sólo está infectado, sino que también puede infectar a otros; y eliminado (removed), en el sentido de que el individuo o bien se ha recuperado o, si no, ha dejado de suponer una amenaza (posiblemente porque ha muerto). Las nuevas infecciones sólo se producen cuando un individuo infectado, a menudo denominado un infectivo, entra en contacto directo con un individuo susceptible. En ese punto, el susceptible pasa a ser infectado, y la probabilidad de serlo viene determinada por cuál sea la índole infecciosa de la enfermedad y cuáles sean las características del individuo susceptible (algunas personas, ciertamente, son más susceptibles que otras).

FIGURA 6.1. Los tres estados del modelo SIR. Cada miembro de la población puede ser susceptible, infectado o eliminado. Los individuos susceptibles pueden ser infectados a través de su interacción con individuos infectivos. Los infectados pueden o recuperarse o morir; en tal caso, dejan de tomar parte en la dinámica. Si se recuperan, pueden convertirse en susceptibles de nuevo a través de una pérdida de inmunidad.

Como es lógico, quién entre en contacto con quién dependerá de la red de asociaciones en la población. Para completar el modelo, debemos suponer algunas cosas acerca de esa red. La versión estándar del modelo, por ejemplo, supone que las interacciones entre los miembros de las tres subpoblaciones se producen de un modo simplemente aleatorio, como si todos los miembros de la población estuvieran siendo

Watts, Duncan J. 2006. Seis grados de separación. La ciencia de las redes en la era del acceso. Barcelona; Paidós, 2006.

Page 22: Duncan Watts Cap 5 y 6

22

removidos en una gran cubeta, como la de la figura 6.2. Tal como sugiere la analogía de la cubeta, la aleatoriedad pura no es una imagen muy acertada para explicar las interacciones humanas, pero sin duda sirve para simplificar de manera considerable el análisis. En el modelo SIR, el supuesto de la aleatoriedad implica que la probabilidad de que un individuo infectivo encuentre a otro susceptible sólo la determina el tamaño de las dos poblaciones, la infectada y la susceptible (yen la cubeta, no hay estructura de la población de la cual hablar). Si bien el problema aún no es trivial, ahora al menos es ya posible formular un conjunto de ecuaciones cuyas soluciones dependen sólo del tamaño del brote inicial y de unos pocos parámetros de la propia enfermedad, como el tipo de patología infecciosa que sea y el índice de recuperaciones contabilizadas.

Según el modelo, cuando se produce, una epidemia debe seguir un curso predecible que los matemáticos denominan crecimiento logístico. Tal como lo muestra esquemáticamente la figura 6.3, cada infección requiere la participación tanto de un individuo infectado como de otro susceptible.

De ahí que el ritmo con que se producen nuevos contagios dependa del tamaño de las dos poblaciones. Cuando la enfermedad se halla en sus fases iniciales, la población infectada es pequeña y, por tanto, también lo es el ritmo con el que se producen nuevos contagios e infecciones (tal como lo muestra el diagrama de la parte superior de la figura 6.3, en ese caso no existe un número suficiente de individuos infectivos como para causar un daño grave). Esta fase de crecimiento lento es también la etapa en la que se puede prevenir de manera más efectiva una epidemia, ya que el hecho de detectar unas pocas infecciones a tiempo permite contener la enfermedad. Por desgracia, una epidemia en esta primera fase puede resultar muy difícil de distinguir de una agrupación aleatoria de casos que no guardan relación entre sí, sobre todo si las autoridades sanitarias están mal coordinadas o se muestran renuentes a admitir que tienen un problema.

FIGURA 6.2. En la versión clásica del modelo SIR, se supone que las interacciones son puramente aleatorias. Un modo de pensar en las interacciones aleatorias es viéndolas como individuos mezclados en una gran cubeta. La principal consecuencia de la suposición de mezcla aleatoria es que la probabilidad de interacción depende sólo de los tamaños relativos de la poblaciones, un rasgo que en buena medida simplifica el análisis.

Cuando la densidad de infectivos es ya demasiado grande como para no tenerlos en cuenta o ignorarlos, la epidemia ha entrado entonces de forma típica en la fase explosiva del crecimiento logístico (diagrama central de la figura 6.3). En este caso son muchos los individuos infectados y muchos los individuos susceptibles, de modo que se maximiza la tasa en que se producen nuevas infecciones. Aquellas epidemias que han entrado en una fase plena de crecimiento explosivo son básicamente imposibles de detener. De ello fueron testigos, en 2001, los ganaderos británicos, cuando a lo largo de medio año la enfermedad de la fiebre aftosa causó estragos en la mayor parte de Inglaterra y algunas zonas de Escocia. Cuando, a mediados de febrero y sólo tres semanas después de haberse producido el primer caso, la epidemia fue detectada, las granjas que habían quedado infectadas eran ya cuarenta y tres. Puede parecernos que son muchas granjas, pero la epidemia aún estaba en su fase de crecimiento lento. Durante el mes de septiembre de aquel año, el número de granjas de las cuales se tenía la sospecha que estaban infectadas superaba los nueve millares, pese al sacrificio preventivo de casi cuatro millones de animales, entre ovejas y vacas.

Watts, Duncan J. 2006. Seis grados de separación. La ciencia de las redes en la era del acceso. Barcelona; Paidós, 2006.

Page 23: Duncan Watts Cap 5 y 6

23

FIGURA 6.3. En el crecimiento logístico, la tasa de nuevas infecciones depende del tamaño de las poblaciones de infectados y de susceptibles. Cuando cada una de las poblaciones es pequeña (diagramas de la parte superior e inferior), es raro que se produzcan nuevas infecciones. Pero cuando las dos poblaciones son de tamaño intermedio (diagrama central), los índices de infección se maximizan.

Al final, sin embargo, las epidemias, aún las más descontroladas, terminan, aunque sólo sea porque se agotan. Dado que sólo existe un número limitado de individuos que pueden ser afectados -ya se trate de personas o, como en el caso de la fiebre aftosa, de animales-, los individuos susceptibles que podrían ser posibles objetivos resultan cada vez más difíciles de alcanzar, y la trayectoria que describe la enfermedad vuelve a ser plana. Esta es la fase de agotamiento del crecimiento logístico. En la epidemia de la fiebre aftosa, este proceso autolimitante se vio acentuado por la cuarentena efectiva de las tierras de labranza y el sacrificio masivo de animales (sólo se detectaron unos dos mil casos reales de la enfermedad, un diminuto porcentaje del número de cabezas de ganado que fueron sacrificadas). Desde el principio hasta el final, por tanto, el curso de una epidemia muestra una curva característica en forma de S, como la reproducida en la figura 6.4. El hecho de que el principal rasgo de su trayectoria -crecimiento lento, explosión, y agotamiento- se pueda explicar en los términos del modelo de crecimiento logístico sugiere que, cuando se produce una epidemia, las fuerzas que la rigen son en esencia bastante sencillas.

FIGURA 6.4. Crecimiento logístico y fases de crecimiento lento, de crecimiento explosivo y de agotamiento.

Pero las epidemias no siempre se producen. De hecho, la mayoría de los brotes de enfermedades o llegan a ser contenidos gracias a la intervención humana o se agotan -lo cual sucede mucho más a menudo- antes de llegar a infectar a un contingente de individuos mayor que una diminuta fracción de la población. Por espantoso que fuera, el brote de ébola en 2000, por ejemplo, no se puede calificar de verdadera epidemia. Si bien 173 víctimas es un número significativo en términos absolutos, el brote quedó confinado a un grupo geográficamente localizado de aldeas, sin llegar a amenazar gravemente al grueso de la población potencialmente vulnerable.

En 2001, la epidemia de fiebre aftosa, en cambio, llegó a afectar a casi todo un país. Atajar una epidemia equivale, en los términos del modelo SIR, más o menos a evitar que alcance la fase de crecimiento explosivo de la figura 6.4, lo cual, a su vez, implica centrarse no sólo en las dimensiones o el tamaño del brote inicial, sino también en su tasa de crecimiento. En este sentido, la medida que resulta decisiva a la hora de poder caracterizar una enfermedad es su tasa de reproducción, esto es, el promedio de nuevos infectivos que son generados por cada individuo realmente infectado.

Watts, Duncan J. 2006. Seis grados de separación. La ciencia de las redes en la era del acceso. Barcelona; Paidós, 2006.

Page 24: Duncan Watts Cap 5 y 6

24

La condición matemática que se debe cumplir para que una enfermedad sea considerada una epidemia es que la tasa de reproducción de la enfermedad sea mayor de 1. Si los valores de la tasa de reproducción se mantienen por debajo de 1, entonces los individuos infectivos acaban por ser eliminados de la población a un ritmo mucho más rápido que aquel en que se generan nuevos infectados, y la enfermedad acaba extinguiéndose sin haber llegado a ser una epidemia. Pero, cuando el valor de la tasa de reproducción es mayor de 1, entonces aumenta no sólo la extensión de la enfermedad, sino también la velocidad en que sigue propagándose, y se inicia inevitablemente el crecimiento explosivo. A la delgada frontera entre estas dos condiciones, en la que un único portador transmite su carga precisamente a un único nuevo portador, la denominamos umbral de epidemia. Evitar una epidemia equivale a mantener la tasa de reproducción de una enfermedad por debajo de su umbral epidémico.

En el modelo SIR clásico, en el cual no se tiene en consideración la estructura de la población, la tasa de reproducción y, por tanto, el umbral epidémico, se determinan por entero mediante las propiedades de la enfermedad misma (su índole infecciosa y la velocidad con la que los individuos infectivos se recuperan o mueren) ya través del tamaño de la población susceptible con la que los portadores de la infección, los individuos infectivos, pueden interactuar. De este modo, las prácticas de sexo seguro han reducido la epidemia del VIH en algunas regiones del mundo al apuntar a la contención de su tasa de infección, mientras que la exterminación generalizada de animales en Gran Bretaña durante la epidemia de fiebre aftosa redujo con toda probabilidad su gravedad al limitar el tamaño efectivo de la población que era susceptible de contraerla.

Que el umbral de la tasa de reproducción en el modelo clásico deba ser exactamente 1 resulta ser una de aquellas profundas convergencias que hacen que las matemáticas sean tan interesantes. El umbral de epidemia es, de hecho, exactamente análogo al punto crítico en el que una componente gigante aparece en una red aleatoria (véase capítulo 2), donde la tasa de reproducción es idéntica, en términos matemáticos, al número medio de vecinos en la red. y el tamaño de la población infectada como una función de la tasa de reproducción (figura 6.5) es exactamente análogo al tamaño de la componente gigante de la figura 2.2. El comienzo de una epidemia, dicho de otro modo, se produce cuando la enfermedad pasa exactamente por la misma fase de transición que Erdos y Rényi descubrieron al abordar el problema de las redes de comunicación, que a simple vista parecía no guardar ninguna relación. Esta destacable similitud, sin embargo, sugiere también una crítica evidente. Si no aceptamos en su momento que los modelos de grafo aleatorio fueran representaciones realistas de las redes del mundo real, ya fueran éstas sociales o de otra índole, ¿no deberíamos también ahora rechazar cualquier conclusión sobre las epidemias que se basaran en los mismos supuestos? La dependencia de la tasa de reproducción del tamaño únicamente de la población susceptible, por ejemplo, no da cuenta de cualquiera de los rasgos de una estructura social o de red que podrían ser de utilidad a la hora de combatir una epidemia. Tal como veremos, algunas lecciones del modelo clásico siguen siendo válidas en el complejo mundo de las redes, pero ello no quita que sea preciso aprender también algunas nuevas lecciones acerca de las redes.

FIGURA 6.5. Fase de transición en el modelo SIR. Cuando la tasa de reproducción (R) de la enfermedad sobrepasa el valor 1 (el umbral de epidemia) se produce una epidemia.

EPIDEMIAS EN EL MUNDO PEQUEÑODesde el principio, conviene recordarlo, Steve y yo estábamos interesados en la dinámica. Al fin y al

cabo, entramos a estudiar las redes porque estábamos interesados en la dinámica de los osciladores acoplados, los grillos. Así, una vez que tuvimos algunos modelos de redes con los que jugar, como es lógico, nos

Watts, Duncan J. 2006. Seis grados de separación. La ciencia de las redes en la era del acceso. Barcelona; Paidós, 2006.

Page 25: Duncan Watts Cap 5 y 6

25

preguntamos por el modo en que podrían comportarse diferentes sistemas dinámicos en esos modelos de redes. El primer sistema que tratamos de comprender era el modelo de oscilador propuesto por Kuramoto (véase el capítulo 1), en el que Steve ya había trabajado bastante en épocas anteriores de su carrera. Por desgracia, pese a lo sencillo que es el modelo de Kuramoto, su comportamiento en una red de mundo pequeño continuaba siendo demasiado complejo como para que lo pudiéramos interpretar (y, transcurridos varios años, aún lo es). Así que empezamos a buscar un tipo más sencillo de dinámica y, de nuevo, el interés por la biología de Steve nos vino de perillas. «El modelo SIR es el tipo más sencillo de dinámica no lineal que se me ocurre,-me dijo un día en su despacho-, pondría la mano en el fuego a que nadie ha pensado realmente en el modelo SIR situado en una red, al menos no en una red como ésta. ¿Por qué no lo probamos?» y así fue, pero en esta ocasión hice primero los deberes. Se puede asegurar que, si bien el modelo SIR básico ha sido generalizado en muchos sentidos a fin de incluir las rarezas de las diferentes enfermedades particulares y las susceptibilidades variantes de los distintos grupos de población, en la literatura específica de este tema no se ha publicado nada relativo a las redes de mundo pequeño. Eso era tan alentador como la profunda equivalencia entre el modelo SIR clásico y la conectividad de un grafo aleatorio. Fuera cual fuera el comportamiento de una enfermedad en una red general de mundo pequeño, podíamos estar seguros de que se asemejaría al comportamiento clásico SIR en el límite en el que todos los lazos han sido renovados y conectados al azar (tal como mostraba el diagrama de la derecha en la figura 3.6). Así, no sólo teníamos un modelo de red, que en esta fase ya habíamos llegado a comprender razonablemente bien, sino que también teníamos un patrón de referencia bien establecido con el cual comparar nuestros resultados.

FIGURA 6.6. En un retículo anular, el frente de la enfermedad (allí donde los individuos infectivos y los susceptibles interactúan) es fijo. A medida que el tamaño de la población infectada aumenta, más individuos infectivos tiene en su interior, donde no puede alcanzar a nuevos individuos susceptibles. De ahí que las enfermedades se propaguen lentamente en los retículos.

La primera comparación que, lógicamente, se nos ocurrió hacer con respecto al límite aleatorio era con una enfermedad que se propagara por un retículo unidimensional, es decir, de acuerdo con el diagrama izquierdo de la figura 3.6, que refleja el caso de un espectro de mundo pequeño en extremo ordenado. En un retículo, tal como vimos en el capítulo 3, los lazos entre los nodos están muy agrupados, lo cual implica que una enfermedad cuando se extiende se ve continuamente obligada por la red a incidir de nuevo en la población infectada. Tal como se muestra en la figura 6.6, en un retículo unidimensional, un creciente agrupamiento de individuos infectivos consta de dos tipos de nodos: los que se hallan en el interior del cluster (y que no pueden infectar a ningún individuo de la población susceptible); y los que se hallan en la frontera, o frente de la enfermedad.

Con independencia de lo grande que sea la población infectada, el tamaño del frente de la enfermedad permanece fijo; de ahí que la tasa de crecimiento per capita de la población infectada decrezca irreversiblemente a medida que la infección se extiende. Así, un retículo presentaba un contexto muy diferente para una epidemia en comparación con el supuesto de mezcla aleatoria antes mencionado. Asimismo, hacía que la tasa de reproducción fuera difícil de calcular, por lo que decidimos comparar directamente los resultados de cuatro redes diferentes en términos del carácter de su condición infecciosa. Y la diferencia era sorprendente. Tal como se muestra en la figura 6.7, la misma enfermedad, extendiéndose por un retículo, tiende a infectar a muchos menos individuos que en un grafo aleatorio, y no existe ya un umbral claro. El mensaje que hay que retener es que cuando las enfermedades se hallan confinadas a extenderse sólo por un número limitado de dimensiones -incluso, pongamos por caso, la geografía bidimensional del territorio- sólo las enfermedades más infecciosas acaban desarrollándose como verdaderas epidemias. Y aun en ese caso, las epidemias avanzarán de forma lenta y sigilosa, y no a través de explosiones, dando a las autoridades sanitarias tiempo para reaccionar y un área bien demarcada en la cual centrarse.

Watts, Duncan J. 2006. Seis grados de separación. La ciencia de las redes en la era del acceso. Barcelona; Paidós, 2006.

Page 26: Duncan Watts Cap 5 y 6

26

FIGURA 6.7. Fracción infectada frente a la infecciosidad para el límite de grafo aleatorio «( ß = 1) Y el límite de retículo «( ß = O) del modelo beta que vimos en el capítulo 3. El valor para el umbral de infecciosidad representa el grado de virulencia infecciosa necesario para que la mitad de la población acabe infectada.

Un ejemplo precisamente de este tipo de epidemia sigilosa es la peste negra que asoló Europa en el siglo XIV, eliminando a una cuarta parte de toda la población del continente. Por increíble que parezca esta estadística, una epidemia como la peste negra probablemente no podría producirse en nuestros días, al menos no en el mundo industrializado. Tal como muestra el mapa reproducido en la figura 6.8, la peste empezó en una ciudad concreta situada en el sur de Italia (a cuyo puerto se cree que llegó un barco infectado procedente de China) y luego se propagó como lo hace la onda producida cuando se arroja una piedra sobre la superficie de un estanque.

Dado que la enfermedad era transportada principalmente por ratas infestadas de pulgas, las portadoras de la peste, el frente de la enfermedad tardó tres años, de 1347 a 1350, en propagarse por toda Europa.

Ni la ciencia médica ni los servicios sanitarios públicos de la época pudieron impedir el incansable avance de la peste, de modo que su velocidad relativamente lenta de propagación no cambió mucho las cosas. En el mundo contemporáneo, cualquier enfermedad que se viera obligada a desplazarse a través de medios tan lentos e ineficientes, en cambio, podría ser identificada y contenida.

Watts, Duncan J. 2006. Seis grados de separación. La ciencia de las redes en la era del acceso. Barcelona; Paidós, 2006.

Page 27: Duncan Watts Cap 5 y 6

27

Por desgracia, las enfermedades en nuestros días cuentan con mecanismos mucho mejores para su transporte que las ratas. Y cuando en nuestros modelos de red decidimos apenas permitir sólo una pequeña fracción de enlaces aleatorios, la estabilidad relativa del modelo reticular se escindió en dos. Para ver este efecto, consideramos la línea transversal dibujada hacia la mitad horizontal de la figura 6.7. Los puntos en los que las dos curvas de infección cortan la línea representan los valores de la infecciosidad de la enfermedad en los que esa fracción de la población está infectada (en la figura, la fracción es un medio, pero podríamos haber escogido otros valores). Llamemos a este valor el umbral de infecciosidad (y recordemos que ya utilizamos la tasa de reproducción para definir el umbral que demarca la existencia de una epidemia y que, en cambio, nos servimos de una fracción fija de la población), y preguntémonos entonces cómo este umbral varía con la fracción de atajos aleatorios presentes en la red. Tal como podemos ver en la figura 6.9, el umbral de infecciosidad comienza siendo muy elevado -para contaminar a una población muy numerosa la enfermedad tiene que ser muy infecciosa-, pero luego decae rápidamente. Y lo que es aún más importante, se aproxima al peor escenario de una red completamente aleatoria mientras la red misma todavía dista mucho de ser aleatoria.

FIGURA 6.9. El umbral de infecciosidad requerido para que se produzca una epidemia decrece de manera drástica cuando hay pequeñas cantidades de aleatoriedad en una red.

Esta observación podría contribuir a explicar por qué las epidemias como la fiebre aftosa en Gran Bretaña explotan de una forma tan rápida. Dado que la fiebre aftosa se extiende entre animales ya sea por vía de contacto directo o indirectamente a través de gotitas excretadas por los animales aquejados de los síntomas y que el viento transporta, y de los suelos llenos de virus, cabría esperar que cualquier brote inicial se extendiera sólo por la geografía bidimensional del agro inglés, tal como lo hizo la peste siete siglos antes. Sin embargo, la combinación de la red de transportes contemporáneos, los mercados de ganados modernos (en los que se intercambian animales procedentes de granjas geográficamente dispersas, o que simplemente entran en contacto unos con otros) y los aficionados al excursionismo que transportan suelo infectado en sus botas ha roto las limitaciones que en otras épocas la geografía imponía. Como consecuencia de ello, las granjas de ganado ovino y bovino se hallan enlazadas por una red de sistemas de transporte que tienen la capacidad de desplazar de la noche a la mañana animales (pero también personas) infectados a cualquier punto del país. Y como estos enlaces son, a todos los efectos, aleatorios, al virus le bastó encontrar sólo alguno para pasar a un nuevo territorio.

Uno de los primeros problemas importantes que surgieron a la hora de combatir la epidemia, por ejemplo, fue que las primeras cuarenta y tres granjas de ganado en las que se detectó la existencia de fiebre aftosa no eran vecinas unas de otras. De ahí que fuese preciso combatir el virus desde muchos frentes, a los que cada día que pasaba debían sumarse otros nuevos, y de manera simultánea.

El hecho de que los resultados del modelo de mezcla aleatoria resulten ser tan fácilmente replicados incluso en redes muy agrupadas no es una buena noticia para el mundo. Si las enfermedades se propagan efectivamente por redes de mundo pequeño, entonces daría la impresión que continuamente nos enfrentamos al peor de los escenarios. Y lo que aún es más problemático: dado que muy pocas personas tienen alguna vez algo más que información local sobre sus redes, puede resultar muy difícil para las autoridades sanitarias hacer que los individuos entiendan la inmediatez de una amenaza que perciben como remota, y, en consecuencia, también será difícil que cambien su comportamiento. El sida es un buen ejemplo de este tipo de

Watts, Duncan J. 2006. Seis grados de separación. La ciencia de las redes en la era del acceso. Barcelona; Paidós, 2006.

Page 28: Duncan Watts Cap 5 y 6

28

problema. Durante más de una década después de que la epidemia de sida fuera identificada, la infección por el virus de la inmunodeficiencia humana se consideró, en general, como algo que afectaba sólo a unas pocas comunidades bastante específicas: varones homosexuales, prostitutas y drogadictos que se inyectaban la droga por vía intravenosa. De este modo, si una persona X no había mantenido relaciones sexuales con ninguna otra persona que perteneciera a una de estas tres categorías y tampoco lo había hecho ninguna de sus parejas sexuales, entonces la persona X estaba a salvo. ¿Cierto? Falso! Lo que está claro, una vez hemos visto cómo el virus infectaba a naciones casi enteras en el África meridional y austral, es que en las redes sexuales de mundo pequeño incluso un peligro en apariencia remoto debe tomarse en serio. Resulta particularmente perturbador que el virus de la inmunodeficiencia humana fuese capaz de romper las que eran sus fronteras iniciales, en parte, por el hecho de que se creyera que no podía hacerlo.

La frase «piensa globalmente y actúa localmente», por tanto, en ningún otro lugar se emplea de modo más apropiado que en la prevención de las epidemias. Recordemos que las enfermedades infecciosas, a diferencia de los problemas de búsqueda que tratamos en el capítulo 5, llevan a cabo lo que identificamos como búsquedas diseminadas. De este modo, que exista un camino corto a través de una red de contactos entre un infectivo y un susceptible tiene importancia si cada uno sabe que ese camino está ahí, o incluso si pueden llegar a encontrarlo, en caso de quererlo. A menos que de algún modo se llegue a detener la enfermedad, ésta encontrará el camino, porque se dedica a explorar ciegamente la red buscando todos los caminos sin excepción. A diferencia de los usuarios del Gnutella o de la clase de sexto curso de la señorita Forrest que comentamos en el capítulo 5, las enfermedades infecciosas se contentan con sobrecargar toda la red con copias de ellas mismas. El hecho de que nuestra percepción del riesgo que supone una enfermedad infecciosa -ya se trate del virus de la inmunodeficiencia humana, del ébola o incluso, por ejemplo, del virus del Nilo occidental- esté tan desfasada con respecto a la transmisión real de las enfermedades sin lugar a dudas es una fuente de preocupación.

La situación, sin embargo, no es tan pesimista. Tal como se dijo con anterioridad, los brotes de las enfermedades, la mayoría de las veces, no se convierten en epidemias y, en este sentido, las redes de mundo pequeño tienen algo alentador que enseñarnos. En una red de mundo pequeño, los atajos son las claves del crecimiento explosivo de una enfermedad. Las enfermedades no se extienden de un modo muy efectivo en retículos, y si bien las redes de mundo pequeño presentan algunos rasgos importantes propios de los grafos aleatorios, continúan, sin embargo, compartiendo con los retículos la propiedad según la cual, localmente, la mayoría de los contactos están muy agrupados. Así, localmente, el crecimiento de una enfermedad se comporta de una forma muy similar a como lo hace en un retículo: los individuos infectados interactúan principalmente con otros individuos ya infectados, impidiendo que la enfermedad se extienda rápidamente entre la población susceptible. Sólo cuando el agrupamiento de la enfermedad se extiende por un atajo -ya se trate de la víctima del ébola que viajaba en un avión o de un camión -cargado de ganado bovino infectado por la fiebre aftosa que se desplaza por la autopista M1- empieza a mostrar el peor escenario posible: el comportamiento de mezcla aleatoria.

Así, a diferencia de un grafo aleatorio, las epidemias en una red de mundo pequeño tienen que sobrevivir primero a una fase de crecimiento lento durante la cual son muy vulnerables. y cuanto menor es la densidad de atajos en la red, más durará la fase de crecimiento lento.

Una estrategia de prevención de las epidemias concebida en función de la red, por tanto, no sólo trataría de reducir las tasas de infección en un sentido general, sino que se centraría también de manera particular en cuáles son las fuentes probables de atajos. Resulta interesante que el programa de intercambio de jeringuillas, que ha demostrado ser efectivo en la reducción de la propagación del virus de inmunodeficiencia humana entre los drogadictos por vía intravenosa, presente estos dos rasgos. Retirar de la circulación las agujas y las jeringuillas usadas elimina uno de los mecanismos a través de los cuales el virus de la inmunodeficiencia humana se extiende y reduce de este modo la tasa general de infección. Pero también es efectivo en virtud de las infecciones particulares que evita. Las agujas y jeringuillas usadas no sólo son compartidas entre amigos, sino también con completos extraños, que pueden recoger y reutilizar una aguja o jeringuilla hipodérmica desechada. Dicho de otro modo: las agujas y jeringuillas reutilizadas son una fuente de relaciones aleatorias en la red de la enfermedad. Al igual que la prohibición de trasladar animales infectados y el cierre de los caminos rurales en toda Inglaterra durante 2001 contribuyeron a reducir las posibilidades de que hubiera atajos de largo alcance, la eliminación de las agujas y las jeringuillas cierra una

Watts, Duncan J. 2006. Seis grados de separación. La ciencia de las redes en la era del acceso. Barcelona; Paidós, 2006.

Page 29: Duncan Watts Cap 5 y 6

29

vía a través de la cual la epidemia podría salir de la fase de crecimiento lento, y, a su vez, da a las autoridades sanitarias una mejor oportunidad para recuperar la ventaja que les lleva ya la enfermedad.

Reflexionar sobre la estructura de las redes también puede permitirnos explicar otras sutilezas propias de la propagación de una enfermedad que no serían evidentes si no se hubiera desarrollado un enfoque en función de la red. En fecha reciente, dos físicos, el español Romualdo Pastor-Satorras y el italiano Alessandro Vespignani, apuntaron la existencia de un rasgo de este tipo en los virus informáticos del mundo real que a los modelos SIR les resulta difícil de explicar. Después de estudiar los datos de preponderancia disponibles en un boletín popular de virus on-line, llegaron a la conclusión de que la mayoría de los virus presentan una combinación peculiar de persistencia a largo y a corto plazo «en su hábitat». Esta combinación es peculiar porque, según el modelo SIR estándar, todo virus debe o generar una epidemia (en cuyo caso una fracción significativa de la población quedará infectada) o agotarse rápidamente. Dicho con otras palabras, o entra en una fase de explosión o no lo hace. Pero a menos que tenga una tasa de reproducción exactamente igual a 1, el punto crítico de la transición de fase en la figura 6.5, no puede ir a la deriva sin hacer una u otra cosa. En cambio, muchos de los 814 virus cuyas cronologías quedaban registradas en el boletín sobre virus parecían hacer precisamente eso. Algunos de estos virus habían estado corriendo por ahí durante años, a pesar de la disponibilidad de programas antivirus que, por lo general, actúan en el plazo de días o semanas desde que se produce la detección inicial.

Pastor-Satorras y Vespignani propusieron una explicación que incluía, explícitamente, rasgos de la red de correo electrónico, a través de la cual, según la hipótesis de los físicos, los virus se habían propagado. Tomando el modelo sin escala de Barabási y Albert como un representante de la estructura de las redes de correo electrónico -una suposición que un año después se vería respaldada por un equipo alemán de físicos, aunque de un modo no conc1uyente-, los físicos mostraron que los virus, cuando se propagan por redes sin escala, no presentan el mismo comportamiento de umbral que demuestran tener en el modelo estándar. Más bien, tal como se muestra en la figura 6.10, la fracción de la población infectada tiende a crecer de manera continua a partir de cero conforme el grado de infecciosidad de la enfermedad aumenta. En una red de correo electrónico sin escala, la mayoría de los nodos tienen sólo unos pocos enlaces, lo cual equivale a decir que la mayoría de los individuos sólo envían correos electrónicos a unos pocos de forma regular. En cambio, una pequeña fracción de los usuarios del correo electrónico tienen listines de direcciones muy extensos que contienen un millar o más de nombres y, en apariencia, son 10 bastante diligentes como para mantenerlos todos al día. Esta minoría, según la hipótesis de Pastor-Satorras y Vespignani, es más o menos la responsable de la persistencia a largo plazo de los virus, es decir, basta con que uno de ellos llegue a infectarse con un virus de vez en cuando para que el virus continúe circulando a niveles perceptibles por el conjunto de la población.

FIGURA 6.10. Comparación de curvas de infección en redes estándar frente a redes aleatorias sin escala. Las redes sin escala no muestran ningún punto crítico en el cual de repente aparezcan las epidemias.

A la luz de todo ello, incluso los rasgos más sencillos de las redes de mundo real, como pueden ser el agrupamiento local y las distribuciones de grado sin escalas, tienen importantes consecuencias para la extensión de las enfermedades y, 10 que es aún más importante, para las condiciones que determinan y rigen las epidemias. El estudio de los modelos de las enfermedades es, por tanto, un importante subcampo de la nueva ciencia de las redes. En un mundo en el cual varias decenas de millones de seres humanos están infectados por el virus de la inmunodeficiencia humana y en el cual la presencia de infectados varía, aun en el

Watts, Duncan J. 2006. Seis grados de separación. La ciencia de las redes en la era del acceso. Barcelona; Paidós, 2006.

Page 30: Duncan Watts Cap 5 y 6

30

interior del continente africano, desde países con menos de un 2 % de la población infectada hasta otros con más de un tercio de su población infectada, no es exagerado señalar la importancia que reviste comprender la extensión de la enfermedad infecciosa en las redes. Si bien aún queda mucho trabajo por hacer, han ido surgiendo algunas orientaciones prometedoras en la literatura dedicada al estudio de las redes. y si bien el modelo SIR continúa ocupando una posición central en este esfuerzo, los físicos, como era previsible, han empezado a abordar el problema a su modo.

En especial, han introducido un conjunto de técnicas en el estudio de las epidemias que se engloban bajo la denominación general de teoría de la percolación.

MODELOS DE PERCOLACIÓN DE LA ENFERMEDADEl origen de la teoría de la percolación, considerada desde una perspectiva histórica, se remonta a la

Segunda Guerra Mundial, cuando Paul Flory y su colaborador Walter Stockmayer se sirvieron de la percolación para describir la gelificación de los polímeros. Si alguna vez el lector ha hervido un huevo, entonces estará familiarizado ya con algunos aspectos de la gelificación de polímeros. A medida que se calienta el huevo, los polímeros presentes en la clara se enlazan y quedan ligados entre sí, dos a dos. Entonces, cuando se llega a cierto punto crítico, denominado gelificación, un número muy grande de polímeros ramificados de repente acaban unidos entre sí formando un único grupo coherente que abarca el conjunto del huevo. En resumen: antes de producirse la gelificación, el huevo está líquido; después de la gelificación, es sólido. El primer éxito obtenido por la teoría de la percolación fue la explicación que Flory y Stockmayer dieron de cómo podía producirse esta transición de forma casi inmediata, y no de un modo lento e incremental como sería de esperable. La teoría de la percolación, aunque fue desarrollada para responder a preguntas planteadas en el campo de la química orgánica, demostró con posterioridad ser un modo útil de pensar todo tipo de problemas, desde las dimensiones de incendios forestales, hasta los rendimientos de los campos de extracción petrolífera y la conductividad eléctrica de materiales compuestos. En fecha más reciente, ha sido empleada también para estudiar la propagación de las enfermedades.

A finales de 1998, cuando no hacía mucho tiempo de mi llegada al Santa Fe Institute, empecé a hablar con Mark sobre el trabajo centrado en la propagación de enfermedades que habíamos realizado Steve y yo durante el año anterior. Basándonos en un modelo SIR sencillo, los dos habíamos conseguido llegar a algunas conclusiones acerca de la dependencia que de la densidad de atajos aleatorios mostraba tener el umbral de epidemia. Sin embargo, no habíamos alcanzado a comprender con exactitud cómo funcionaba el mecanismo, o de qué modo variaba el efecto de los atajos aleatorios con la densidad de la red. A partir de entonces me dediqué por mi cuenta a estudiar lo esencial de la teoría de la percolación, la cual me parecía un modo lógico de plantear las mismas preguntas. Y Mark, experto como era en física estadística, era indiscutiblemente la persona a quien hacérselas. Como pronto pude saber, una de las características de Mark era que, una vez se interesa por un problema, no tarda mucho en obtener resultados.

Imaginemos una población muy grande de individuos (sites o «sitios» en la terminología de la teoría de la percolación) relacionados unos con otros a través de una red de enlaces o vínculos (bonds) a través de los cuales se podría transmitir una enfermedad. Cada sitio (site) en la red es susceptible o no, con cierta probabilidad denominada probabilidad de ocupación, y cada enlace puede ser abierto o cerrado con una probabilidad que equivale a el grado de contagiosidad de la enfermedad. El resultado tiene un aspecto similar a los diagramas de la figura 6.11 (aunque para redes mucho más grandes), en los cuales es posible pensar en la enfermedad como si se tratara de un fluido que es bombeado a partir de un sitio fuente. Iniciándose en la fuente, la enfermedad siempre «fluirá» por cualquier enlace abierto con el que se encuentre, extendiéndose desde un sitio susceptible a otro hasta que no pueda acceder a más enlaces abiertos con nuevos sitios susceptibles. El grupo de sitios a los que se puede llegar de esta manera a partir de un punto inicial seleccionado al azar se denomina agrupamiento (cluster), y la entrada de una enfermedad en un agrupamiento determinado implica necesariamente que todos los sitios en ese agrupamiento pasan a estar también infectados.

Watts, Duncan J. 2006. Seis grados de separación. La ciencia de las redes en la era del acceso. Barcelona; Paidós, 2006.

Page 31: Duncan Watts Cap 5 y 6

31

FIGURA 6.11. Percolación de una red. Los círculos, sólidos (lazos) corresponden a sitio (vínculos) ocupados (abiertos). Los agrupamientos (c1usters) relacionados aparecen indicados con un sombreado.

En el diagrama de la izquierda de la figura 6.11, la probabilidad de ocupación es elevada y los principales vínculos están abiertos, lo cual hace suponer una enfermedad con una elevada contagiosidad que es susceptible de contraer la mayor parte de la población. En esta condición, el mayor agrupamiento abarca casi toda la red, lo cual implica por tanto que de producirse un brote en una ubicación aleatoria de la red, cabría esperar que la enfermedad se propagara rápidamente. En los otros dos diagramas, en cambio, o la contagiosidad (diagrama central) o la probabilidad de ocupación (diagrama de la derecha) es baja, lo cual supone que los brotes de la enfermedad serán pequeños y localizados, con independencia del lugar donde se produzcan. Entre estos dos extremos se halla un complejo continuo de posibilidades en las cuales pueden existir agrupamientos de todos los tamaños de forma simultánea, y el tamaño del agrupamiento particular en el que se origina determina en qué medida la enfermedad se propaga. Los principales objetivos de la teoría de la percolación son la caracterización de esta distribución de tamaños de agrupamiento y la determinación del modo en que depende de los diversos parámetros presentes en el problema.

La posibilidad de que se produzca una epidemia depende, si lo expresamos en el lenguaje de los físicos, de la existencia de lo que se da en llamar un agrupamiento percolante o cluster percolante (percolating cluster), es decir, un único agrupamiento de sitios susceptibles -relacionados por vínculos abiertos- que se evidencia en toda la población. En ausencia de un agrupamiento percolante, aún veríamos brotes, pero serían pequeños y localizados. Sin embargo, una enfermedad que empieza en algún lugar de un agrupamiento percolante, en vez de extinguirse, se extenderá por toda la red aun en el caso de que ésta sea muy grande. El punto en el que surge un agrupamiento de percolación -en general, es designado como percolación- resulta ser el análogo exacto de la gelificación que Flory y Stockmayer explicaron para los polímeros. Asimismo es equivalente al umbral de epidemia en los modelos SIR en los cuales la tasa de reproducción de la enfermedad es mayor que 1 (y, en consecuencia, por asociación, la transición de conectividad de un grafo aleatorio). Tal como lo muestra la figura 6.12, el tamaño del mayor de los agrupamientos, por debajo del umbral y cuando se considera como una fracción de la población total, es insignificante.

FIGURA 6.12. El mayor agrupamiento susceptible de ser infectado en una red. Por encima del umbral de percolación, el mayor agrupamiento ocupa una fracción finita de la red, lo cual hace suponer que un brote puede convertirse en una epidemia.

Watts, Duncan J. 2006. Seis grados de separación. La ciencia de las redes en la era del acceso. Barcelona; Paidós, 2006.

Page 32: Duncan Watts Cap 5 y 6

32

Pero cuando se alcanza el punto crítico, observamos la aparición súbita y drástica de un agrupamiento percolante -surgido aparentemente de ninguna parte- a través del cual la enfermedad puede extenderse ya sin inhibiciones.

La distancia que a través de una red recorrerá de forma típica una enfermedad al extenderse antes de llegar a la fase de su agotamiento equivale a aquello que los físicos denominan longitud de correlación, un término que ya vimos en el capítulo 2 en el contexto de la coordinación global.

Allí, la divergencia de la longitud de correlación hacía' suponer que el sistema había entrado en un estado crítico en el cual incluso las perturbaciones locales podían llegar a propagarse a escala global. En buena medida, el mismo resultado se puede aplicar a los modelos de percolación de la extensión de las enfermedades. Justo en la transición de percolación, la longitud de correlación se vuelve efectivamente infinita, lo cual nos da pie para suponer que incluso nodos muy alejados entre sí pueden infectarse uno a otro. Con Mark habíamos llegado a comprender cómo en el caso de redes de mundo pequeño, la longitud de correlación dependía de la fracción de atajos aleatorios. En concordancia a los crudos resultados a los que habíamos llegado con Steve casi dos años antes, con Mark demostramos que incluso una pequeña fracción de atajos aleatorios podría alterar de manera drástica la longitud de correlación. Pero ahora, al clarificar cuáles eran las condiciones bajo las cuales divergía la longitud de correlación, podríamos determinar la posición de la transición de percolación -y, por tanto, también el umbral de epidemia- con precisión.

REDES, VIRUS Y MICROSOFTEste resultado era un punto de partida prometedor y venía a demostrar que, en el caso al menos de

ciertos problemas, las epidemias se pueden entender mejor si se utiliza el enfoque de la teoría de la percolación y no el modelo SIR estándar. Por desgracia, la percolación en el caso de las redes de tipo real es un problema difícil (e irresuelto), y se ha demostrado que no era precisamente fácil realizar cualquier nuevo avance en esta dirección.

Casi todos los modelos de percolación, a fin de hacer que el análisis continúe siendo manejable, o bien suponen que todos los sitios en la red son susceptibles y se centran en los vínculos (percolación de vínculos) o suponen, en cambio, que todos los vínculos están abiertos y entonces el modelo se centra en los sitios (percolación de sitios). En los dos tipos de percolación se pueden utilizar más o menos los mismos métodos y, en muchos sentidos, se comportan de un modo similar. Mark y yo, por ejemplo, estudiamos la versión de la percolación de sitios, pero, poco después, Mark y otro físico del Santa Fe Institute, Cris Moore, extendieron los resultados a la percolación de vínculos. En algunos sentidos, sin embargo, la percolación de sitios y la de vínculos difieren de manera significativa, produciendo de vez en cuando predicciones bastante diferentes en relación con la probabilidad de una epidemia.

Antes de seguir adelante con el análisis, por tanto, es preciso reflexionar detenidamente sobre cuál de las dos versiones capta mejor la índole de la enfermedad: la percolación de vínculos o la de sitios. En el caso de un virus como el ébola, por ejemplo, parece sensato suponer que todos los individuos son susceptibles y centrarse en qué medida pueden infectarse entre sí. Por tanto, la formulación relevante del problema de percolación relacionada con este virus sería la percolación de vínculos.

Los virus informáticos como el bug Melissa, sin embargo, circularán en general entre cualquier ordenador susceptible y cualquier otro ordenador (todos los que se hallan efectivamente abiertos), pero no todos los ordenadores son susceptibles. Así, un modelo de percolación para un virus informático probablemente deba ser de la variedad percolación de sitios. Poniendo como ejemplo el bug Melissa, sólo una determinada fracción de los ordenadores del mundo son susceptibles a ser infectados por el virus, ya que sólo se puede extender a través del programa Outlook de correo electrónico desarrollado por Microsoft, y no todo el mundo lo utiliza.

Por desgracia para los usuarios de Microsoft, son tantos los ordenadores que emplean el Outlook que el mayor agrupamiento conectado de ellos casi con toda seguridad es percolante. Si no lo fuera, de hecho, no veríamos brotes virales de alcance global como el Melissa y sus protegidos, los virus Lave Letter y Anna Kournikova. Sin lugar a dudas, la compatibilidad universal del software confiere ciertos beneficios significativos a los usuarios individuales, pero, vistos desde la perspectiva de la vulnerabilidad del sistema, cuando todos utilizamos el mismo software, todos pasamos también a tener la misma vulnerabilidad. y cada

Watts, Duncan J. 2006. Seis grados de separación. La ciencia de las redes en la era del acceso. Barcelona; Paidós, 2006.

Page 33: Duncan Watts Cap 5 y 6

33

fragmento de software tiene puntos débiles, sobre todo cuando se trata de grandes y complejos sistemas operativos como los de Microsoft. En cierto sentido, lo único que sorprende de los brotes como el del Melissa es precisamente que no se haya producido más a menudo. y si empezaran a producirse más a menudo -si el software de Microsoft acabara teniendo fama de una persistente vulnerabilidad-, entonces las grandes corporaciones, e incluso los individuos que no pueden permitirse que sus ordenadores queden fuera de combate cada vez que aparece un nuevo virus en cualquier parte del mundo, podrían empezar a buscar alternativas.

¿Qué puede hacer Microsoft? La alternativa evidente es hacer que sus productos sean lo más flexibles posible a un ataque de cualquier virus informático de tipo gusano, y, en el caso de que haya un brote, poner a disposición de los usuarios lo antes posible un antivirus efectivo. Estas medidas tienen el efecto de reducir la probabilidad de ocupación de la red, disminuyendo e incluso eliminando todo el agrupamiento percolante. Pero si las grandes corporaciones como Microsoft, que son los objetivos lógicos de cualquier pirata informático que desea alcanzar la fama y la gloria, quieren proteger a sus clientes y su cuota de mercado, tienen que pensar asimismo de un modo algo más radical. Una solución podría ser cambiar lo que ahora es una única línea de productos integrados a diversos productos diferentes que sean desarrollados por separado y estén diseñados para no ser del todo compatibles.

Desde el punto de vista del software convencional, el cual hace hincapié en la compatibilidad y las economías de escala, desintegrar una línea de producto podría parecer una locura. Pero, a largo plazo (y ese largo plazo podría no ser tan largo), una proliferación de productos no idénticos reduciría el número de ordenadores susceptibles a infectarse de cualquier virus particular, haciendo que el sistema en su conjunto fuera radicalmente menos vulnerable a los grandes brotes virales. Eso no quiere decir que los productos de Microsoft no continuaran siendo vulnerables a los ataques de los virus informáticos, pero al menos no serían espectacularmente más vulnerables que los de la competencia. No deja de ser una ironía que Microsoft, en su reciente pulso con el Departamento de Justicia estadounidense a propósito de la legislación antimonopolios, tratara de evitar en cierta medida precisamente el destino de convertirse en una línea desintegrada de productos, cuando lo cierto es que algún día Microsoft puede llegar a considerar que su peor enemigo es ella misma.

El hecho de que las sutiles diferencias en el mecanismo de propagación de las enfermedades se puedan traducir en diferentes versiones del marco general de percolación -posiblemente con resultados bastante diferentes- sugiere que es preciso cierto cuidado a la hora de aplicar los métodos de la física al problema de las epidemias. En el capítulo 7, de hecho, veremos que se deben hacer otras distinciones si se quiere entender la diferencia entre el contagio biológico y los problemas de contagio social, como, por ejemplo, la difusión de una innovación tecnológica, distinciones que de nuevo comportan importantes consecuencias para los fenómenos del mundo real que queríamos entender. Los modelos de percolación, sin embargo, se aplican de una forma tan natural a las redes que continuarán desempeñando una función importante en el estudio de las epidemias en las redes. Y tal como Mark y yo no tardamos en descubrir, la percolación es asimismo interesante por otras razones. De nuevo, no obstante, László Barabási y Réka Albert llevaban ya cierta ventaja.

FALLOS, CORTES, AVERÍAS Y ROBUSTEZAl igual que la mayoría de las características de los sistemas complejos, la conectividad global no es

inequívocamente buena ni mala. Cierto es que, en el contexto de las enfermedades infecciosas o de los virus informáticos, la presencia en una red de un agrupamiento percolante implica el riesgo de una epidemia potencial. En cambio: ése mismo agrupamiento percolante puede parecernos una necesidad absoluta en el contexto de una red de comunicación como Internet, en la cual quisiéramos asegurar que los paquetes de datos llegarán a su destino en un tiempo razonable. Desde el punto de vista de la infraestructura de protección, por tanto, lo que queremos preservar, tanto si hablamos de Internet como de las redes de líneas aéreas, es la solidez de la conectividad de la red frente a fallos, cortes o averías accidentales, o atentados deliberados. Y, también desde este punto de vista, los modelos de percolación pueden resultar en extremo útiles.

Barabási y Albert, tras demostrar que una serie de redes reales como Internet y la World Wide Web eran lo que denominaban redes sin escala, empezaron a preguntarse si las redes sin escala tenían algunas ventajas competitivas sobre las variedades de redes más tradicionales. Recordemos que, en una red sin escala,

Watts, Duncan J. 2006. Seis grados de separación. La ciencia de las redes en la era del acceso. Barcelona; Paidós, 2006.

Page 34: Duncan Watts Cap 5 y 6

34

la distribución de grado está regida por una ley potencial en lugar de estarlo por una distribución de Poisson con un pico afilado como los que encontramos en los grafos aleatorios uniformes (una distinción que, en la práctica, se traduce por una pequeña fracción de nodos «ricos» que tienen muchos enlaces, y muchos otros nodos «pobres» que apenas los tienen). Entonces Barabási y Albert pasaron a centrar su interés en la cuestión de saber cómo quedaría la conexión entre dos redes -una de ellas, una red aleatoria uniforme, y la otra, una red sin escala- si los nodos individuales que las integran empezaban a fallar.

El hecho de concebir la robustez de la red como una cuestión de conectividad proyectaba ingeniosamente el problema como un problema de percolación de sitios. En esta aplicación, sin embargo, la probabilidad de ocupación desempeñaba la función opuesta a aquella que había tenido en la propagación de las enfermedades infecciosas. Mientras con Mark nos habíamos interesado principalmente por el efecto de los sitios ocupados (susceptibles), Albert y Barabási se centraron en los sitios desocupados o, expresado en términos de la red, los nodos que habían fallado. Y desde la perspectiva de la robustez de una red, cuanto menor era el efecto que cada sitio desocupado tenía en la conectividad de la red, mejor. Asimismo, Barabási y Albert tenían un enfoque de la conectividad diferente al que habíamos aplicado Mark y yo. Mientras, por nuestra parte, nos interesábamos sólo por si existía o no un agrupamiento percolante, ellos querían saber precisamente cuántos pasos serían necesarios para que un mensaje pasara de un lado del agrupamiento al otro. Si bien no existe una definición que pueda considerarse como el modo universalmente correcto de pensar la robustez de una red, el de Barabási y Albert era a todas luces relevante para sistemas como Internet, en los cuales un incremento en el número típico de saltos que da un mensaje hace aumentar tanto el tiempo previsto de entrega como la probabilidad de que sea mandado.

Ante todo, Albert y Barabási demostraron que las redes sin escala son mucho más resistentes a los fallos aleatorios que cualquier otra red aleatoria corriente. La razón de que así fuera era sencillamente que las propiedades de las redes sin escala tienden a estar dominadas por una pequeña fracción de nodos conectores o hubs que presentan un elevado índice de conectividad. Dado que son tan escasos, estos nodos conectores tienen muchas menos posibilidades de fallar por una posibilidad aleatoria que sus homólogos menos conectados y mucho más abundantes. y la pérdida de un nodo «pobre» pasa en gran medida desapercibida fuera de su entorno inmediato, como sucede, por ejemplo, al faltar en la red de aerolíneas de Estados Unidos un aeropuerto menor en una zona rural. En las redes aleatorias corrientes, en cambio, los nodos más conectados no son ni con mucho tan críticos, y los nodos que no están tan bien conectados tampoco son tan intrascendentes. En consecuencia, cada nodo que se pierde será echado en falta, tal vez no mucho, pero, en todo caso, más que en una red sin escala. Albert y Barabási, basándose en pruebas recientes de que Internet es de hecho una red sin escala, pasaron a postular su modelo como una explicación de que Internet funciona de un modo tan fiable, pese a que los direccionadores (routers) individuales fallan constantemente.

Pero había, sin embargo, otra faceta de la robustez que ambos autores también señalaron. Si bien en algunas redes como Internet, los fallos de los direccionadores se producen de forma aleatoria, los fallos también puede ser una consecuencia de sabotajes o atentados deliberados, que de ningún modo pueden considerarse aleatorios. Incluso en Internet, los ataques de negación de servicio, por ejemplo, tienden a tener por objetivo los nodos más altamente conectados. Y, en otros casos, que abarcan desde las redes de aerolíneas hasta las redes de comunicación, son a todas luces los conectores los principales objetivos de un saboteador potencial. Albert y Bárabási demostraron que cuando los nodos más conectados de una red son los primeros en fallar, las redes sin escala son en realidad mucho menos robustas que las redes uniformes. La vulnerabilidad de las redes sin escala a los ataques se debe, por irónico que pueda parecer, exactamente a la misma propiedad que define su aparente robustez: en una red sin escala, los nodos más conectados son mucho más críticos para la funcionalidad general de la red que sus homólogos en una red uniforme. El mensaje general, por tanto, es ambiguo: la robustez de una red depende en gran medida de la naturaleza específica de los fallos, dado que los fallos aleatorios y los fallos premeditados ofrecen conclusiones diametralmente opuestas.

Si bien ambos tipos de fallos son importantes de considerar, el fallo preferente de los conectores parece revestir una importancia particular porque no tiene por qué ser deliberado o malintencionado. En muchas redes de infraestructuras que dependen de manera desproporcionada de una pequeña fracción de nodos muy conectados, las tasas superiores a la media de fallos en el caso de estos nodos puede ser en realidad una consecuencia inevitable de su conectividad. En la red de aerolíneas, por ejemplo, la cantidad masiva de tráfico que circula por los principales centros de conexión hace que su tendencia a fallar aumente,

Watts, Duncan J. 2006. Seis grados de separación. La ciencia de las redes en la era del acceso. Barcelona; Paidós, 2006.

Page 35: Duncan Watts Cap 5 y 6

35

un fenómeno que quienes viajan en avión desde Nueva York tienen la pena de conocer. En el aeropuerto de La Guardia, en Queens, los vuelos que llegan y los que salen se aglomeran tanto unos con otros que aun una serie de retrasos triviales, que en un aeropuerto pequeño sería absorbida por el intervalo normal existente entre los distintos vuelos, llega a acumularse y los aviones acaban permaneciendo en tierra durante horas, incluso en un día con una meteorología ideal. De hecho, LaGuardia contabilizó, en 2000, 127 de los 129 vuelos que mayor retraso habían acumulado en Estados Unidos durante aquel año. Y los retrasos en nodos de interconexión como La Guardia no sólo causan problemas a los viajeros locales, sino que cada vuelo con retraso en un nodo de interconexión principal tiende a generar repercusiones y causa retrasos también en los aeropuertos de destino. Así, cuanto mayor es el número de vuelos que gestiona un nodo de interconexión, mayores son las probabilidades de experimentar retrasos, y mayor la posibilidad de que esos retrasos repercutan en todo el sistema.

La fuerte dependencia que las redes de aerolíneas modernas tienen de una subred de nodos conectores, por tanto, hace que sean particularmente susceptibles a que los retrasos se generalicen. Pero también sugiere una solución. En lugar de persistir en un sistema en el cual los nodos conectores llevan toda la carga que comporta hacer que los viajeros vayan del punto A al punto B, las aerolíneas podrían cambiar algunos de los enlaces de los nodos conectores más grandes y también más propensos a tener fallos, por otros aeropuertos regionales más pequeños cuyos retrasos derivan sobre todo de los problemas que se originan en los nodos conectores. En una solución de este tipo, los aeropuertos de Albuquerque y Syracuse, por ejemplo, estarían enlazados directamente, en lugar de que los vuelos se desvíen a través de Chicago o Saint Louis. Aeropuertos muy pequeños, como los de Ithaca y Santa Fe, continuarían cumpliendo su función de apoyo y refuerzo de nodos conectores principales. Al reducir el rango efectivo de conexiones que gestionan los nodos principales, la red en su conjunto conservaría buena parte de la eficiencia derivada de su gran escala, pero, en cambio, reduciría la probabilidad de fallos individuales. Y aun en el caso de que fallara un nodo principal, pocos vuelos se verían afectados, y, por tanto, se conseguiría que el sistema en su conjunto sufriera menos.

Aunque visto retrospectivamente parece de lo más sencillo, el resultado alcanzado por Albert y Barabási era bastante ingenioso, y la publicación de su artículo sobre «Network attack and failure» adornando la portada de la revista Nature causó cierto revuelo y captó la atención de los medios de comunicación. Por nuestra parte, nos dimos contra las paredes al habérsenos pasado por alto un problema evidente y, luego, con la ayuda de otro de los estudiantes de Steve, Duncan Callaway, nos volvimos a levantar para ponernos a la altura. Duncan, de hecho, consiguió solucionar un problema mucho más difícil que el tratado por el grupo de Barabási. Aplicando las técnicas que Mark, Steve y yo habíamos desarrollado para estudiar la conectividad de las redes aleatorias, Duncan consiguió calcular de forma exacta las diferentes transiciones de percolación, en lugar de limitarse a utilizar sólo simulaciones por ordenador. Asimismo consiguió resolver el problema tanto de los fallos de enlace como de los fallos nodales, y mostró cómo aplicar el modelo con un grado cualquiera de distribución no sólo a las redes de escala libre, sino también a las redes aleatorias. En general, aquél fue un esfuerzo impresionante y los cuatro conseguimos escribir un artículo que nos quedó muy bien. Pero en última instancia, no habíamos llegado a algo muy distinto, ya grosso modo, nuestros hallazgos eran en buena medida los mismos que los de Albert y Barabási, y tuvimos que reconocer que ellos lo habían pensado primero.

Afortunadamente para nosotros, la aplicación de técnicas de percolación a los problemas del mundo real es en cierto modo un asunto de sutileza, de modo que había muchos problemas interesantes aún por abordar.

Las redes del mundo real son más complejas que cualquier modelo aleatorio -ya sea sin escala o de otra índole- y los supuestos estándares de la teoría de la percolación a menudo representan mal la naturaleza del proceso mismo. Los modelos percolativos, por ejemplo, suponen en la mayoría de los casos que todos los nodos tienen la misma probabilidad de ser susceptibles, cuando, en realidad, la heterogeneidad es un rasgo relevante en las poblaciones humanas y no humanas. Aun en temas como la propagación de enfermedades, existe una amplia variedad en los individuos en cuanto a su susceptibilidad inherente, su capacidad para contagiar e infectar a otros. Y cuando se toman en consideración los factores de comportamiento y medioambientales, las diferencias en el interior de una población se pueden ver complicadas por la presencia de fuertes correlaciones.

A menudo se da el caso, por ejemplo en las enfermedades de transmisión sexual, de que los individuos de alto riesgo tienen significativamente más posibilidades de interactuar con otros individuos de

Watts, Duncan J. 2006. Seis grados de separación. La ciencia de las redes en la era del acceso. Barcelona; Paidós, 2006.

Page 36: Duncan Watts Cap 5 y 6

36

alto riesgo, una característica de comportamiento que puede tener orígenes sociales, pero que a todas luces tiene consecuencias epidemiológicas.

Además, los estados de los individuos se pueden correlacionar no sólo en función de sus características intrínsecas sino también desde un punto de vista dinámico. Una buena analogía es el fallo en serie en la red de transmisión de energía eléctrica que ya vimos en el capítulo 1. Si tuviéramos que asignar aleatoriamente probabilidades de fallo a los nodos, aún teniendo en consideración sus diferencias individuales, se nos pasaría todavía por alto una parte esencial del problema: el papel de la contingencia. La caída masiva de la red que se produjo el 10 de agosto de 1996, conviene recordarlo, no fue el resultado de múltiples fallos y averías independientes, sino más bien de una cascada de fallos y averías, cada uno de los cuales aumentó la probabilidad de que a continuación se produjeran nuevos fallos y averías. Crear modelos para cascadas de fallos y averías contingentes e interdependientes es más complejo que hacerlo para los problemas de percolación con los que hasta entonces habíamos lidiado, pero lo cierto es que se producen de forma constante y no sólo en sistemas de ingeniería como la red eléctrica. De hecho, el grupo de problemas en cascada más interesante y generalizado se halla en el ámbito de la toma de decisiones de carácter social y económico. Y es precisamente en estos problemas, importantes y fascinantes, sin duda, pero también profundamente enigmáticos, en los que ahora vamos a centrar nuestra atención.

Watts, Duncan J. 2006. Seis grados de separación. La ciencia de las redes en la era del acceso. Barcelona; Paidós, 2006.