Usuario:
Clave:
  [Recordar datos]
Próxima fecha clave
16.11.2004: Sesión de clausura presencial del Congreso ONLINE. 19'30h en el Ayuntamiento de Barcelona (+ info)

Comunicaciones
La organización del congreso garantiza la traducción automática de todas las comunicaciones y los foros entre el catalán, castellano e inglés en todas las direcciones, gracias a Comprendium. Por este motivo animamos a usar la lengua catalana a quien la tenga como propia

Licencias Creative Commons
Los materiales, obras y contenidos de presentación, difusión, invitación y explicación de los diferentes Grupos de Trabajo que componen este 'II Congreso Online 2004' están gobernadas por la siguiente Licencia de Creative Commons:


Licencia de Reconocimiento-NoComercial

Más información sobre la aplicación de la licencia al Congreso

Inscripción Cerrada
Cerrada la fase de inscripción, finalmente somos 4183 congresistas. Si quieres obtener las Actas electrónicas del Congreso y el/los certificado(s) de participación en el mismo, PINCHA AQUÍ

Usuarios simultáneos
Identificados:
Sin identificar:

Socios organizadores

Generalitat de Catalunya

Diputació de Barcelona

Cornellà



La web como ecosistema virtuoso/vicioso
Autor/-a/-s/-as:
  · Alejandro Piscitelli

Idioma original:
  · castellano
Palabras clave:


Artículo mostrado 38852 veces Texto más pequeño
Artículo recomendado 15 veces Texto más grande

ABSTRACT
A pesar de su crecimiento azaroso la web posee regularidades subyacentes sorprendentes. Ya se trate de la organización de los links o de los patrones de comportamiento de sus casi mil millones de usuarios. Muchas de estas regularidades han sido anticipadas por la mecánica estadística, una de las ramas de la física. Si estas metáforas son válidas será posible diseñar en forma más eficiente el uso de la red. Pero también se comprobará que hay leyes de la forma o de la organización que se aplican a las estructuras mas variadas (trátese de átomos o de infoagentes). Vista de este modo la web es un ecosistema informacional gigantesco que puede ser utilizado como laboratorio físico (y metafísico) para testear el comportamiento humano y la interacción social. Porque contrariamente a nuestras expectativas -y a pesar de su enorme tamaño- la red exhibe regularidades y patrones, y si bien los buscadores son ciegos a una parte significativa de la misma, ello no impide imaginar usos mas inteligentes de recuperación de los datos asi como la creación de nuevos formatos y narrativas que la utilicen y la reinventen de una forma mucho mas inteligente y apropiada que lo que hemos podido/sabido hacer hasta ahora.

A pesar de su crecimiento azaroso la web posee regularidades subyacentes sorprendentes. Ya se trate de la organización de los links o de los patrones de comportamiento de sus casi mil millones de usuarios. Muchas de estas regularidades han sido anticipadas por la mecánica estadística, una de las ramas de la física. Si estas metáforas son válidas será posible diseñar en forma más eficiente el uso de la red. Pero también se comprobará que hay leyes de la forma o de la organización que se aplican a las estructuras mas variadas (trátese de átomos o de infoagentes). Vista de este modo la web es un ecosistema informacional gigantesco que puede ser utilizado como laboratorio físico (y metafísico) para testear el comportamiento humano y la interacción social. Porque contrariamente a nuestras expectativas -y a pesar de su enorme tamaño- la red exhibe regularidades y patrones, y si bien los buscadores son ciegos a una parte significativa de la misma, ello no impide imaginar usos mas inteligentes de recuperación de los datos asi como la creación de nuevos formatos y narrativas que la utilicen y la reinventen de una forma mucho mas inteligente y apropiada que lo que hemos podido/sabido hacer hasta ahora.


¿Como empezó todo?

Los diez años de WEB que hemos sabido diseñar, revelan una pantalla convertida en un nuevo soporte intelectual. Como lo fueron en un momento los ejercicios del arte de la memoria de los griegos y romanos, la inscripción en piedra o en cera; el papiro y el papel y mas recientemente los soportes electromagnéticos. Lo que sucedió con/en Internet, refugio del texto y del blanco y negro, que terminó explotando en una paleta de nuevas formas expresivas, de textos unidos a la distancia, de nuevas y divertidas formas de enseñar, aprender, ver, oír, negociar, vender, abusar, entretener y aburrir es lo mismo que pasó con el resto de las tecnologías.

Están operando aquí dos principios evolutivos de los medios de comunicación que estamos desanudando permanentemente. El primero es que con cada nuevo avance tecnológico se gana mucho y se pierde también bastante. El segundo es que los nuevos medios generalmente recuperan elementos de la comunicación natural (biológica) eclipsados por los medios primitivos anteriores (que extendieron la comunicación sacrificando algunos de sus beneficios naturales, Grusin, & Bolter (2000)).

Pero es imposible entender estos resultados si antes no se entiende qué y cómo se producen. Para ello hay que investigar la infraestructura que hace posible el nuevo medio, y sobretodo las reglas que regulan su emergencia, crecimiento y expansión/declinación (1).

Sólo que Internet con su poder e idiosincrasia no es una excepción sino la regla. Se trata de una red libre de escala (Barabasi, 2001), donde la interacción de elementos simples desprovistos de toda inteligencia terminan generando un cerebro y una piel globales inesperada y superpoderosa. Por ello antes de adentrarnos en la red propiamente dicha habrá que examinar una familia de palabras entre las que se incluyen: mundos pequeños, redología, redes libres de escala, regla del 80/20...... que forman su contexto y hacen posible su comprensión

En el caso específico de Internet sus aspectos lingüísticos o mediáticos han estado sistemáticamente oscurecidos por las narrativas que han dominado su intelección, que han oscilado entre el tecnicismo, el discurso ingenieril y mas recientemente -en la ultima década- los mitos filo-económicos que la habían transformado en Rey Midas.

Con la mínima distancia que nos permite haberla recorrido en múltiples direcciones (Piscitelli, 2001; 2002) y con un escepticismo creciente acerca de su capacidad de totalizacion o de anulación de lecturas alternativas, un nuevo recorrido por sus comienzos socio-técnicos (que falta nos hace un Latour de la red (2)) ayuda a poner las cosas en una perspectiva mas moderada y útil.


Los desconocidos de siempre

Cada vez que se habla de los orígenes de Internet un personaje mítico reaparece en el relato. Se trata nada mas y nada menos que de Paul Baran (Abbate, 1999), quien con sus recién cumplidos 30 años aceptó un flamante trabajo en la Rand Corporation, un think tank creado por el gobierno de USA en 1946.

Corría el lejanísimo 1959 y a Baran le ofrecieron un conchabo por demás ambicioso. Diseñar un sistema de comunicaciones que fuera capaz de detener un presunto ataque nuclear soviético. Por esa época la Rand estaba demasiado asociada a las elucubraciones de personajes como Herman Kahn una de cuyas debilidades fue dedicarse a los juegos de guerra -al mejor estilo del Dr Insólito de Stanley Kubrick- calculando la muerte eventual de millones de personas como resultado de un ataque nuclear.

A Baran tales elucubraciones no le preocupaban demasiado, y con mucho entusiasmo miró hacia otro lado y se puso a inventar un sistema de comunicaciones totalmente distinto al existente, algo que plasmó publicando una serie de 12 volúmenes que harían historia, aunque con unos cuantos zig zags en el medio.

Para Baran la vulnerabilidad de la red de comunicaciones existente derivaba obviamente del sistema de control y comando sobre la que se basaba en los años 50. Dado que una detonación nuclear destruye todo lo que está alrededor de la zona de impacto Baran imaginó como preservar a otros nodos no colindantes de los efectos del ataque.

Analizando los sistemas dominantes en la época encontró tres tipos de organizaciones de redes a los que denominó centralizado, descentralizado y distribuido. Obviamente descartó de un plumazo como objeto de elección a las dos primeras configuraciones dado el altísimo grado de vulnerabilidad que las mismas exhibirían ante un ataque nuclear.

Para Baran la estructura ideal para esos fines habría de ser una red distribuida en forma de retícula, muy parecida a un sistema de autopistas, con tan alto grado de redundancia, que aun cuando muchos de los nodos fueran borrados del mapa por un ataque, caminos alternativos mantendrían la conexión entre el resto de los nodos sobrevivientes.

Primer punto interesante: los militares le pidieron a Baran que diseñara la red alternativa, por lo cual la fantasía o mito acerca de un origen militar de la red tiene un punto a su favor. Pero lo que esta narrativa olvida/oculta es que finalmente los militares no le hicieron un ápice de caso a Baran. Es por ello que la estructura real de la red tal como la conocemos hoy tiene poco y nada que ver con las propuestas concretas de Baran -aunque quienes finalmente la diseñaron por ese remanido mecanismo de equifinalidad- llegaron a un idéntico fin a través de numerosos caminos alternativos.


Cuando ser digital fue una mala palabra

Ademas la oposición de los militares (pero también de la industria) a las ideas de Baran no se reflejó tan solo en filosofías o ideologías incompatibles, sino en un hecho mucho mas insoportable a la mentalidad de la época -lo que muestra cuanto mas fuerte es la resistencia económica y/o cultural que la incultura técnica.

A saber que la propuesta de Baran incluía descomponer los mensajes en pequeños paquetes de información capaces de viajar independientemente uno de los otros en la red. Para lograr este (entonces) delirio hacía falta un sistema de comunicación inexistente en ese momento, es por ello que Baran abogó por la creación de un sistema de comunicación digital.

Esta demanda difícilmente podía ser sostenida o cumplida por el monopolio telefónico de AT&T que desde la década de 1910 reinó omnímodo en USA, hasta su desmembramiento en 1982.

Por eso el entonces presidente de AT&T, Jack Ostermani rechazó de un plumazo la propuesta de Baran, sosteniendo que era imposible de lograr, y de que en el caso de que llevara a algo, eso implicaría crearle una competencia interna a AT&T.

Las ideas de Baran naufragaron pues ante la oposición combinada del pensamiento centralizado de los militares y de las prácticas monopólicas -no menos centralizadas (3) - de la industria, y sólo serían valoradas casi una década mas tarde cuando ARPA (Advanced Research Project Agency) las desarrollara por su propia cuenta para (re)-descubrir imprevistamente, que solo habían llegado 10 años mas tarde al mismo lugar. Pero entonces todo sería diferente en el escenario internacional y local y lo otrora inviable se demostraría ineluctablemente necesario.


Modelos alternativos de topología y diseño

Necesitamos entender la topología (la arquitectura espacial) de la red si queremos diseñar herramientas, y queremos ofrecer servicios que corran eficazmente sobre ella. Curiosamente, aunque es un producto 100% humano, la red no ha sido diseñada en forma centralizada. Desde el punto de vista estructural la red se parece mucho más a un ecosistema que a un reloj suizo o a cualquier otro aparato que haya brotado a partir de un plano y que se haya concretado en el espacio físico.

Es por ello que entender a Internet supone no solo competencias ingenieriles o matemáticas -indispensables por otra parte- sino sobretodo una comprensión detallada del intrincado juego de fuerzas políticas, económicas sociales y culturales que subyacen en su genealogía y devenir.

Por eso conviene volver al corazón de la guerra fría. Al durísimo golpe narcisista que supuso para los norteamericanos el lanzamiento de la perra Laica (ya sea que ésta fuera única o varias como en las mejores películas-perros de Hollywod) al espacio.

Como respuesta a esa obscenidad el presidente y general Dwight Einsehower (ese del botón I like Ike) creó ARPA. A los pocos años -y sobretodo como respuesta a la visión del presidente John Fitzgerald Kennedy que a su vez creó a la NASA (National Astronautical Space Agency)- DARPA se quedó sin credenciales ni objetivos -mostrando como la competencia inter-burocrática también tiene su dinámica interna y juega un rol estratégico en la dinámica de las innovaciones.

Por ello DARPA se convirtió en una usina estratégica de proyectos para los militares. Y así Internet entró en el radar de sus preocupaciones en 1965/1966 cuando Bob Taylor el director de los programas de computación de ARPA se encontró con un agujero negro que consumía millones de dólares del presupuesto federal.

En esa época las computadoras costaban millones de dólares y Taylor en un día de epifanía y revelación se dio cuenta de algo al mismo tiempo trivial y catastrófico. Las distintas redes de computadoras entonces existentes eran incapaces de comunicarse entre si. Es mas, dos máquinas pertenecientes a distintas redes, cohabitantes en la misma sala no eran capaces de hablar entre ellas.

Divisado el problema se trataba entonces de crearle la solución y esta consistiría debidamente en algún protocolo capaz de interconectar máquinas hasta ese momento mudas o competentes exclusivamente en dialectos que nadie era capaz de traducir entre si. Con un millón de poderosos y sustanciales dólares de la época -al mismo tiempo que un grupo de investigadores ingleses comandados por Donald Davis del laboratorio nacional Ingles de Física redescubría las principales ideas y enseñanzas de Baran por su cuenta testimoniando el peso de los descubrimientos múltiples uy simultáneos - ARPA se puso a trabajar en serio.

En un simposio que tuvo lugar en Texas en 1967 estas ideas empezaron a circular ampliamente y lo que había sido anatema una década atrás se convertiría en la ciencia normal de la época. El packet-switching devendría el abc de la red y aunque los militares intervendrian poco y nada en su desarrollo, Internet estaba lista para dar sus primeros pasos.

Pero no nos perdamos en la historia sino que concentrémenos básicamente en la topología... actual de la red, así como en tratar de desentrañar los principios de crecimiento y de construcción -si es que son detectables- que dan cuenta de porque Internet tiene la forma actual, en qué se parece ésta a otras redes, y qué podemos deducir a partir del conocimiento de la topología de la red conducente a una anticipación de sus posibles futuros.

Aunque de Internet hay miles de mapas no existe EL MAPA de la red. Lo que si existen son innumerables mapas que buscan delinearla o recorrer sus principales configuraciones (Dodge, Martin & Kitchin, 2000; 2001).

Por eso si nos apersonamos en peacockmaps.com encontraremos unos impresionantes mapas realizados por Bill Cheswick y Hal Burch. Se trata de unos llamativos entramados densos en nodos y enlaces que solo tienen como homólogos las tomografías computadas o las resonancias nucleares magnéticas del cerebro. Con una importante distinción, mientras que el cerebro hace milenios que se ha estabilizado anatómicamente, la red crece sin parar y multiplica diariamente su hiperconectividad y su densidad.

¿Porqué es tan importante esta cuestión de los mapas? En todo caso resulta sumamente sugestivo que siendo el camino que va de la idea al objeto o producto invariablemente un proceso que comienza con detallados inventarios y topografías, partiendo de meticulosos diagramas y visualizaciones, Internet esté recorriendo el camino inverso.

Nadie sabe exactamente qué forma tiene la red, y por mas que permanentemente se la patrulla y se la fotografía, se la ausculta y se la mide, sus contornos son borrosos y sus centros son difícilmente localizables y discernibles.

Esta inmarcesibilidad está profundamente ligada al carácter anárquico, auto-organizado y fundamentalmente local y distribuido que subyace a la evolución de la red.

Cualquiera -cumpliendo un mínimo de requisitos- se "enchufa" a la red. Y si hubiera alguien que decidiera cerrar la red (a excepción tal vez de un locura insana del gobierno de USA que algún día decidiera darse de baja en la red- como lo hizo hace un tiempo atrás saliéndose de la UNESCO), lo único que lograría es aislar una porción minúscula de la misma, pero inmediatamente la información se auto-rerutearía y a los efectos prácticos tal caída seria invisible o en todo caso insignificante.

Es precisamente la naturaleza distribuida, descentralizada y localmente aislada de la red la que la vuelve por un lado prácticamente inmune a cualquier ataque, pero al mismo tiempo lo que hace tan difícil retratarla y aislarla.


Navegando en el mar de los sargazos

Insistimos. Si estamos obsesionados por establecer uno (o varios) mapa de la red ello obedece a que el diseño de servicios nuevos y mas eficientes requiere obligadamente que tengamos un mucho mejor conocimiento de su topología.

Por otra parte cuando Internet se inventó nadie imaginó que podría llegar a tener mas de 1 millón de usuarios, o que sus usos trascenderían primero a los militares y luego a los relacionados con la investigación. Ni en 1970 ni en 1980 pero tampoco en el mucho mas cercano 1990 a nadie se le ocurrió jamás que existiría una Internet comercial y mucho menos una red de comunicación universal -que inclusive llegaría a Marte y que a junio del 2004 tiene mas de 800 millones de usuarios.

Incluso el e-mail -best seller de todas las aplicaciones en la red de todos los tiempos- emergió en forma inopinada de un travestismo en el uso de la transferencia de archivos a manos de Rega Tomlinson un empleado de BBN y uno de los inventores de la propia red (4).

Lo mismo está pasando con la web que es uno de los mejores ejemplos que podemos mostrar hoy de desastre exitoso. Es decir de un sistema que escapado de la mesa del dibujante, es abrazado entusiastamente por una cantidad impresionante de usuarios, antes de que su diseño o funcionalidad esté estabilizada, y que de pronto toma al mundo por sorpresa y se autoconfigura de un modo al mismo tiempo creativo y sumamente ineficiente.

Porque si Tim Berners-Lee o Robert Caillou pudieron haberse imaginado algunas de las consecuencias de lo que estaban pergeñando en el CERN al dibujar los primeros esbozos de la WWW a fines de la década de 1980, seguramente la experiencia de los usuarios hubiese sido totalmente distinta y la forma en que hoy usamos la web se hubiese modificado acorde.

Lamentablemente la red tal como existe hoy difícilmente se adapte a nuestras necesidades y no es casual que la revolución de los weblogs haya implicado un cambio brutal en su uso y su reapropiación por parte de los usuarios comunes y silvestres. Si los weblogs son tan exitosos ello se debe justamente a las fallas estructurales en la concepción y el diseño de la red.

Nada sorprendentemente mientras que muchos investigadores y programadores insisten en crear nuevas aplicaciones y servicios, un grupo de memetistas (entre los cuales afortunada y orgullosamente nos encontramos) hemos empezado a hacernos una pregunta clave: ¿Qué es exactamente lo que hemos inventado? ¿Qué tipo de criatura hemos liberado en el ciberespacio? y ¿En qué puede o nos podemos convertir nosotros a partir de su mediamorfosis y evolución? ¿Hasta qué punto los hábitos de lectura y escritura, que sabemos son constitutivos de nuestra identidad y subjetividad se verán transformados y modificados por su emergencia?

Porque aunque es un producto 100% humano, Internet tiene una vida propia. A poco que la usamos y analizamos exhibe todas las propiedades que son específicas de un sistema complejo evolutivo, lo que la vuelve mucho más parecida a una célula que a un chip.

Es por ello que quienes usamos e investigamos la red hemos devenido en tiempo récord de exploradores en diseñadores. Todos los internetólogos nos asemejamos cada día mas a los biólogos y los a ecólogos (de la información) -mas que a los físicos y a los matemáticos- que deben lidiar con un sistema increíblemente complejo que a todos los efectos prácticos nos preexiste y es independiente de nosotros.

Pero si por un lado estamos en muchas mejores condiciones que los biólogos para entender a la red, porque después de todo nosotros la hemos diseñado, y conocemos cada uno y todos los componentes que la conforman, por el otro concordamos con los bioanalistas, en que no tenemos la mas remota idea de qué pasa (qué tipo de estructura es la que emerge) cuando el sistema se pone en movimiento y se auto-organiza como mejor le place.

Pero hoy estamos en el 2004 y no en 1997 o en el 2000. Porque si antes del 2000 se sabia poco y nada de la topología de Internet, a partir del trabajo seminal de los hermanos Michalis, Petros y Christos Faloutsos "On Power-Law Relationship of the Internet Topology" lo que sabemos ahora es que la red de routers que corona Internet es una red scale-free (5). Dicho en romance todos los modelos de la red que imaginaban hasta bien entrado 1999 que ésta crecía en forma aleatoria estaban profunda y definitivamente equivocados.

Lo que los hermanos Faloutsos no sabían, empero, es que sus investigaciones se aplicaban pari passu a la WWW. O lo que es lo mismo, dicho nuevamente en romance, que Internet no pertenece a la categoría de las redes aleatorias, sino que merece un lugar destacado en el zoológico de las topologías scale-free.

Este descubrimiento no es nada menor o secundario e implicó un claro cuestionamiento a la concepción tradicional de que las redes físicas y los routers no tenían ninguna motivación ni inteligencia para desarrollarse según preceptos y reglas que valen mucho mas para el caso de las relaciones sociales o de la libre elección de jerarquías en la páginas que navegamos que para la casualidad y el azar propios de sistemas inertes.

Cualquier inventario o análisis de la evolución de la red muestra su carácter exponencial como lo podemos testimoniar en numerosos gráficos y cuadros (6). Esta expansión está literalmente conectada a la naturaleza scale-free de la red. Pero esto no alcanza. Para entender Internet necesitamos tres principios adicionales.


Principios para entender a la Red

Debemos considerar entonces también la conexión preferencial (preferential attachment). La lógica indica que todos deberíamos conectar nuestra computadora al router mas cercano, después de todo cuanto mas largo sea el cable mas nos costará estar conectado.

Sin embargo tal apreciación intuitiva es profundamente errónea. El largo del cable es irrelevante cuando del costo de las comunicaciones se trata. Porque lo que realmente nos interesa cuando nos interesa abaratar la conexión, no es la distancia al nodo sino su ancho de banda. Y no siempre es mucho mas económico conectarnos con un router cercano pero pobre en bits que con uno lejano pero mucho mas rico en ellos.

Esto se traduce en algo evidente, los nodos mas ricos (porque proveen mas ancho de banda) son ipso facto los que mas conexiones atraen -confirmando un efecto bola de nieve o una estructura "el ganador se queda con todo" (the-winner-takes-all).

Pero no alcanza aun con estos dos criterios para entender como funciona la red. Porque aunque no sea el criterio definitivo, la distancia también importa. 2 km de fibra óptica son mas caros que 0.5 km....... Por otra parte los nodos no aparecen al azar en los mapas. Hay mas routers donde hay mas demanda de ellos, y la demanda es a su vez una propiedad de quienes quieren usarlos.

Además la correlación pertinente es aquella que pone en correspondencia la densidad de la población y la densidad de los nodos de Internet. Para nuestra infinita sorpresa la distribución de los routers sobre el territorio de USA conforma un conjunto fractal (7), esos objetos autosimilares descubiertos por Benoit Mandelbrot en los años 70.

Por lo tanto para entender la dinámica de la red debemos tener en cuanta estas cuatro dimensiones o variables: reconocimiento, conexión preferencial, dependencia de la distancia y estructura fractal subyacente.

Cada una de estas dimensiones si se desbandaran por la suya podrían destruir la red. Así si la longitud del cable fuera la única consideración a tener en cuenta la red podría fácilmente recaer en una estructura semejante a la de las autopistas, pero increíblemente (¿mágicamente?) las cuatro dimensiones interactuan entre si eliminando cualquier posible inestabilidad y haciendo posible una Red scale-free.


Computación parásita y los usos debidos e indebidos de la red

Sin embargo esto no debe hacernos olvidar que tremenda labilidad es al mismo tiempo motivo de sorpresa y alegría pero simultáneamente una posible condición para el eventual colapso de la red.

Tuvimos un atisbo de caos en el episodio que ocurrió el 25 de abril de 1997, a saber la catástrofe de MAI Network Services que por error convirtió a una configuracion defectuosa de routers en un agujero negro por el cual se perdió todo el tráfico de la red en pocas horas (8).

Pero ese ejemplo -y hay muchos mas ligados a la proliferación de viruses y otras intoxicaciones en la red- mostró la vulnerabilidad de la red a la propagación de errores u horrores.

Paul Baran jamás se imaginó que los enemigos de la red podrían estar durmiendo en su seno y que serían no los rusos sino los hackers o mas bien los crackers quienes con una facilidad sorprendente podrían liquidar a la red en tiempo récord -algo que puede hacerse apropiándose de los routers clave en los servidores de nombres de raíz (hay 13 en toda la red) (9) que orientan todo el tráfico, ya sea lanzando marejadas de ataques de denegacion de servicio contra los nodos mas activos -tal como acontenció en Febrero del 2000 contra Yahoo, Amazon, CNN y eBay. Y lo mismo sucedió con el gusano Código Rojo.

Pero ¿qué es efectivamente Internet? ¿Podría como se le ocurrió a alguien ser una computadora -aunque mas no fuera en clave metafórica? Es obvio que la red está compuesta por computadoras que intercambian páginas y e-mails, pero esto por si mismo de ningún modo convierte a la red en una super-computadora. A menos que... a menos que se pudieran inventar programas, gusanos, troyanos o algún tipo de dispositivos de software que tomaran por ataque a todas las computadoras del mundo y las hicieran trabajar para alguien -ya fuese el profesor Neurus o el doctor Zeus?

Que esta idea no era descabellada pudo comprobarse cuando en Agosto del 2001 una nota aparecida en Nature publicada por Albert-Lazlo Barabasi y otros autores acerca de la computación parásita, fue respondida por decenas de miles de mails enviados desde todos los rincones del mundo, amenazando a los intrépidos que habían osado invadir las máquinas sagradas de la red con represalias sin fin.

Lo que hizo el equipo comandado por Albert Lazlo-Barabasi, fue disfrazar simples pedidos de armado de páginas, con verdaderas proezas computacionales que le eran exigidas a las computadoras host. Cuando una computadora recibía un paquete hacia un chequeo rutinario para comprobar que el mensaje no se había corrompido en su viaje sideral, pero sin saberlo al mismo tiempo estaba resolviendo un problema que les interesaba a los investigadores usando recursos computacionales ajenos -sin que encima los dueños de los equipos se dieran cuenta.

Lo que los investigadores descubrieron era la posibilidad de esclavizar máquinas remotas abriendo así el abanico a una parafernalia de preguntas y problemas computacionales, éticos y legales que ni siquiera hoy están bien planteados y mucho menos resueltos.

¿Que pasaría si alguien (al estilo de la pelicula El hombre en el jardín 1 de Brett Leonard) perfeccionara la técnica y pudiera generar un sistema de concentración de recursos ajenos a gran escala? ¿De quienes son los recursos disponibles en la red que de pronto son esclavizados o apropiados por terceros? ¿Seria esto el inicio de Internet como supercomputadora? ¿Podría emerger un ser consciente e inteligente (al estilo de Skynet en Terminator 1 y 2) como resultado de estos devaneos?

De lo que no hay duda es de que en un futuro sumamente cercano las computadoras empezarán a intercambiar servicios y esfuerzos sobre la base de una demanda ad hoc. Si hoy los chips funcionan mucho mas rápido que las redes, en el futuro ambas velocidades se equipararán y problemas inverosímilmente complejos se resolverán a manos de una computadora única o de un grupo de investigadores aislado.

Ya tenemos ejemplos de este tipo discutidos en esa excelente obra sobre el par a par compilada por Andy Oram Peer-to-peer. Harnessing the power of disruptive technologies. De hecho experiencias como SETI acudieron a este esquema aunque claro en una escala infinitamente menor, pero sobretodo pidiendo permiso, algo que Barabasi y sus colegas evitaron graciosamente hacer.

Pero si el procesamiento distribuido fuera una norma una infinidad de recursos actualmente disponibles (las horas sino semanas o meses que nuestras maquina permanecen conectada al ADSL indolentemente por ejemplo) podrían servir para tamaños y maravillosos fines, sin que nosotros debiéramos enterarnos necesariamente.

Nuevamente las tecnologías van mucho mas rápido que nuestra capacidad de investigarlas, analizarlas y sobretodo normativizarlas. En el próximo capítulo avanzaremos en la aplicabilidad de estas nociones al caso de la WWW y sobretodo a la posibilidad -sobre la base del descubrimiento de leyes de información en sistemas gigantescos- de la posibilidad de rediseñarlos y de imaginar su domesticación y/o posibilidad de pliegue a nuestras necesidades, aunque éste en realidad pase mucho mas por un auto-control que por cualquier hetero-regulación.


Bibliografía

  • Abbate, Janet Inventing the Internet (Inside Technology), Cambridge, The MIT Press, 1999.
  • Barabasi, Albert Lazlo Linked The new science of networks. How Everything Is Connected to Everything Else and What It Means. Cambridge. Perseus Publishing, 2002
  • Barabasi, Albert Lazlo , Brockman Jay & Vincent Freeh Parasitic Computing. http://www.nd.edu/~parasite/
  • Bateson, Gregory. Espiritu y naturaleza. Buenos Aires,Amorrortu, 1993
  • Buchanan, Mark Nexus. Small worlds and the grounbreaking theory of networks. New York, Norton, 2003.
  • Cassidy, John Dot.con : How America Lost Its Mind and Money in the Internet. Perennial Currents, 2003.
  • Cohen, Adam The Perfect Store Inside Ebay. Back Bay Books, 2003.
  • Debray, Regis Cours de mediologie generale. Paris, Gallimard, 1993.
  • Dery, Mark Escape Velocity: Cyberculture at the End of the Century. New York, Grove Press, 1997.
  • Dodge, Martin & Kitchin Rob Mapping Cyberspace London Routledge & Kegan Paul, 2000.
  • Dodge, Martin & Kitchin Rob Atlas of Cyberspace. Addison-Wesley, 2002.
  • Faloutsos, Michalis, Petros y Christos "On Power-Law Relationship of the Internet Topology". http://www.cs.ucr.edu/~michalis/CAMERA.ps
  • Fiedler, Roger Mediamorfosis. Comprender los nuevos medios. Buenos Aires, Granica, 1998.
  • Fischer, Herve El choque digital. Buenos Aires, Universidad de Tres de Febrero, 2003.
  • Grusin, Richard & Bolter Jay David Remediation Understanding New Media, Cambridge, The MIT Press, 2000.
  • Huberman, Bernardo The Laws of the Web: Patterns in the Ecology of Information. The MIT Press, 2001.
    Johnson, Steven Emergence: The Connected Lives of Ants, Brains, Cities, and Software . Nueva York, Scribner, 2001.
  • Levy, Pierre Cibercultura. Santiago, Dolmen, 2001.
  • McLuhan, Marshall & McLuhan, Eric. Las leyes de los medios. México, Grijalbo, 1988.
  • Oram, Andy Peer-to-peer. Harnessing the power of disruptive technologies. Sebastopol, O'Reilly, 2001.
  • Piscitelli, Alejandro La Generación Nasdaq. Apogeo ¿y derrumbe? de la economía digital. Buenos Aires, Granica, 2001
  • Piscitelli, Alejandro Ciberculturas 2.0. En la era de las máquinas inteligentes. Buenos Aires, Paidos, 2002.
  • Spector, Robert. Amazon.com. Get big fast. Inside the revolutionary business model that changed the world, New York, Harperbusiness, 2000.
  • Watts, Duncan J. Six degrees. The science of a connected age. New York, Norton, 2003.
  • Weinberger, David Small pieces loosely joined. A unified theory of the web. Cambridge. Perseus Publishing, 2002
  • Wolff, Michael Burn Rate: How I Survived the Gold Rush Years on the Internet. New York, Simon & Schuster, 2001.
  • Zingrone, Frank The Media Simplex. At the edge of meaning in the age of chaos. Toronto, Stoddart, 2001.


    Webografía

  • Paper original de Paul Baran de 1959
    http://www.ibiblio.org/pioneers/baran.html
  • Visual companion de Linked. The new science of networks
    http://www.nd.edu/~networks/linked/down.html
  • Web Characterization
    http://www.dlib.org/dlib/april03/lavoie/04lavoie.html
  • Self-organized networks
    http://www.nd.edu/~networks/
  • Small World Project
    http://smallworld.columbia.edu/project.html
  • Networt dynamics
    http://www.santafe.edu/sfi/research/focus/networkDynamics/index.html
  • How big is the web?
    http://www.neci.nj.nec.com/homepages/lawrence/websize.html.
  • Fractales en la Wikipedia
    http://es.wikipedia.org/wiki/Fractal
  • 13 Rooters Maestros (Niveles de raíz)
    http://www.root-servers.org/
  • Mapas de Internet
    http://www.peacockmaps.com
  • Atlas of cyberspace
    http://www.cybergeography.org/atlas/atlas.html


    NOTAS

  • [1] - Las últimas décadas han sido epistemológicamente fructíferas al renunciar a los tecno-determinismos y a los reduccionismos de distinta estopa. Así hemos comenzado por fin a entender con cierta elegancia, economía de conceptos y precisión en la detección de los engarces, en qué debe consistir una ecología de los medios. Y en este proceso hemos debido renunciar a cualquier intento totalizador que trate de encapsular la complejidad de la comunicación humana bajo un solo enfoque o precepto. Como modelo de lo que no necesitamos hacer está por ejemplo la desahuciada semántica general de Alfred Korzybski. Entre los varios puntos de partida que pueden llevarnos a mejorar nuestra comprensión de esta ecología están las entradas que nos abren los siguientes enfoques. La enunciación de la problemática y algunos estudios de campo de Gregory Bateson (1993). Las leyes de la forma de Marshall McLuhan (1988). La mediamorfosis de Roger Fiedler (1998). La mediología de Regis Debray (1993). La remediación de Jay Bolter y Richard Grusin (2000). La simplexología de Frank Zingrone (2003), asi como muchos otros intentos mas o menos felices de entender esta endiablada problemática.
  • [2] - Su inexistencia no quita que ya existen varios linaje de análisis complejos de la red que merecen nuestro interés y beneplácito. No nos referimos aquí ni a las monografías que han entendido los casos exitosos de exploración/explotación de la red con fines comerciales (como The Perfect Store Inside Ebay de Adam Cohen o Amazon.com: Get Big Fast de Robert Spector Amazon, ni mucho menos a las lecturas mas o menos serias acerca de la evolución de la web y de su naturaleza esquizofrénica de paraíso/infierno como Dot.con : How America Lost Its Mind and Money in the Internet Era de John Cassidy o Burn Rate: How I Survived the Gold Rush Years on the Internet de Michael Wolff) si mas bien a los enfoque mas sazonados -generalmente provenientes del campo europeo) como los de Herve Fischer El choque digital, o de Pierre Levy Ciberculturas incluyendo obviamente Escape Velocity: Cyberculture at the End of the Century de Mark Dery.
  • [3] - Un leit-motif del presente libro es ver reflejada como en un fractal las mil y una ocasiones en que las teorías y los conceptos insistieron en defender prácticas y enfoques erróneos del funcionamiento de lo complejo aferradas como estaban a los enfoques centralistas y jerárquicos. La simpática obra de Steven Johnson Emergence: The Connected Lives of Ants, Brains, Cities, and Software -extensamente utilizada en el capítulo anterior de este libro- está precisamente dedicada a revelar la futilidad, impropiedad y en definitiva reduccionismo al buscar entender fenómenos como la vida en los hormigueros, la dinámica neuronal, el va y viene de las ciudades y la emergencia de software inteligente tratando de pensarlos bajo el eje de arriba hacia abajo. Su propuesta, ampliamente transitada en estos días, consiste precisamente en reconocer en la complejidad no una esencia sino un constructo, y en la tramas mas intrincadas y en las relaciones mas abstrusas simplemente la ejecución de reglas simples y locales que generan patrones de complejidad emergente creciente.
  • [4] - En 1971, Ray Tomlinson inventó un programa de email para mandar mensajes a través de una red distribuida y envió el primer email con un mensaje que decía "Testing 1-2-3" dirigido a si mismo. El segundo mensaje de email, fue mucho más importante, se dirigió a todos los usuarios de ARPANET y consistió en las instrucciones y convenciones del recién inventado correo electrónico. En 1972, Ray Tomlinson modificó el programa de correo, eligió el signo @ para denotar "en" y su sistema resultó tan popular que solo un año mas tarde el 75% del tráfico de ARPANET era correo electrónico. No se trata de meras anécdotas. Como siempre pasa con las invenciones, Tomlinson no tenía la menor idea del poder de su engendro, y nunca pudo imaginar que con esas simples medidas cambiaría la historia del mundo.
  • [5] - Agradecemos infinitamente a Albert Barabasi haber encapsulado datos sueltos y deshilachados en las fronteras de muchas disciplinas haciéndolos converger en su obra seminal Linked How Everything Is Connected to Everything Else and What It Means abriendo así las puertas para una redologia o teoría de las redes. La misma nos ha servido de baliza clave para entender no solo la topología de la red sino también para poner en resonancia conceptos como los de complejidad-redes libres de escala-mundos pequeños-web fragmentada, etc. Existen al menos un cuarteto de libros no menos valiosos que enlazan temas semejantes con maestría sino igual al menos digna de destacar. Se trata de las obras de David Weinberger Small pieces loosely joined. A unified theory of the web; de Mark Buchanan Nexus. Small worlds and the grounbreaking theory of networks; de Duncan J. Eatts Six degrees. The science of a connected age y de Bernardo Huberman The Laws of the Web: Patterns in the Ecology of Information.
  • [6] - Para un paneo sinóptico de estas cuestiones recomendamos consultar los siguientes sitios web: Web Characterization; Self-organized networks; Small World Project; Network dynamics; How big is the web?
  • [7] - Un fractal es un objeto que tiene por lo menos una de las siguientes características: detalle en escalas arbitrariamente grandes o pequeñas, es demasiado irregular para ser descrito en términos geométricos tradicionales, tiene auto-similitud exacta o estadística, su dimensión es mayor que su dimensión topológica, o es definido recursivamente. Esta definición como muchas que hemos utilizado en este libro provienen de la Wikipedia sin lugar a dudas el mas ambicioso de todos los proyectos colaborativos, auto-organizados y voluntarios que hay en la red. Con 500.000 términos definidos primorosamente en cerca de 50 lenguas en ejemplos como estos podemos ver brillar en todo su esplendor el poder de la red.
  • [8] - Un técnico cambió dos líneas de código y casi toda la red se cayó durante tres horas. Lo que el empleado de MAI Network Services hizo fue permitir que un router indicara cual de ellos proveía el mejor camino a toda la red. Así decenas de miles routers eligieron a ese pequeño tubo como al camino privilegiado para enviar mensaje en la red. En pocos minutos centenares de miles de routers cayeron en el agujero negro. Fue lo mas parecido a la caída de la red jamás visto.
  • [9] - El nivel superior de la jerarquía de servicios de nombre de dominio (DNS), también llamado nivel de raíz, es gestionado por un conjunto de 13 servidores llamados servidores de nombre de raíz. Estos servidores son la columna vertebral del funcionamiento de la red. Son propiedad de distintas agencias independientes y los servidores se llaman austeramente A, B, C hasta llegar al M. Diez de ellos están en USA y los restantes tres en Tokio, Londres, y Estocolmo. En Octubre del 2002 un ataque masivo de denegación de servicio distribuido de origen desconocido interrumpió durante una hora el servicio web en nueve de los 13 servidores raíces que controlan la red. Aunque los usuarios finales no experimentaron las consecuencias, y aunque muchos expertos a posteriori minimizaron el episodio, otros analistas insisten en que de haberse prolongado el ataque durante varias horas más, éste hubiese supuesto el colapso de la red. Los contraterroristas insisten en que los atacantes o bien no sabían cuando tiempo hacía falta para bajar a los servidores, o a lo mejor estaban disfrazando su ataque porque su interés real era probar su red DDoS con vistas a futuros ataques mas puntuales. Aunque recibieron 40 veces el tráfico usual, para que el ataque se propagara al resto de la red se hubiese necesitado al menos 4 horas de ataque continuado. En el intento frustrado de los ciberterroristas se perdieron entre el 6% y el 10% de los sitios buscados.

    Artículo mostrado 38852 veces Texto más pequeño
    Artículo recomendado 15 veces Texto más grande