lunes, 6 de julio de 2015

Las leyes de las tecnologías digitales.

Downes y Mui relacionan este fenómeno con una serie de leyes que rigen el desarrollo tecnológico contemporáneo. Una de ellas es la conocida Ley de Moore, enunciada por Gordon Moore (cofundador de Intel, principal fabricante de microprocesadores).Esta ley especifica que el número de transistores que se pueden integrar en un circuito integrado crece exponencialmente y, en concreto, ese número se duplica cada 18 meses. Hace un par de meses se enunció en un artículo de The Inquierer que dicha ley tendrá vigencia 10 ó 15 años más yen ese momento, por lo tanto, dejará de cumplirse. Las limitaciones de esta ley ya fueron discutidas por el propio Moore y el famoso científico Stephen Hawking hace algunos años, y este último afirmó que los límites dependían precisamente de los límites de la microelectrónica: la velocidad de la luz y la naturaleza atómica de la materia.


Es inmediato comprobar lo verídico de esta ley al analizar, por poner un ejemplo simple, la circuitería de una calculadora o, aún mejor, la de un ordenador. Están formadas por miles, millones de chips, de circuitos integrados, algo que hace unas décadas era impensable y, como enuncia la Ley de Moore, esto sigue creciendo de manera exponencial al menos de momento.


La tendencia es simple: más rápido, más barato, más pequeño; y esto incrementa la aparición de nuevas tecnologías y aplicaciones. En otro artículo de El País, de contenido similar al de The Inquirer, se exponían otras leyes que rigen parte del despliegue tecnológico-social y que son bastante curiosas e interesantes. La Ley de Linus (Linus Torvalds) establece que "Dado un número suficientemente elevado de ojos, todos los errores se convierten en obvios". Todo problema deberá ser transparente para alguien. Las personas que entienden y las que resuelven un problema no deben ser necesariamente las mismas, ni siquiera en la mayoría de los casos. L. Torvalds dice que "alguien encuentra el problema y otro lo resuelve", pero el punto está en que ambas cosas suelen suceder muy rápidamente. Podemos aplicarla diciendo que si ésta fuera falsa, entonces cualquier sistema suficientemente complejo como el kernel de Linux, que está siendo manipulado por tantos, debería haber colapsado bajo el peso de interacciones imprevistas y errores "muy profundos" inadvertidos. Pero si es cierta, bastaría para explicar la relativa ausencia de errores en el código de Linux, y para demostrar la superioridad, en cuanto a la  acerca del valor de las redes se critica una consideración bastante obvia: que no todos los nodos de una red aportan el mismo valor a la misma. Juzguemos con quién nos comunicamos más... ¿o con todas las personas que conocemos lo hacemos por igual?


Tal vez se siga un patrón basado en la. Según se comenta, esta ley se observa en un sorprendente número de fenómenos del mundo real. Lo que viene a decir es que si de una colección grande de sucesos ordenados por tamaño o popularidad, el segundo elemento de la colección será aproximadamente la mitad del primero, el tercero la mitad del segundo,...y así sucesivamente. Los autores del artículo obtienen a partir de esta ley otro valor para una red distinto al de Metcalfe: v = n · log (n) que limita bastante más el valor de una red dependiendo del valor de sus usuarios. Intuitivamente parece mucho más aproximado este valor a lo que puede ser el valor de una red aunque en realidad la gran pregunta es: ¿en qué se mide el valor?


La Ley de Metcalfe también contrasta con los modelos tradicionales de La ley de la oferta y la demanda, donde si aumenta la cantidad de un producto su valor disminuye. En realidad, esta afirmación es falsa ya que lo que disminuye no es el valor, sino el precio, el valor de cambio en el mercado. Pero el precio no es un medidor correcto del valor en uso, de utilidad de un producto; sólo mide su valor en el mercado. Obviamente, si aumenta la oferta de un bien en el mercado y no aumenta su demanda, esto quiere decir que no es valorado por los compradores porque no ofrece utilidad adicional para ellos.


Todas estas leyes o principios se ven totalmente reflejadas en el fenómeno de Internet y, por este motivo, se trata del lugar en donde se alojan la mayor cantidad de pruebas y en donde se lanzan la gran parte de servicios y aplicaciones digitales. Calidad del producto final, del Modelo de Desarrollo de Software Libre, sobre el modelo tradicional usado para desarrollar software propietario.


Otra ley muy utilizada en la actualidad es la Ley de Metcalfe, que dice que el valor de una red de comunicaciones aumenta proporcionalmente con el cuadrado del número de usuarios del sistema. Formulada por primera vez por Robert Metcalfe en relación con Ethernet, la Ley de Metcalfe intenta explicar muchos de los efectos de red de las tecnologías y redes de comunicación, ya sea la red telefónica, de ordenadores o la World Wide Web.



Lo interesante de esta ley es que, aunque se basa en un fundamento matemático y sabemos que las matemáticas no fallan, la ley en sí misma sí que lo hace. Ahora todas las aplicaciones web 2.0 "sociales" parece que se centran en conseguir aumentar el número de usuarios de manera que se aumente el valor de la red. Casi parece que importa poco si la aplicación genera valor útil o no, mientras el número de usuarios crezca.