Downes y Mui relacionan este
fenómeno con una serie de leyes que rigen el desarrollo tecnológico
contemporáneo. Una de ellas es la conocida Ley de Moore, enunciada por Gordon Moore
(cofundador de Intel, principal fabricante de microprocesadores).Esta ley
especifica que el número de transistores que se
pueden integrar en un circuito integrado crece exponencialmente y, en concreto,
ese número se duplica cada 18 meses. Hace un par de meses se enunció en un
artículo de The Inquierer que dicha ley tendrá vigencia 10 ó 15 años más yen
ese momento, por lo tanto, dejará de cumplirse. Las limitaciones de esta ley ya
fueron discutidas por el propio Moore y el famoso científico Stephen Hawking
hace algunos años, y este último afirmó que los límites dependían precisamente
de los límites de la microelectrónica: la velocidad de la luz y la naturaleza
atómica de la materia.
Es inmediato comprobar lo verídico
de esta ley al analizar, por poner un ejemplo simple, la circuitería de una
calculadora o, aún mejor, la de un ordenador. Están formadas por miles, millones
de chips, de circuitos integrados, algo que hace unas décadas era impensable y,
como enuncia la Ley de Moore, esto sigue creciendo de manera exponencial al menos
de momento.
La tendencia es simple: más rápido,
más barato, más pequeño; y esto incrementa la aparición de nuevas tecnologías y
aplicaciones. En otro artículo de El País, de contenido similar al de The
Inquirer, se exponían otras leyes que rigen parte del despliegue
tecnológico-social y que son bastante curiosas e interesantes. La Ley de Linus
(Linus Torvalds) establece que "Dado un número suficientemente elevado de ojos,
todos los errores se convierten en obvios". Todo problema deberá ser
transparente para alguien. Las personas que entienden y las que resuelven un
problema no deben ser necesariamente las mismas, ni siquiera en la mayoría de
los casos. L. Torvalds dice que "alguien encuentra el problema y otro lo
resuelve", pero el punto está en que ambas cosas suelen suceder muy
rápidamente. Podemos aplicarla diciendo que si ésta fuera falsa, entonces cualquier
sistema suficientemente complejo como el kernel de Linux, que está siendo manipulado
por tantos, debería haber colapsado bajo el peso de interacciones imprevistas y
errores "muy profundos" inadvertidos. Pero si es cierta, bastaría
para explicar la relativa ausencia de errores en el código de Linux, y para
demostrar la superioridad, en cuanto a la acerca del valor de las redes se critica una
consideración bastante obvia: que no todos los nodos de una red aportan el
mismo valor a la misma. Juzguemos con quién nos comunicamos más... ¿o con todas
las personas que conocemos lo hacemos por igual?
Tal vez se siga un patrón basado en la.
Según se comenta, esta ley se observa en un sorprendente número de fenómenos
del mundo real. Lo que viene a decir es que si de una colección grande de
sucesos ordenados por tamaño o popularidad, el segundo elemento de la colección
será aproximadamente la mitad del primero, el tercero la mitad del segundo,...y
así sucesivamente. Los autores del artículo obtienen a partir de esta ley otro
valor para una red distinto al de Metcalfe: v = n · log (n) que limita bastante
más el valor de una red dependiendo del valor de sus usuarios. Intuitivamente
parece mucho más aproximado este valor a lo que puede ser el valor de una red
aunque en realidad la gran pregunta es: ¿en qué se mide el valor?
La Ley de Metcalfe también contrasta
con los modelos tradicionales de La ley de la oferta y la demanda, donde si
aumenta la cantidad de un producto su valor disminuye. En realidad, esta afirmación
es falsa ya que lo que disminuye no es el valor, sino el precio, el valor de
cambio en el mercado. Pero el precio no es un
medidor correcto del valor en uso, de utilidad de un producto; sólo mide su
valor en el mercado. Obviamente, si aumenta la oferta de un bien en el mercado
y no aumenta su demanda, esto quiere decir que no es valorado por los
compradores porque no ofrece utilidad adicional para ellos.
Todas estas leyes o principios se
ven totalmente reflejadas en el fenómeno de Internet y, por este motivo, se
trata del lugar en donde se alojan la mayor cantidad de pruebas y en donde se lanzan
la gran parte de servicios y aplicaciones digitales. Calidad del producto
final, del Modelo de Desarrollo de Software Libre, sobre el modelo tradicional
usado para desarrollar software propietario.
Otra ley muy utilizada en la
actualidad es la Ley de Metcalfe, que dice que el valor de una red de
comunicaciones aumenta proporcionalmente con el cuadrado del número de usuarios
del sistema. Formulada por primera vez por Robert Metcalfe en relación con
Ethernet, la Ley de Metcalfe intenta explicar muchos de los efectos de red de
las tecnologías y redes de comunicación, ya sea la red telefónica, de
ordenadores o la World Wide Web.
Lo interesante de esta ley es que,
aunque se basa en un fundamento matemático y sabemos que las matemáticas no
fallan, la ley en sí misma sí que lo hace. Ahora todas las aplicaciones web 2.0
"sociales" parece que se centran en conseguir aumentar el número de
usuarios de manera que se aumente el valor de la red. Casi parece que importa
poco si la aplicación genera valor útil o no, mientras el número de usuarios
crezca.