


La tercera ola acompañó al siglo veinte. La automatización en las fábricas abarató los costes y aumentó la oferta dando a los consumidores acceso a cientos de miles de productos diferentes. También enseñó las miserias del desempleo a la clase media que, por esa época, trabajaba mayoritariamente en las factorías. La Familia Nuclear sufrió los cambios disgregándose en infinidad de nuevos modelos de convivencia. Siguiendo a los medios de producción y la convulsión del modelo familiar, la comunicación se fue también descentralizando provocando el nacimiento de la Aldea Global (ahora la llamamos Sociedad del Conocimiento) en la que todos tenemos acceso a cantidades ingentes de información sobre la que, además, podemos intervenir.
No me atrevo a proponer una cuarta ola, seguramente aún estemos en la cresta de la tercera, pero en los últimos años han ido desarrollándose algunas tecnologías que prometen profundas transformaciones en la comunicación, los sistemas de producción y en la estructura social.
LA RED SOCIAL
Internet también parece evolucionar a borbotones. Primero se apoyo en HTML (la Web 1.0, como Teruel, también existe), un lenguaje de especificación que permite a cualquier persona publicar y distribuir contenidos. En unos pocos años miles de millones de páginas abarrotaron la red gracias a esta innovación y se hizo necesario disponer de motores de búsqueda cada vez más potentes. Al entrañable Altavista le sucedió Google y en esas estamos (aunque hay algunas alternativas prometedoras).
HTML se diseñó para las personas y en él se mezclan los datos con su representación lo que dificulta que los contenidos puedan ser procesados por los ordenadores. Esta limitación se soslayó gracias a la definición de un nuevo protocolo de intercambio de datos conocido como XML, uno de los pilares fundamentales de la Web 2.0. Gracias a él, la información puede ser almacenada, analizada y compartida por las máquinas.

Así recibes de forma automática recomendaciones para conectar con personas que comparten contigo unos mismos intereses o publicaciones relevantes para tu actividad diaria. Vienen acompañadas por una publicidad cada vez más personalizada y agresiva pero es el precio que hay que pagar por recibir estos servicios de forma gratuita.
LA RED SEMÁNTICA
Desde el punto de vista de las máquinas, la evolución de Internet presenta un interesante paralelismo con la escritura. Para ellas HTML es poco más que un simple diccionario; un conjunto de términos que pueden combinarse con completa libertad para formar frases indiscernibles. XML aportó una gramática gracias a la cual los ordenadores pudieron extraer datos de ese galimatías y procesarlos de forma automática.

Existen alternativas al procesado estadístico basadas en la definición de taxonomías, ontologías y relaciones cuyo objetivo es también lograr la clasificación automática de contenidos y que, son conocidas comúnmente como Semantic Web.
Sea como fuere, comprender un texto escrito es algo, por el momento, fuera del alcance de la técnica actual. Hasta que no se consiga, la Red Semántica seguirá gateando.
CLOUD COMPUTING
Un ordenador aislado es incapaz de atender a miles o millones de usuarios mientras analiza la información que va recopilando, la personaliza y la envía a miriadas de localizaciones diferentes. No digamos ya si tiene que indexar los contenidos, clasificar cada término que se encuentra y buscar las relaciones más relevantes entre ellos.

Cuando tienes que incorporar cien nuevos servidores a tu red cada tres días necesitas mecanismos automáticos. Necesitas poder instalar un servidor en diez segundos y necesitas que tu red sea capaz de detectar el nuevo servidor instalado y asignarle algún trabajo. Para solucionar el primer problema se recurrió a la virtualización, los servidores dejaron así de tener una existencia física para convertirse en software que se ejecuta sobre otros servidores mucho más potentes. Para resolver el segundo se diseñaron nuevos protocolos capaces de reconfigurar la red y los flujos de computación en función de los recursos disponibles. Nació así la Nube (o el Cloud Computing) (más información...).
Las redes de los grandes proveedores de Internet deben estar dimensionadas para atender los picos en la demanda de información de la Humanidad. En consecuencia, disfrutan de algo de tiempo libre, un tiempo que puede ser vendido al mejor postor para convertirse en el que será uno de los mayores negocios del siglo veintiuno.
BIG DATA
La explosión de las Redes Sociales, las tecnologías móviles y, en breve, la Internet de las Cosas obliga a considerar miles de millones de usuarios, cientos de miles de millones de contenidos y billones (trillones?) de transacciones entre servidores. Para poder ofrecer servicios cada vez más personalizadas todas y cada una de estas transacciones deben ser almacenadas en una base de datos desde donde deben ser procesadas en tiempo real.
Los simuladores empleados por los meteorólogos para predecir el tiempo necesitan también procesar ingentes cantidades de información al igual que los servidores que vaticinan la evolución de los sistemas financieros (con poco éxito, por cierto). Analizar el ADN, simular procesos físicos son otras de esas aplicaciones en las que los servidores se ven abrumados por la colosal cantidad de datos que deben procesar en un tiempo razonable.
Hasta hace poco, las bases de datos eran relacionales. En ellas la información en estado bruto se almacena en registros y tablas y luego se establecen relaciones entre ellas para facilitar las búsquedas mediante índices y consultas bien estructuradas. Esta tecnología se ha mostrado incapaz de ofrecer el rendimiento suficiente para atender la demanda actual lo que ha obligado a desarrollar un nuevo paradigma conocido como Big Data, un término que engloba las nuevas técnicas de procesamiento masivo de información.

Si comenzamos con Alvin Toffler, dejadme terminar con otra referencia literaria. George Orwell imaginó un año 1984 dominado por un poder central sin escrúpulos. Se equivocó, sin duda, pero esperemos que no haya sido sólo por unas cuantas décadas.
PRÓXIMAMENTE
Un buen amigo mío (que seguramente lee este blog por compasión) me ha recomendado que limite el tamaño de los artículos que publico. Interesado en conservar esta amistad, dejo en el tintero otras tecnologías igual de relevantes que las aquí expuestas.
En breve hablaremos de las Tecnologías Móviles, los nuevos Interfaces de Usuario (gestos, voz, reconocimiento facial, sensores biométricos), la Internet de las Cosas, la Robótica, los Drones y las Impresoras 3D. Y quizás algo más que surja por el camino.
No hay comentarios:
Publicar un comentario