Administrar el espacio de almacenamiento libre y asignarlo según necesidad –hasta donde haya capacidad– es algo que los sistemas operativos hoy hacen sin intervención humana.
Las capacidades de cómputo, comunicaciones y almacenamiento siguen creciendo según la ley de Moore. Igualmente, la complejidad de los sistemas basados en tecnologías de información y comunicaciones va en ascenso.
Esta complejidad amortigua el impacto de los avances tecnológicos en hardware y dificulta la aplicación de la tecnología.
Para administrar esos sistemas, millones de negocios y personas dependen crecientemente de una industria de TIC cuya capacidad se ve limitada por la escasez de personal.
A finales del 2001, Paul Horn, de IBM, sugirió que una posible solución podría basarse en automatizar operaciones de cómputo sin intervención humana, para que se gobernaran de manera semejante a como lo hace el sistema nervioso autónomo que protege nuestros cuerpos regulando funciones vitales como la respiración, la temperatura corporal y el pulso cardiaco, liberando al cerebro consciente de esas tareas.
El término acuñado para el modelo es el de computación autonómica: sistemas de cómputo que se regulan a sí mismos según especificaciones de comportamiento y objetivos dados por administradores.
Esos sistemas serían auto-administrados y según IBM tendrían estas facetas como mínimo:
Configuración automática de componentes.
Descubrimiento y reparación automática de fallas.
Monitoreo automático y control de recursos para mejorar su propio rendimiento.
Identificación proactiva de ataques arbitrarios, protección contra ellos y recuperación de estados estables.
Una de las primeras aplicaciones de estos conceptos podrían ser los “centros de datos”, en los cuales se hospedan servidores y aplicaciones de múltiples clientes.
El cliente podría suscribir servicios y especificar los niveles de rendimiento, disponibilidad y seguridad en un acuerdo de nivel de servicios.
Un centro de datos autonómico determinaría los recursos necesarios para satisfacer el acuerdo y configuraría servidores de cómputo físicos o virtuales, espacio de almacenamiento de datos, recursos de redes y aplicaciones.
Una vez instalado y configurado, el centro de datos autonómico se automonitorearía, protegiéndose y ajustando su rendimiento.
La visión incluye localizar problemas específicos en bases de datos, servidores, enrutadores, aplicaciones o servicios web y llegar a diagnosticar y reparar in situ reiniciando el componente que falló, identificar un “parche” apropiado y aplicarlo, lanzar un componente de respaldo o configurar una copia.
Esta visión es ya parcialmente real, fragmentada, en varios grupos de investigación alrededor del mundo.
Una fascinante panorámica actualizada puede consultarse en la revista Internet Computing del IEEE (www.computer.org/portal/site/internet) de enero 2007.
Artículo publicado en el periódico El Financiero