Después de leer esta entrada de D’Oh! sobre la virtualización, he recordado mis primeros años en la universidad, dónde teníamos terminales tontos y nos conectábamos en remoto a un servidor poderoso y trabajábamos ahí; eso sí, la interfaz gráfica era gráfica solamente por decorar, que menudo horror.
Pero bueno, leyendo esa entrada que he mentado antes, me ha venido a la cabeza la forma en que trabajo: una gran parte del tiempo lo paso metido en un linux en remoto, en dónde voy mirando las cosas y arrancando por ahí los programas… es decir, el sistema operativo de mi máquina (y por tanto los recursos que usa), son usados en gran parte para mantener la conexión y dibujar lo que nos muestra el sistema remoto, pero poco más.
Realmente hace años que pensaba que algo como ésto sería el destino de la informática empresarial / universitaria, dado que ¿para que hay que actualizar el hardware si puedes tirar contra un servidor en remoto? Encima ahora es bastante más sencillo ya que se pueden poner máquinas virtuales en lugar de poner servidores como tales. Es más, el ejemplo más claro es el colisionador de hadrones, en dónde todos tiran con servidores mac, pero con un montón de máquinas virtuales contra las que trabajan todo el personal.
De esta manera tenemos que, con unos servidores poderosos, el resto de los empleados pueden tener máquinas más básicas y tener los datos protegidos y seguros en los servidores. Encima, al usar máquinas virtuales, podemos moverlas rápidamente a otro hardware en caso de fallo físico, hacer copias de seguridad totales, etc. ¿Dónde están las desventajas?
Otra opción, que ya había comentado por aquí, son los sistemas operativos web. El problema real de éstos sistemas es, desde mi punto de vista, que lo que se puede hacer son muy pocas cosas debido a las limitaciones y protecciones actuales de los navegadores. Puede que con una vuelta de rosca más se consiga algo más usable pero, por ahora ésto no es una opción real.
Echarle un vistazo al artículo, que es bastante recomendable ;)
Más información: D’Oh!
Alfonso FR says:
He leído y entendido el artículo de D’Oh! que rompe una lanza a favor de la virtualización de código abierto pero no detalla los inconvenientes. Por nombrar algunos: mayor coste de la infraestructura central y de los recursos humanos dedicados a mantenerla (nosaltres); complicación de la infraestructura; dificultad de acceso al usuario final, con las consecuentes necesidades de impartir formación específica; capitalización de la infraestructura tecnológica con las posibles derivas hacia un sistema cerrado, incompatible y burocratizado; incremento del riesgo de impacto sobre el negocio en caso de fallo, brecha de seguridad o infección vírica de la infraestructura servidor, siendo este un problema de todo sistema centralizado; etc, etc, etc.
No digo que no abogue también sobre la virtualización open source, sino que siempre hay que sopesar bien tanto las ventajas como los inconvenientes para cada caso específico.
Drizzt says:
Lo del CERN y los XServe ya lo lei… que lástima, que pena…
Black Hole says:
1. Hmmm, hombre, ciertamente la arquitectura central se complica un poco, pero se abarata con la simplificación de los terminales “tontos” y el no tener que actualizarlos a menudo. Así mismo la complicación no es tan grande, simplemente el usuario tiene que entrar en el sistema virtualizado (qué podría estar automatizado) y podría olvidarse de todo, creyendo así que estaría en remoto directamente…
Y sobre las brechas de seguridad, no veo que haya un incremento respecto a las soluciones no virtualizadas, dado que el problema sería el mismo en ambos…
2. Yo me quedé con cara de o.O??? WTF??? O_o