Tu próximo computador podría funcionar en un centro de datos

Computadores Apple

Recuerdo cuando hace muchos años, leí un artículo en el que se decía que en el futuro estaríamos todos conectados a través de Internet y lo que tendríamos en nuestras casas tan solo serían terminales «tontos»: computadoras de escasa potencia pensadas para trabajar a través de la red.

Eran otros tiempos, sin duda, y eso se me antojaba poco menos que imposible, sobre todo observando los precios de las conexiones de entonces y la pauperrima velocidad del dial-up. Sin embargo, esos tiempos han ido quedando atrás y, como explica Romain Dillet en TechCrunch, las conexiones de Internet se han hecho tan rápidas que ahora es posible con mucha más facilidad «externalizar» tareas en servidores situados en centros de datos.

Uno de los ejemplos más cotidianos es el de publicar un vídeo a Facebook: antes, hubiésemos tenido que procesarlo en local para reducir su peso y que se cargue con más rapidez. Ahora, ese proceso es realizado por la misma red social, que se encarga de ofrecerlo a nuestros contactos en diferentes calidades.

Para Dillet, esta tendencia se va a ir haciendo cada vez más importante durante los próximos años hasta llegar a lo que mencionaba antes de los terminales «tontos». Nuestros dispositivos, a pesar de que cada vez son más potentes y pequeños (continuando con la ley de Moore), terminarán sirviendo tan solo como una pantalla que nos permitirá realizar cosas que en realidad se están ejecutando en servidores lejos de nosotros: parecerá que tenemos una computadora en nuestras manos pero lo cierto es que solo tendremos un aparato para dar órdenes a la verdadera computadora.

Dos requisitos fundamentales: calidad de conexión y sencillez de uso

Para que esto ocurra, las velocidades y la latencia de las conexiones a Internet tienen que mejorarse drásticamente para todos. Dillet dice vivir en París, donde goza de una buena infraestructura que le permite disfrutar de una velocidad de 800 Mbps de subida y 250 Mbps de bajada, y con una conexión por cable puede hacer ping a los centros de datos que están en la ciudad en menos de 2 milisegundos.

La realidad es diferente en países como Ecuador, donde velocidades semejantes no están al alcance de todos, sino al contrario: tan solo de unos pocos y, generalmente, estos son empresas. La situación es similar en otros países de América Latina, y aunque hay que admitir que las conexiones han mejorado en calidad y precio en toda la región, todavía queda lejos lo que se disfruta en zonas más avanzadas.

Otro aspecto que Dillet señala como importante es la necesidad de que las compañías desarrollen aplicaciones que puedan ser usadas por personas que no sepan nada de programación y que no se acerquen al código ni con un palo. Porque si bien es cierto que ya se hace uso de servicios en la nube verdaderamente potentes para tareas como análisis de Big Data y cosas similares, y al mismo tiempo existen también aplicaciones web que cubren ciertas necesidades con algunas limitaciones, como editores de imágenes, procesadores de texto, presentaciones, etc, lo cierto es que existe aún varios campos que requieren equipos de potencia mediana y alta cuyas necesidades todavía no están satisfechas.

Dillet pone como ejemplo el uso de los productos de Adobe, como Photoshop o, a mi juicio sobre todo, Premier Pro. La compañía podría crear clientes que demandasen muy pocos recursos locales y presentarlos como una nueva opción dentro de su paquete de suscripciones.

El camino ya se está trazando

En este punto, Dillet señala que ya hay compañías que están trabajando en ese sentido, como la francesa Blade. Esta ofrece un servicio llamado Shadow que se usa principalmente para juegos. Con él, ejecuta miles de máquinas virtuales en procesadores Intel Xeon de grado servidor con una Nvidia GTX 1070 dedicada para cada usuario. El costo es de 30 euros al mes, que vendría a ser unos 33 dólares según el día.

Los juegos en la nube nunca han terminado de funcionar a la perfección debido a problemas de latencia, compresión de imágenes y otras cosas por el estilo. Sin embargo, en el caso de Blade, se accede a un Windows 10 completo que ofrece excelentes prestaciones a través de la red.

Por lo visto, el rendimiento de Shadow es excelente. Según dice Dillet, haciendo uso de la aplicación de Windows en su computadora, se confundió y se dio cuenta de que necesitaba usar dos fondos de pantalla diferentes para distinguir cuando estaba interactuando con el equipo local y cuando lo hacía la máquina virtual a distancia. Y esto dice mucho de la calidad de este servicio.

Este tan solo es un ejemplo de lo que se puede lograr con la tecnología actual. Pero a medida que los procesadores, las GPUs y los discos sólidos mejoren, las compañías en las nube podrán proporcionar mejores servidores y, por lo tanto, servicios más potentes que sean indistinguibles de todos los programas que podemos usar hoy en local.

Lo principal: conexiones fiables

¿Cuánto queda para esto? Es difícil de decir y Dillet no menciona ninguna fecha o periodo de tiempo, pero lo cierto es que, observando la tendencia actual, poco a poco vamos a ir viendo como se hace un traslado paulatino a la nube de muchas cosas que ahora principalmente se usan en local. Los pasos ya se han dado: solo hay que ver la popularidad de Google Docs o de Office 360.

Pero dejando aparte el tema de la potencia de los servidores, la gran asignatura pendiente siguen siendo las conexiones, porque nadie estará dispuesto a usar un terminal «tonto» si no tiene garantizado el acceso las 24 horas del día. No hay nada más frustrante que tener que trabajar y no poder hacerlo, y tras un par de experiencias de ese tipo, cualquier usuario en su sano juicio o cualquier empresa terminaría volviendo al modelo local y se mostraría reticente antes de probar de nuevo el modelo a distancia.