Virtualización, Green IT o movilidad son algunas de las áreas que más destacan

Las tecnologías de 2010

A punto de estrenar un nuevo año, intentamos averiguar cuáles serán las tecnologías que más se utilizarán el próximo ejercicio. Un año clave en la recuperación económica, pero que también marcará el uso de determinados productos, servicios y tecnologías.

Según Gartner, entre las 10 principales tecnologías que se utilizarán en 2010, destacan como tendencias las aplicaciones móviles, el Cloud Computing o el Green IT. Esta consultora concede el primer lugar al Cloud Computing, mientras que el segundo puesto lo ocupa la analítica avanzada, que está siendo impulsada por el crecimiento en el procesamiento de datos. Esto supone proporcionar a las empresas la capacidad de modelar cada acción que lleven a cabo y crear modelos. En seguridad, por ejemplo, eso significa buscar patrones y detectar todo tipo de fraudes a medida que tienen lugar.
El tercer puesto es para el Client Computing, que está siendo retomado gracias a la virtualización, a la informática en la nube y a los nuevos modelos de trabajo, de este modo, los empleados pueden acceder a las aplicaciones de negocio a través de un entorno de trabajo separado y virtualizado.
El Green IT también aparece en esta lista, pues actualmente se tiene en cuenta en prácticamente todos los procesos tecnológicos. Otra tendencia en auge es la reorganización del centro de datos, con nuevos diseños y tendencias que incluyen añadir energía o generadores para soportar necesidades básicas.
Por su parte, las redes sociales son, indiscutiblemente, una de las últimas tendencias que más fuerza tienen en el mundo de la tecnología. Aunque aún no parecen haber encontrado el modo de hacerlas rentables económicamente.
Además, en los últimos tiempos, también se utiliza más la monitorización de la actividad de los usuarios, que cada vez es más estricta para intentar evitar los ataques y las complicaciones que puede implicar la informática en la nube.
En cuanto a la memoria flash, ésta aparece en el octavo puesto de la lista de Gartner. Este tipo de memoria ofrece velocidad, resistencia y utiliza menos energía que los discos tradicionales. Es cierto que aún cuesta más que un disco, pero la diferencia se está estrechando.
Es justo mencionar también la creciente importancia de la virtualización para una mayor disponibilidad de aplicaciones y servicios, mientras que la consultora sitúa en último lugar a las aplicaciones móviles, que aparecen por primera vez en esta lista, al igual que la memoria flash, la monitorización de la actividad de los usuarios, el client computing y la reorganización del centro de datos.

Virtualización y Cloud Computing
Así las cosas, de lo que nadie parece tener duda es de la definitiva consolidación del Cloud Computing y la virtualización, pues permite mover las cargas de trabajo de un servidor físico a otro.
Pero veamos qué es realmente. El Cloud Computing es una arquitectura consistente en un conjunto de recursos de la empresa situados fuera de ella, que son proporcionados por un proveedor externo y que están soportados y son compartidos a través de Internet. Si releemos esta definición, podríamos decir que también es aplicable, en cierta manera, al software como servicio. Y es que tal y como ha denunciado la consultora Gartner, el término “cloud computing” se está utilizando muy a la ligera.
Es esta misma consultora la que hace una clasificación de las diferentes opciones que hay de la informática en la nube, aunque parte de la base de que cuando hablamos de cloud computing deberíamos referirnos a un estilo de informática en el que se aprovisionan masivamente a múltiples clientes externos capacidades relacionadas con las TI escalables, como si fueran un servicio.
Según Gartner, en estos momentos podríamos hablar de dos tipos diferentes de cloud computing: uno más tecnológico y otro relacionado con los servicios. Empezando por este último, el énfasis estaría más en el concepto de cloud que en el de informática. Es decir, primaría el acceso a los servicios desde cualquier lugar. Lo que se denomina nube son una serie de servicios que se extienden desde la infraestructura de sistema a través de las aplicaciones y los procesos de negocio.
La segunda visión del cloud computing tiene que ver con interpretación popular del concepto y se refiere a un uso de tecnologías, incluidas la virtualización y la automatización, que se enfocan más en el elemento “computing” (informática) que en el aspecto “cloud” (nube). Es decir, son las tecnologías que permiten la creación y entrega de capacidades basadas en servicio las que ganan protagonismo en esta concepción. Evidentemente, la línea que separa una y otra visión del cloud computing es tan fina que es bastante normal confundirlas.
Como toda idea de externalización, los ahorros de costes se perfilan quizá como la ventaja más evidente. Pero, al mismo tiempo, la seguridad se asoma como el mayor riesgo que hay que encarar. Por eso, también es justo señalar los peligros a los que se exponen las empresas que apuesten por la virtualización, pues, tal y como alertan los expertos, el empleo de la virtualización por parte de los proveedores de servicios en la nube para alojar máquinas virtuales que pertenezcan a múltiples clientes en una infraestructura física compartida abre la puerta a nuevos riesgos. Y es que, los atacantes pueden identificar el servidor físico en el que está alojada en la nube una máquina virtual. De este modo, pueden establecer otra máquina virtual falsa para engañar a la víctima.
Aun así, la apuesta por la virtualización es clara en todos los entornos empresariales, y eso a pesar de que, principalmente por su corto recorrido, aún no están claros todos los beneficios que puede reportar a las organizaciones.
Por todo ello, Network Instruments ha preguntado a 120 responsables de redes empresariales, a ingenieros y ejecutivos de TI a través de Interop para averiguar cómo las organizaciones de TI están poniendo en marcha infraestructuras virtuales de servidor y en equipos de sobremesa. El 50 por ciento de ellos ha declarado haber virtualizado servidores de misión crítica, incluyendo servidores de correo electrónico y Web. Otro 50 por ciento ha manifestado trabajar ya con servidores DNS y DHCP en máquinas virtuales. Además, cerca del 40 por ciento ya ha extendido las capacidades de la virtualización hasta los equipos de sobremesa.
Pero, en cualquier caso, el 55 por ciento ha admitido haber experimentado más problemas que beneficios con esta tecnología. Aun así, el 45 por ciento sí ha disfrutado de algunos de los beneficios de la virtualización. Entre los obstáculos que citan se encuentran la falta de visibilidad y las herramientas para resolver problemas de rendimiento en entornos virtuales para el 27 por ciento de los participantes en el estudio. Además, más de un cuarto de ellos han mencionado la falta de formación en infraestructuras virtuales y el 21 por ciento ha expresado su preocupación sobre la incapacidad de asegurar la infraestructura como problemas de la virtualización.
Para cerca del 60 por ciento, el principal problema con la virtualización es la falta de experiencia para gestionar apropiadamente la tecnología y cerca del 50 por ciento cree que los costes de implem

Revista Digital

Revistas Digitales

DealerWorld Digital

 



Otros Contenidos

Registro:

Eventos: