Histórico

I2O: entrada/salida inteligente

Cuando se plantea el rendimiento de una red informática parece como si todo el esfuerzo en la obtención de los mejores resultados tenga que hacerse en el lado de la conexión, en los dispositivos que se ocupan de mantener la comunicación. Se dedican recursos para garantizar la mayor porción de ancho de banda posible a los usuarios, en la velocidad más alta disponible, dentro, claro está, de las limitaciones económicas que se tengan. Routers, switches, FastEthernet, Gigabit y alguna que otra tecnología más, parece poco para mantener la mejor operatividad de los usuarios.

Sin embargo, todas las facilidades de las que es posible disponer hoy en día en la Red y la mayor potencia de los ordenadores interconectados, lejos de aportar la solución definitiva para mejorar el trabajo con la herramienta informática, traen consigo un aumento en la demanda de nuevos servicios y un incremento en el manejo de información, cada vez más compleja y sofisticada en contenidos y presentación. Los accesos a base de datos remotas, la multimedia y, cómo no, Internet, hacen que la capacidad de cualquier red corporativa siempre parezca pequeña. Si estos servicios devoran literalmente los recursos de red que puedan existir, las máquinas que se ocupan de proporcionarlos no salen mejor parados y por muy buena que sea la red, si los servidores no son capaces de atender las peticiones que se le hacen, poco notarán los usuarios las "superautopistas" que se han montado para llegar hasta ellos.
Tradicionalmente, la congestión que puede darse en los servidores se resuelve añadiendo más fuerza de proceso, con la incorporación de procesadores más potentes o la capacidad de multiproceso simétrico, más memoria, en cantidad y velocidad, y utilizando el bus de sistema más eficiente. Sin embargo, estas medidas sólo consiguen paliar en parte el verdadero cuello de botella que las aplicaciones más demandadas actualmente se encuentran en la arquitectura de ordenador empleada hoy en día: la entrada/salida.
La complejidad de los datos que se manejan y la alta demanda que los usuarios hacen de ellos, implica que los subsistemas de disco y de red sean, en la actualidad, elementos clave dentro de un servidor e inciden muy directamente en su rendimiento. El aumento de la velocidad de operación de estos componentes, que no puede llegar a equiparse a la velocidad de trabajo del procesador, no lleva implícito el incremento exponencial del rendimiento del equipo en su conjunto, porque estos subsistemas, para poder operar, tienen que contar con el procesador para que regule la lectura/escritura en los discos o recoja/responda a las peticiones que llegan de la red. Es decir, la capacidad de proceso de un equipo se ve comprometida por las operaciones de entrada/salida que ha de atender, el procesador tiene que malgastar su preciado tiempo en tareas accesorias, no puede dedicarse totalmente a la elaboración de los trabajos solicitados. Todos los esfuerzos que se hacen para aumentar la capacidad de los procesadores se ven empequeñecidos cuando se integran con el resto de componentes.
Esta problemática no es nueva y se ha recurrido a distintas técnicas que ofrecieran soluciones para "aligerar" de trabajo al procesador. Las técnicas de Bus Máster y de Acceso Directo a Memoria (DMA), complementadas con mejoras en el diseño y tecnología de la arquitectura de bus de sistema, sólo han conseguido minimizar el lastre que el embudo del subsistema entrada/salida significa para el rendimiento general del ordenador y hasta ahora han sido más o menos suficientes para sacar adelante el trabajo al que se enfrentan las máquinas. Este trabajo ha cambiado y evoluciona día a día con lo que, en la actualidad, el cuello de botella de la entrada/salida tiene un impacto demasiado alto como para tratar solamente de soslayarlo. Y la solución pasa, ineludiblemente, por independizar el procesamiento de la entrada/salida, dotar a este subsistema de su propia gestión.
Ante esta perspectiva, en 1996 un grupo de fabricantes informáticos decidieron aunar esfuerzos para impulsar el desarrollo de una interfaz estándar para el subsistema de entrada/salida, dirigido a sistemas de alto rendimiento. Así surge I2O SIG, Intelligent I/O Special Interest Group (www .i2osig.org), que reúne a los principales representantes en la fabricación de sistemas de red, periféricos y sistemas operativos, cuya finalidad es la de definir el estándar Intelligent Input/ Outpout, más conocido como I2O, promover su utilización y potenciar su funcionalidad. Los trabajos de esta sociedad se concretan en las especificaciones 2.0 de este estándar, publicadas en mayo de 1999, que sustituyen y mejoran las directrices aparecidas anteriormente con la versión 1.5.

La conexión en red la referencia
La filosofía que inspira la arquitectura de I2O se apoya en el mismo planteamiento con el que se ha desarrollado la conexión de ordenadores. En una red informática, los equipos conectados consiguen su comunicación siguiendo las directrices que marca un modelo de conectividad, que describe y agrupa las distintas tareas que hay que realizar para lograr la comunicación en niveles o capas, abstrayendo el hecho de la comunicación de la plataforma, sistema e, incluso, fabricante.
Así, la implementación de I2O contempla dos entidades y un modo de comunicarlas. Por un lado, se encuentra el OSM, Operating System Module o lo que es lo mismo, Módulo de Sistema Operativo y, por otro, el HDM, Hardware Device Module o como diría un castizo, Módulo de Dispositivo Hardware. Entre ellos, y como sistema de relación, la capa de mensajes, que define la comunicación entre esos módulos.
El Módulo de Sistema Operativo, OSM, es una interfaz que reside en el sistema operativo del host, y que proporciona a la plataforma el soporte necesario para que pueda entenderse con la capa de mensajes E/S Inteligente. Este módulo es específico para la estructura de cada sistema operativo en particular y es implementado por su fabricante, siendo su cometido traducir las características de funcionamiento del sistema operativo a los mensajes en formato estándar que son enviados al Módulo de Dispositivo Hardware, HDM, para su procesamiento, a través de la capa de mensajes I2O.
Por su parte, el HDM es el controlador que permite manejar el dispositivo en cuestión, por el momento unidades de almacenamiento y tarjetas adaptadoras de red, que reside en la interfaz del adaptador que se encarga de gestionar el dispositivo. Este módulo recibe las peticiones del OSM a través de la capa de mensajes y con la mediación de ella devuelve el resultado de las peticiones recibidas. Representa la parte de las especificaciones que define el funcionamiento del componente, correspondiéndole al fabricante su desarrollo, estando contemplado que soporte varios tipos de operaciones, como pueden ser solicitudes síncronas y asíncronas o transacciones por sondeo.
La capa de mensajes, encargada de la comunicación entre el Módulo de Sistema Operativo y el Módulo de Dispositivo Hardware, trabaja a dos niveles. En una capa, los mensajes se encargan de configurar y administrar la sesión entre los módulos y, en la otra capa, los mensajes se encargan de gestionar el transporte que define cómo va a ser compartida la información. Esta capa de mensajes, trazando el paralelismo con el modelo de conectividad usado en TCP/IP, reside en el nivel de transporte.
En esta capa de mensajes es donde reside el verdadero meollo de I2O. Para

Revista Digital

Revistas Digitales

DealerWorld Digital

 



Otros Contenidos

Registro:

Eventos: