| Artículos | 01 OCT 2000

Servidores, columna vertebral de la red local

Tags: Histórico
Adolfo Vázquez.
Con el crecimiento que está experimentando el uso de la informática dentro de la empresa y la llegada de nuevas vías de negocio como Internet, es indispensable disponer de una red potente. Los servidores, como columna vertebral de esa red, son los que deben soportar un mayor trabajo. Por ello es necesario que tanto la parte hardware como la parte software de estos equipos sea sólida y esté preparada frente a cualquier tipo eventual de fallo, todo ello sin dejar de lado su compatibilidad con las nuevas tecnologías que van apareciendo en el mercado.

Después de varios años viendo como Intel y AMD han ido incrementando la potencia de sus procesadores y chipsets, la diferencia entre la gama alta y la gama baja dentro del mercado de equipos informáticos se ha visto reducida a la inclusión de discos duros con mayor capacidad o una cantidad ingente de memoria RAM. Actualmente no es raro ver cómo muchas empresas dejan de lado los servidores clásicos, para hacer que una estación de trabajo "ampliada" cumpla la misma función.

La siempre difícil elección
La elección es clara, gastarse como mínimo medio millón en un equipo que a la postre va a terminar necesitando una actualización con un coste mayor (debido a que este tipo de máquinas sólo son diseñadas por fabricantes grandes) o adaptar un equipo de "andar por casa" a las necesidades que en ese momento tenga la empresa añadiéndole algo más de memoria RAM y quizás un disco con mayor capacidad. A priori la mejor elección parece la segunda, seleccionar los componentes por uno mismo y a partir de ahí actualizar el equipo, eso sí, siempre ciñéndose a los requerimientos de la empresa, pero esta opción que en principio puede parecer la más adecuada en relación calidad/precio, pierde puntos cuando se habla de un equipo que necesita ser robusto y potente, características imprescindibles de todo servidor. Varias compañías, entre ellas IBM, HP, Compaq o Fujitsu Siemens desde hace algunos años han diseñado su línea de mercado hacia dos frentes, por un lado, las estaciones de trabajo, harto conocidas y, por otro, los servidores. Estas compañías, debido a la creciente llegada de empresas pequeñas, han optado por separar esta última línea de producto en dos partes bien definidas. Por un lado, los antiguos mainframes, máquinas que ofrecen una capacidad y un rendimiento que supera exponencialmente al que ofrecen las estaciones de trabajo más potentes y, por otro lado, los servidores orientados a PYMES, o también llamados servidores para red local o LAN.

El cambio generacional
Estos servidores, aunque por mucho tiempo han sido el estándar entre las empresas medianas y pequeñas, han ido sufriendo las consecuencias del imparable crecimiento del mercado informático. Un ejemplo claro es la llegada de Internet a la PYME. Son pocas ya las compañías que no poseen su propio acceso a la Red, ya sea por una red de banda ancha (RDSI o ADSL) o a través de una RTB normal, gracias a la tarifa ondulada que hace poco acaban de sacar la mayoría de las operadoras de telefonía y de cable, que ofrece en algunas ocasiones rendimientos superiores a los de banda ancha. Con la llegada de Internet, han aparecido un gran número de aplicaciones nuevas, que gracias a la Red de redes se han puesto de moda entre los servicios que debe ofrecer todo servidor LAN. Uno de los más conocidos ha sido la Web interna de la empresa, la cual está conectada, por lo general, a una base de datos que ofrece todo tipo de información a los usuarios de la red local. Esto, unido al creciente uso de grupos de noticias, listas de correo, correo electrónico local y aplicaciones para mantener cierta cohesión entre los empleados de la empresa (suelen contener fotos, Webs personales y aficiones de los empleados), ha causado que los servidores LAN antiguos se hayan quedado, además de pequeños, anticuados ante la llegada de nuevas tecnologías, dejando paso a una nueva serie de servidores preparados para todo este tipo de contingencias. Si bien ésta ha sido la tónica habitual durante los últimos años, durante este último par de meses, muchas empresas están empezando a explotar un mercado hasta ahora sólo cerrado a la investigación, los clusters de ordenadores. Con el anuncio tanto por parte de HP como de IBM de sacar al mercado soluciones potentes basadas en esta nueva tecnología, la reutilización de equipos antiguos ya es posible.

Cluster o "todos para uno y uno para todos"
El cluster, o conjunto de ordenadores, consiste en una serie de ordenadores conectados a través de líneas de red local de banda ancha, por lo general Fast Ethernet, aunque según el caso también se pueden implementar Gigabyte Ethernet, que realizan las tareas que requieren las aplicaciones de manera distribuida, esto es, cada una de las máquinas actúa como una parte de un todo. Hasta hace poco tiempo, este tipo de sistemas se reducía a dos, Beowulf y Mosix, ambos proyectos open source (código abierto), que permiten hacer que varios sistemas anticuados obtengan los mismos resultados que un servidor de potencia media. Esos entornos, desarrollados, respectivamente, en la NASA y en la Universidad de Jerusalén, ofrecen el rendimiento de un sistema de altas prestaciones (programación paralela en MPI y PVM) pero a costa de la necesidad de contratar auténticos gurús en la administración de sistemas UNIX (sistemas para los que habían sido diseñados). Tomando como base esos sistemas, compañías como IBM y HP han adaptado sus sistemas operativos a este tipo de "redes", al igual que sus aplicaciones, y han comenzado a ofrecer soluciones en las que, gracias a este tipo de software y a un cierto número de equipos (variable según la potencia requerida por el usuario), cualquier usuario puede disfrutar de las ventajas de la computación distribuida. Ésta es una rama de la informática que aunque lleva varios años sirviendo a la comunidad científica es, gracias a Internet, cuando ha sufrido una mayor popularización. En parte, gracias a proyectos como el promovido por la universidad de Berkeley, el proyecto SETI at home, en el cual las personas que se apuntaban al mismo dedicaban el tiempo "stand by" del ordenador para que las señales procedentes del programa SETI del radiotelescopio de Arrecibo (Puerto Rico) pudieran ser procesadas. Pero aunque esta solución se está abriendo paso poco a poco en el mercado, aún el líder en el diseño de red, es el SAN (System Area Network), que hace uso de un "monolítico" servidor para prestar servicios a los demás componentes de la red local, algo que es susceptible de error y que, sin embargo, en el caso de los clusters ofrece una seguridad añadida, ya que en el caso de fallar alguno de los componentes del cluster el resto en vez de dejar funcionar, ignorar a ese equipo distribuyendo el trabajo entre los equipos restantes. Por otro lado, otro de los componentes que más se está dejando ver entre los servidores de esta gama son los RAID, algo hace poco tiempo relegado a los grandes servidores corporativos. Ya sea en configuraciones de 2 o de 10 racks, estos RAID permiten que el administrador vea reducido su trabajo ya que entre otras cosas permiten cambiar en cuestión de segundos el sistema operativo del sistema, al igual que introducir discos duros con las aplicaciones reclamadas por los usuarios de la red local. Cada vez más, este tipo de equi

Contenidos recomendados...

Comentar
Para comentar, es necesario iniciar sesión
Se muestran 0 comentarios
X

Uso de cookies

Esta web utiliza cookies técnicas, de personalización y análisis, propias y de terceros, para facilitarle la navegación de forma anónima y analizar estadísticas del uso de la web. Consideramos que si continúa navegando, acepta su uso. Obtener más información