Red de información TI para profesionales ITMedia NetWork

Búsqueda avanzada

Publicidad

Publicidad

Centro de recursos

Informes

Gestión remota de servidores alojados: prevención y recuperación de desastres

01 Agosto 2006

En este artículo se analizan los dos medios fundamentales para recuperar y evitar desastres que pueden ocurrirle a un sistema alojado remotamente: backup y redundancia

Cuando se administra un ordenador localmente existen distintas múltiples sistemas de protección y recuperación de desastres que se deben usar o Murphy (el de las leyes) hará de las suyas. El mismo razonamiento sirve para los sistemas alojados remotamente porque, en realidad, si algo va mal es mucho más complicado recuperar un desastre en un sistema que no está físicamente presente.

En este artículo se analizan los dos sistemas básicos para recuperar y rechazar los desastres que pueden sorprender a un sistema alojado remotamente: backup y redundancia.

¿Por qué es necesario el backup?

¿Qué puede ir mal? Una lista en la que se anotaran las cosas que podrían ir mal en un sistema alojado remotamente fácilmente podría convertirse en un catálogo, pero la mayoría de los problemas que podrían surgir sería posible encuadrarlos en las siguientes categorías básicas: fallos de hardware, fallos de software, errores de los usuarios y malicia

Los fallos de hardware incluyen cosas como, por ejemplo, un mal funcionamiento del disco duro o de la fuente de alimentación, mientras que en la categoría relacionada con el software encontraríamos bugs fatídicos que podrían dejar fuera de funcionamiento al sistema. Errores de usuario serían, por ejemplo, que accidentalmente cerraran el sistema remoto (en lugar de reiniciarlo) o que alguien en el centro de alojamiento desconectara la luz por error. En el apartado de delitos se incluye virus, gusanos y sabotajes premeditados. La mayoría de nosotros no deberíamos enfrentarnos a este tipo de inconvenientes si dispusiéramos de un poco de protección.

Los fallos de hardware y los errores de usuarios suelen ser los mayores problemas en los centros de datos. En ellos, los sistemas se ubican en entornos totalmente controlados, lo que prolonga su ciclo de vida, pero no previene contra un mal funcionamiento del hardware.

Backup: pensar globalmente, actuar remotamente

Los errores severos típicos de los usuarios suponen la pérdida de datos y para evitarlo es necesario tener una estrategia de backup remota muy sólida. La mayoría de las compañías de hosting ofrece diferentes niveles de backup dependiendo del tipo de contrato que se haya firmado. La cantidad y la sensibilidad de los datos que tenga en el servidor determinará la estrategia de backup remoto.

Las empresas de hosting suelen ofrecer a sus clientes distintas opciones de backup para los servidores alojados en sus instalaciones: ninguna, los usuarios se responsabilizan de sus propios datos; cintas de backup, NAS (de 20 a 200 GB) y DiskSync, método de backup de disco a disco (de 10 a 160 GB guardados mensualmente).

Un ejemplo de escenario de bajo coste para una empresa que no tiene muchos datos cruciales en un servidor remoto sería utilizar un script para comprimir todos los datos relevantes (unos 50 MB) en una carpeta FTP y transferir la copia una vez cada dos días. Este sistema descarga toda la responsabilidad del backup sobre el usuario y los datos no se reemplazan con facilidad, cuestiones de las que debe ser consciente el usuario. Si un ordenador tiene docenas de gigabytes de los asientos corporativos merecería la pena invertir entre 20 y 100 dólares al mes para que la compañía de hosting hiciera backups de forma regular, pero no tendría tanto sentido hacer una copia de todo en un servidor espejo cada dos días.

Redundancia hardware

El fallo de hardware es una de esas cosas de la vida que no se pueden controlar totalmente: si se muere un disco duro no hay otra alternativa que reemplazarlo. Hay distintos tipos de acciones que pueden adoptar para evitarlo, dependiendo del presupuesto y de cuánto se quiera proteger. Si no es posible disponer de redundancia en el hardware la mejor protección es hacer copias de seguridad con mucha frecuencia.

Hardware auxiliar redundante

Esta opción sólo es posible, generalmente, cuando se adquiere un servidor para alojarlo. La implementación más común son los arrays RAID, donde cada disco en el array tiene un espejo. Si uno de los discos se estropea se puede extraer y reemplazarlo sin tener que desconectar todo el sistema. Esta filosofía también aparece en otros dispositivos hardware: un servidor con fuentes de alimentación redundantes, por ejemplo, puede continuar funcionando si una de ellas se estropea. Algunas memorias funcionan de la misma manera . El sistema contiene DIMMs múltiples y redundantes que se pueden reemplazar cuando alguna se estropea sin tener que detener el sistema completo. Hay que tener siempre presente que la empresa de hosting le estará facturando una tarifa por incidente (y posiblemente el coste del reemplazo del hardware también) si tiene que realizar alguna operación de sustitución.

Sistema de dos nodos

Esta es probablemente la solución más cara, pero también es la más completa: instalando un segundo servidor configurado como nodo pasivo del cluster. Si el nodo activo se cayera por cualquier razón, el pasivo entra en funcionamiento y asume el control. La mayoría de las empresas de hosting proporcionan cluster de dos nodos, pero implica un aumento de coste. También hay que tener en cuenta el hecho de que está pagando por un segundo sistema completo que posee su propio sistema operativo y sus licencias de software. Su coste –pagará por un segundo plan de alojamiento de servidor que casi nunca utilizará, y necesitará un sistema operativo que soporte cambio automático de clustering- pero para lograr un funcionamiento de cinco nueves difícilmente se puede mejorar.

"Cambio en frío"

Esta técnica funciona mejor si se ha alquilado varios racks o incluso una jaula completa. Si, por ejemplo, alquila espacio para cuatro servidores, puede instalar dos servidores vivos y utilizar otros dos para realizar el backup, que nominalmente se mantienen desconectados. En el caso de que uno de los sistemas fallase, podría cambiar un drive de un sistema al siguiente o, simplemente, mantener el drive con datos cruciales en una SAN o NAS que puede conectarse a otro cuando se necesite.

Obviamente el gasto será más importante que si se inclina por cualquiera de las otras opciones señaladas anteriormente, pero éste es uno de los planes más flexibles: el sistema de cambio en frío se puede configurar en cualquier momento, sin interrumpir el trabajo y puede tener un hardware radicalmente distinto del sistema vivo si es necesario.

ShareThis

Publicidad

Destacamos

  • El Data Fabric, clave para impulsar la digitalización del sector público

    La digitalización de las organizaciones públicas es una cuestión crucial en un mundo cada vez más conectado y avanzado tecnológicamente. Para Julio Campoy, vicepresidente de Appian, una transformación esencial para facilitar y simplificar tanto los procesos internos como para los que se dirigen a los ciudadanos y en la que el Data Fabric cobra singular importancia

Newsletter gratuita

Suscribase ahora a nuestra Newsletter gratuita.
Le enviaremos periodicamente información sobre nuevos WhitePapers, Webcasts, casos de éxito e información de novedades de productos y noticias.

Envío de artículos por email de IT PYMES.es

Por favor, introduzca la siguiente información











Cerrar

Envío de artículos por email de IT PYMES

Procesando envíos...

Envío de artículos por email de IT PYMES

Email enviado. Cerrar

Envío de artículos por email de IT PYMES

Error en el envio. Pulse aqui para cerrar.Cerrar