Yahoo-DC-475x261

SUNAT: Proyecto de centro de datos -Nivel factibilidad -Parte 5

Consideraciones básicas para el diseño del centro de datos

Para el diseño del centro de datos y su implementación se pone énfasis en lo siguiente:

  • En la primera etapa se contempla el traslado (moving) de equipos adquiridos con menos de cinco años de antigüedad o traslado de aplicaciones a equipos nuevos adquiridos especialmente para el centro de datos.
  • Adquisición de un conjunto de equipos con el fin de reducir el riesgo de no disponibilidad asociada con el traslado de los equipos anteriormente indicados o de las aplicaciones, ya que:
    • Los actuales centros de cómputo (PRINCIPAL y ALTERNO) se mantienen en operación garantizando la continuidad operativa.
    • Se realizará el cierre gradual, programado y controlado de los actuales centros de cómputo (PRINCIPAL y ALTERNO).
    • Se controla y minimiza el tiempo para la interrupción programada de los servicios.
    • Se reduce el impacto en los interesados.
    • Se reducen los riesgos asociados con la complejidad de la tecnología (consolidación, virtualización), o por la propia renovación tecnológica[1], incluso dentro del ciclo operativo de SUNAT[2].
    • Se reducen los riesgos asociados con carencia o limitación de recursos humanos requeridos para el traslado de las aplicaciones.
    • Se minimiza el riesgo por una interrupción no programada de los servicios.
    • Posibilita el afinamiento de la sincronización entre los nuevos centros de datos y entre estos y los actuales centros de cómputo.

Bases del diseño:

  • Modularidad (bloques repetibles, simples y escalables, redundancia en escala pequeña).
  • Adaptabilidad (cambios rápidos, flexibilidad ante demanda, sin sobre dimensionamiento).
  • Solución requerida activo-activo y en balance de carga, por necesidad operativa de SUNAT.
  • Adquisición de sistemas electromecánicos específicos y dimensionados para cada sala, reutilizables si es posible, en el momento y con las características que sean requeridos.
  • Solución óptima:
    • CAPEX o inversión inicial optimizada
    • OPEX o gasto recurrente equilibrado
  • TIER III (Certificado por el Uptime Institute):
    • Diseño
    • Construcción
  • Edificio del Centro de datos sobrepasa el horizonte del proyecto.
  • SUNAT ha establecido lo siguiente:
    • Que el contenido de la información recibida o por ser recibida se ciñe a la política establecida y procedimientos operativos implementados y vigentes para su infraestructura tecnológica.
    • Que por motivos de seguridad, para la preparación de la documentación del Proyecto sólo proveerá información limitada.
    • Que por motivos de seguridad, para la ejecución del Proyecto sólo proveerá información y acceso limitado a su plataforma tecnológica.
    • Que por motivos de seguridad, se hará cargo de la ejecución del Proyecto en lo que concierne o esté relacionado con sus sistemas de información y sus datos.

En consecuencia, se tendrán en consideración los siguientes supuestos para determinar la mejor aproximación a la solución final requerida por SUNAT, en el horizonte del proyecto y perspectivas a futuro:

  • Las salas blancas:
    • Estarán ubicadas lo más posible al centro de la edificación. La ubicación final de las salas blancas dependerá, sin embargo, de la geometría del terreno que se utilizará para la construcción.
    • Estarán protegidas por al menos dos perímetros de muros de concreto armado de al menos 30cm de espesor.
    • Estarán circundadas cada una por tanques de gas inerte, sistemas de climatización, tableros eléctricos.
    • Tendrán como ambientes directamente adyacentes las salas de UPS.
    • Podrán ser accedidas tras pasar como mínimo cuatro controles, con diferentes mecanismos y protocolos de seguridad.
    • Contendrán el equipamiento adicional a servidores que sea necesario para su correcta operación.
    • Contemplarán para una operación eficiente las restricciones de distancias impuestas para las comunicaciones y telecomunicaciones (entre otros, pero no limitados a equipos de red, protocolos de comunicación, cables de datos de fibra óptica o de cobre) y sistemas de soporte (entre otros, pero no limitados a tanques de gas, sistemas eléctricos, sistemas de climatización).
  • Salas blancas de gran tamaño podrían impactar gravemente en el CAPEX y en el OPEX -finalmente, en el costo total de propiedad.
  • Se evaluará la necesidad del piso técnico[3] sujeto a necesidades de acceso[4] y eficiencia para refrigeración[5] [6], con el objetivo de mantener limpia el área interna de este piso técnico[7].
  • Se evaluará la posibilidad de trabajar sistemas aéreos para cables de datos, energía, refrigeración.
  • El acceso a los ambientes de soporte será independiente del acceso a las salas blancas, en el último nivel de control.
  • Los pasillos fríos contenidos serían útiles con densidades mayores a 8KW por gabinete.
  • La refrigeración gabinete por gabinete sería útil para densidades mayores a 12KW por gabinete.
  • Para contribuir como centro de datos verde[8] con la protección del medio ambiente (Ley Nº 27446) se empleará:
    • Refrigeración por agua en las salas blancas[9].
    • Extinción con gas NFPA 2001 ISO 14520 (Novec 1230 de 3M). No daña la capa de ozono y tiene una vida atmosférica de 5 días y un potencial de calentamiento global de 1.
  • Un solo equipo grande representa un solo punto de falla; además, se le estaría utilizando por debajo de su capacidad óptima de rendimiento durante un periodo largo de tiempo, lo cual sería ineficiente.
  • Equipos de menor tamaño o capacidad, sumados en rendimiento, permitirían:
    • Atender la carga total a su máxima eficiencia, y ser rotados en operación para garantizar que funcionen cuando son requeridos, y asegurar su mantenibilidad sin complicaciones, como es requerido por el TIER III del Uptime Institute.
    • Atender de forma diferenciada diferentes niveles de requerimientos de refrigeración[10]; esto es, apagar lo que no sea necesario[11].
  • Balancear CAPEX y OPEX lo mejor posible para una proveer una solución predecible, eléctricamente eficiente, y óptima en lo económico y en lo funcional, sin impactar negativamente en la continuidad de las operaciones y, por ende, en las recaudaciones de los negocios de SUNAT.
  • SUNAT ha determinado lo siguiente, bajo el supuesto que el centro de datos principal quede fuera de servicio:
    • Las aplicaciones que serán consideradas en la continuidad de operaciones en el centro de datos de contingencia.
    • El orden de prioridad de las aplicaciones anteriormente consideradas.
    • La capacidad interna para realizar la configuración especial activo-activo y en balance de carga al momento de la ejecución del Proyecto, según cronograma propuesto, en cuanto a:
      • Procesos y procedimientos establecidos y vigentes.
      • Tecnología disponible y vigente.
      • Disponibilidad de personal capacitado.
    • El tiempo máximo aceptable para que el centro de datos de contingencia asuma el 100% de la carga de usuarios concurrentes, para las aplicaciones consideradas en la continuidad operativa.
    • El tiempo máximo aceptable para regresar a la configuración original activo-activo y en balance de carga, una vez que el centro de datos principal haya retornado a su operación normal.

[1] Server hardware upgrades vs. technology refreshes. 2010. http://searchwindowsserver.techtarget.com/news/1379327/Server-hardware-upgrades-vs-technology-refreshes

[2] Is it time for a data center hardware refresh? 2010. http://searchdatacenter.techtarget.com/tip/Is-it-time-for-a-data-center-hardware-refresh

[3] Raised Floors vs Hard Floors for Data Center Applications. http://www.on365.co.uk/files//Raised%20Floors%20vs%20Hard%20Floors-Data%20Centres.pdf

[4] Considering a raised floor in the data center. 2011. http://searchdatacenter.techtarget.com/tip/Considering-a-raised-floor-in-the-data-center

[5] Raised floor bests overhead cooling, IBM finds. 2007. http://searchdatacenter.techtarget.com/news/1242322/Raised-floor-bests-overhead-cooling-IBM-finds

[6] Underfloor Efficiency. 2010. http://www.triadfloors.com/uf-efficiency.php

[7] Cleaning under the raised-floor plenum: Data center maintenance basics. 2009. http://searchdatacenter.techtarget.com/tip/Cleaning-under-the-raised-floor-plenum-Data-center-maintenance-basics

[8] Measuring Green Data Centers. http://cdn.ttgtmedia.com/searchSystemsChannel/downloads/Growing_a_Green_Data_Center_9781587058134_CH02.pdf

[9] http://searchdatacenter.techtarget.com/tip/Data-center-design-tips-What-you-should-know-about-ASHRAE-TC-99

[10] 27 tips for good data center design. 2008. http://itknowledgeexchange.techtarget.com/data-center-facilities/27-tips-for-good-data-center-design/

[11] Implementing Data Center Cooling Best Practices. http://journal.uptimeinstitute.com/implementing-data-center-cooling-best-practices/

Comments are closed.