SUNAT: Proyecto de centro de datos -Nivel factibilidad -Parte 2

Premisas

En conformidad con los requerimientos del SNIP, para sustentar la factibilidad del proyecto, se han considerado las siguientes premisas:

  • A partir de la racionalización del servicio al cliente y de las redes para facilitar una variedad de servicios de comercio electrónico y de TI empresariales, los centros de datos han evolucionado hasta convertirse en fundamentos del negocio para las empresas en una amplia gama de industrias.
  • Además, como los servicios de TI están cada vez más comoditizados (a través de servicios de ubicación compartida –co-location, recuperación de desastres y la computación en la nube), el impacto económico de las operaciones del centro de datos continuará creciendo a un ritmo sin precedentes[1].
  • En 2011 se realizó un estudio en 41 centros de datos de Estados Unidos de Norte América. Considerando aquellos con tamaño mayor a 750m2, se tuvo la distribución de participantes siguiente:
    • 2%: transporte, defensa, comunicaciones, hospitales, medios
    • 5%: venta al detalle, tecnología y software, educación
    • 7%: productos de consumo masivo, sector público, sector industrial, servicios
    • 10%: venta al detalle vía comercio electrónico, servicios de co-locación
    • 12%: servicios financieros, cuidado de la salud

Tenemos entonces que:

  • El costo promedio de una caída del centro de datos fue aprox. USD5,600 por minuto.
  • Con base en un incidente de 90 minutos (incluyendo pero no limitado a, pérdida de datos o corrupción, pérdida de productividad, daño a los equipos, detección de causa raíz, acciones de recuperación, repercusiones legales y regulatorias, pérdida de los ingresos económicos, repercusiones a largo plazo en la reputación y confianza entre los interesados principales), el costo promedio de un solo evento de caída fue de USD505,500.
  • El costo total de tanto las caídas parciales como totales no planeados pueden significar un gasto importante, aprox. USD258,000 y USD680,000, respectivamente.
  • El tiempo promedio de recuperación de una caída total fue de 134 minutos; y de una parcial, 59 minutos (menos de la mitad).
  • El costo total de las caídas está relacionada sistemáticamente con la duración de la caída y el tamaño del centro de datos.
  • Las principales causas raíz de caídas (y las más costosas) estaban directamente relacionadas con vulnerabilidades en las infraestructuras de suministro de energía (mayor al 39%, especialmente en los UPS incluyendo baterías) y enfriamiento de los centros de datos (15%).
    • Así, los centros de datos tienen que hacer frente a las presiones externas que cambian el ambiente de los negocios [pero que siempre deben estar operando] y a las presiones internas que vienen con la tecnología y que, en materia de instalaciones, los retos se encuentran en las áreas de administración de la infraestructura, control de la densidad de calor, disponibilidad, eficiencia energética y densidad de potencia[2].
    • La tendencia actual de los centros de datos a crecer[3].
    • El estrés de la operación de ACME, por la necesidad que tiene de satisfacer los servicios provistos al usuario con el menor riesgo posible de degradación o corte de servicio.
    • El estrés del negocio ACME por, principalmente pero no limitado a, el crecimiento de los negocios, necesidad de mantener la disponibilidad y continuidad operativa de los negocios, y la orientación de la solución de centro de datos[4] que requieren estos negocios (TIER III[5] según el Uptime Institute: mantenimiento y reemplazo de equipos sin necesidad de apagarlos o de cortar el servicio, con base en el diseño de la infraestructura, sus capacidades, funcionalidades, y sostenibilidad de la operación[6]).
    • Aspectos técnicos[7] [8] importantes para ACME que contribuyen al estrés de continuidad operativa como:
  • Esto implica proveer bloques repetibles, simples y escalables, redundancia inicial en escala pequeña, pero con capacidad de crecimiento por etapas, según la necesidad de ACME.
  • Esto implica estar preparados para cambios rápidos, flexibilidad ante demanda, sin sobre dimensionamiento. La adaptabilidad permitirá la adopción de la tecnología necesaria y vigente en el momento que esta se requiera. Así, se plantea que existan “espacios provisionales” para manejar la renovación tecnológica[9] durante la transición de un sistema a otro; sin embargo, las necesidades del negocio y los requerimientos de espacio de ACME determinarán el momento más apropiado.
    • Afinamiento del CAPEX (adquisición de equipos dimensionados apropiadamente).
    • Eficiencia en el OPEX (gasto recurrente de la operación y mantenimiento de equipos, con el menor desperdicio posible, y mantenimiento del propio centro de datos[10] [11]).
    • Provisión de equipos de apoyo, específicos, modernos y vigentes al momento de su adquisición, y dimensionados apropiadamente, reutilizables en lo posible.

Los supuestos siguientes responden a planteamientos establecidos inicialmente para el desarrollo del nuevo Centro de Datos:

  • Cumplimiento con la Norma Técnica Peruana NTP ISO/IEC 27001:2008. EDI Tecnología de la Información. Técnicas de Seguridad. Sistemas de Gestión de seguridad de la Información. Requisitos. Esta norma técnica es de uso obligatorio según la RM N° 129-2012-PCM.
  • El proyecto considera la construcción y puesta en operación de un Centro de Datos Principal (CDP) y un Centro de Datos de Contingencia (CDC).
  • Ambos centros de datos operarán en conjunto y a la vez (ambos activos), repartiendo (balanceando) entre ambos la carga de los usuarios a nivel nacional.

Si uno de estos centros de datos sufriera una interrupción mayor, el otro deberá asumir y procesar el 100% de la carga de todos los usuarios concurrentes en un momento determinado.

A esta configuración se denomina activo-activo y en balance de carga.

  • Para mitigar los riesgos de no poder procesar el 100% de la carga de todos los usuarios concurrentes en un momento determinado o de que la solución sufra un desbalance de carga inesperado, el Centro de Datos de Contingencia será una réplica del Centro de Datos Principal en cuanto a funcionalidad y capacidad operativa.
  • Para lograr la óptima operación de esta configuración será necesario adoptar y mantener el equipamiento de soporte crítico necesario. Todos los equipos mecánicos, eléctricos y de plomería necesitan mantenimiento programado periódico, ya sea este preventivo o predictivo, no planificado o de restauración. La orientación de la solución entonces es el cumplimiento del Dominio A.9 Seguridad física y del entorno, en apoyo a la seguridad de la información.
  • Según la Norma Técnica Peruana NTP ISO/IEC 17799:2007. EDI. Tecnología de la información. Código de buenas prácticas para la gestión de la seguridad de la información (RM N° 246-2007-PCM), la seguridad de la información significa preservar la confidencialidad, integridad y disponibilidad de la información.

La información es un recurso que, como el resto de los activos, tiene valor para una organización y por consiguiente debe ser debidamente protegida.

Así, la seguridad de la información significa proteger la información de una amplia gama de amenazas con el fin de asegurar la continuidad del negocio, minimizar sus riesgos, y de maximizar el retorno de inversión y las oportunidades de negocio.

  • La configuración activo-activo y en balance de carga que se propone para el Proyecto responde a la necesidad que tiene ACME de asegurar la continuidad de sus operaciones. Esto implica garantizar la disponibilidad de sus procesos de negocio, considerando las tecnologías pero también las personas y las operaciones que éstas realizan (los procesos de TI y su gobernabilidad[12], y la gestión de servicio[13]), incluyendo las interacciones con clientes y proveedores. Lo anterior se da en cumplimiento del Dominio A.14 Gestión de la continuidad del negocio. Objetivo de control A.14.1 Aspectos de la gestión de continuidad del negocio en la seguridad de la información. Control A.14.1.3 Desarrollando e implementando planes de continuidad que incluyen la seguridad de la información.
  • Con esta configuración activo-activo y en balance de carga se busca garantizar la disponibilidad de los servicios que la institución presta a la ciudadanía. Según la ISO/IEC 13335-1:2004, la disponibilidad significa garantizar que los usuarios autorizados tengan acceso a la información y activos asociados cuando sea necesario. De acuerdo con la NTP ISO/IEC 27001:2008, cláusula 4.2.1 Establecimiento del Sistema de Gestión de la Seguridad de la Información (ISMS por sus siglas en idioma inglés), literal (d), numeral (4), la organización debe Identificar los impactos de pérdidas de confidencialidad, integridad y disponibilidad sobre los activos.
    • Así, la solución en su conjunto, dos centros de datos idénticos en funcionalidad configurados en activo‑activo y en balance de carga, busca mitigar los riesgos inherentes a toda plataforma tecnológica y a eventos fortuitos o desastres naturales, en beneficio de la continuidad operativa de los negocios de ACME.
    • Para el diseño de la infraestructura del Centro de Datos Principal se ha considerado un terreno de forma cuadrangular; sin embargo, el diseño final se ajustará a la geometría y dimensiones del terreno que proporcione ACME.
    • El Centro de Datos de Contingencia será construido apartado del CDP como medida adicional para asegurar la continuidad operativa de los negocios de ACME.
    • La geometría y dimensiones finales de los terrenos a utilizar determinarán el número de pisos o sótanos que serán requeridos en cada centro de datos.
    • La autonomía mínima propuesta para cada Centro de Datos es de 24 horas, con capacidad de suministro continuo.

En el diseño básico[14] del Centro de Datos Principal se ha tenido en consideración, pero no limitadas a, las recomendaciones o mejores prácticas[15] siguientes:

  • Incorporar las mejores prácticas empleadas por el Banco de Crédito del Perú, Banco BBVA Continental e IBM, y que son de valor para el proyecto, como la escalabilidad, amplitud de accesos, y la gestión remota.
  • Seguir las recomendaciones[16] siguientes del Uptime Institute para un Centro de Datos orientado a ser clasificado como TIER III[17] [18] [19]:
  • Ambientes básicos de la edificación de soporte, que es parte del alcance del proyecto, entre otros pero no limitados a: tableros eléctricos, UPS, sistemas de climatización, área de telecomunicaciones, área de networking, área de operadores externos, áreas de gestión.
  • Los espacios mínimos de los ambientes de soporte requeridos estarán dados por las necesidades de las áreas blancas.
  • La utilización máxima de cada componente activo será del 90%.
  • La forma básica de abordar la disponibilidad es trabajar una configuración N + 1, donde N es el componente activo más 1 equipo adicional por redundancia, siendo que cada componente está dimensionado para atender el 100% de la carga.
  • Sin embargo, la ACME podrá utilizar un esquema diferente de redundancia (2N), con dos componentes dimensionados para atender el 100% de la carga, pero utilizados cada uno al 50%.
  • De hecho, la configuración activo‑activo y en balance de carga propuesto para el Proyecto sigue un esquema de redundancia 2N.
  • Las entradas de energía eléctrica no requieren ser diferentes pero sí tener la capacidad de proveer un suministro continuo.
  • La autonomía del Centro de Datos debe ser de 12 horas como mínimo.
  • Los gabinetes de servidores deben contar con dos unidades de distribución de energía –PDU.
  • La necesidad de energía sin interrupciones o de refrigeración puede suplirse con varios equipos pequeños; no se necesita trabajar con equipos grandes. Debe asegurarse, sin embargo, que se satisfaga la necesidad, así como la redundancia y mantenibilidad del sistema.
  • El piso técnico no es un requerimiento; se debe evaluar la necesidad caso por caso.
    • Seguir las recomendaciones de la American Society of Heating, Refrigerating and Air-Conditioning Engineers (ASHRAE)[20] para que la temperatura en el pasillo frío esté entre 25°C y 27°C[21], con humedad relativa máxima sin condensación de 60%[22].
    • Adoptar estrategias internacionales de costo total de propiedad y acuerdos de nivel de servicio.
    • Adoptar mejores prácticas en cuanto a la gestión de proyectos y gestión de riesgos.
    • ACME adopta la propuesta de la Association For Computer Operations Management (AFCOM)[23] de determinar el área de la sala blanca de un centro de datos medido por número de gabinetes, y su tamaño por el consumo en KW por gabinete.
    • ACME adopta la recomendación de DataCenter Consultores de emplear 2.78m2 como área base consumida por gabinete (área del gabinete más áreas circundantes)[24], considerando que cuenta con gabinetes de algunos fabricantes cuyas dimensiones no son estándar.
    • Como evidencia de su política operativa en apoyo del medio ambiente ACME ha determinado:
  • Utilizar 6KW como densidad máxima de energía por gabinete de servidores –el consumo objetivo máximo. Para esta determinación:
    • ACME considera como base la información de Energy UniversityTM[25] (Schneider Electric) de que el consumo mundial actual de un centro de datos se encuentra principalmente en el rango de 4KW a 8KW por gabinete y que se debería considerar un 50% de crecimiento.

Así, tomando como mínimo 4KW + 50% * 4KW tenemos un total de 6KW.

  • Para confirmar, ACME ha realizado cálculos iniciales con medidas aleatorias de carga eléctrica en algunos gabinetes de mayor carga (servidores de bases de datos y sistemas de almacenamiento en disco que consumen aproximadamente 6KW).

Otras medidas realizadas en gabinetes específicos se encuentran en promedio alrededor de 2KW.

  • En la misma línea de confirmación, ACME ha considerado que los avances en la tecnología permitirán en el futuro beneficiarse de mejoras en la consolidación o en la virtualización de servidores, de estandarizaciones en la tecnología con nuevos servidores multi‑core, o tipos de encapsulamiento de servidores como los blade.

Anteriormente se han presentado predicciones en cuanto al avance de la tecnología sobre la base de SPECs, que es la medida utilizada por ACME en sus adquisiciones de servidores.

  • En consecuencia, ACME reconoce que la densidad de energía adoptada de 6KW podría incrementarse en el horizonte del proyecto.

De ahí que sea necesaria la modularidad y adaptabilidad propuestas en el diseño del Proyecto, utilizando salas blancas de tamaño reducido para una mayor flexibilidad y crecimiento por etapas, y evitar a la vez sobre dimensionamiento o desperdicio de recursos.

  • Como políticas de base para los gabinetes, ACME ha establecido las siguientes:
    • Que un requerimiento de energía mayor al máximo establecido podrá exigir la distribución de la carga que genera este mayor consumo en gabinetes adicionales e incluso en salas blancas adicionales.
    • Que un requerimiento de energía mayor al máximo establecido podrá exigir mezclar las cargas que generan este mayor consumo con otras cargas menores.
    • Que se asignarán, de ser necesario, filas enteras con densidades de carga diferentes, para soportar los requerimientos de energía de diferentes tipos de servidores.
    • Que las filas especialmente diseñadas para manejar densidades de carga específicas no serán empleadas para otras densidades de carga.
    • Que las filas especialmente diseñadas para manejar tipos específicos de equipos no serán empleadas para otro propósito.
    • Que un requerimiento de energía mayor al máximo establecido podrá permitirse siempre y cuando el consumo de energía de los gabinetes adyacentes en la fila estén por debajo del máximo en la cantidad adicional requerida, con el fin de equilibrar el consumo total.

Por ejemplo, tomemos tres gabinetes contiguos cuyo consumo máximo en conjunto sería 18KW; si un gabinete requiere 8KW, los adyacentes deben estar consumiendo como máximo 5KW, para mantener el equilibrio del conjunto en 18KW.

Lo anterior es aplicable al sistema de climatización.

  • Establecer en 60% la utilización efectiva de espacio en cada gabinete, considerando que con esta medida:
    • Se incrementa la circulación de aire frío dentro de los gabinetes.
    • Se reduce la acumulación de calor en la parte superior interna de los gabinetes.
  • Monitorizar[26] continuamente el consumo de energía y su disipación como calor, de manera que:
    • Se pueda establecer el balance óptimo entre utilización de espacio y consumo de energía y disipación de calor, tanto a nivel de gabinete como de sala blanca, para evitar desperdicios innecesarios.
    • Se pueda dar soporte sin inconvenientes a proyectos futuros, aún sin conocer con anticipación sus requerimientos, sólo hasta el punto extremo dado por la capacidad máxima de las instalaciones.
    • Se asegure que el máximo establecido por el sistema eléctrico y los equipos de soporte necesarios (UPS, climatización[27], grupo electrógeno) no se vean comprometidos.
    • La solución en su conjunto permanezca consistente con los objetivos del Proyecto en cuanto a ser predecible, eléctricamente eficiente, y óptima en lo económico y en lo funcional, y dentro de los parámetros de operación propuestos.
  • Utilizar la información disponible de los actuales centros de cómputo de ACME como por ejemplo, pero no limitada a: la cantidad de gabinetes de servidores; energía eléctrica consumida; historial de crecimiento en espacio físico de los centros de cómputo; proyectos nuevos en cartera; plan de renovación de equipos.
  • Tomar como base valores que responden a buenas prácticas de diversas empresas especializadas, con experiencia en el desarrollo de Centros de Datos para ambientes netamente comerciales.

[1] http://www.emersonnetworkpower-partner.com/ArticleDocuments/SL-24661.pdf.aspx?Embed=Y

[2] http://searchdatacenter.techtarget.com/es/cronica/Optimice-la-disponibilidad-y-la-eficiencia-energetica-de-su-centro-de-datos

[3] http://searchdatacenter.techtarget.com/es/podcast/La-tendencia-de-los-centros-de-datos-hoy-es-el-crecimiento

[4] How a data centre works. http://www.on365.co.uk/Articles/How_a_data_centre_works.aspx

[5] http://searchdatacenter.techtarget.com/definition/Uptime-data-center-tier-standards

[6] http://www.colocationamerica.com/data-center/tier-standards-overview.htm

[7] http://searchdatacenter.techtarget.com/tip/Modern-server-room-design-to-fit-your-business-needs

[8] http://searchdatacenter.techtarget.com/tip/Physical-building-properties-to-evaluate-during-server-room-design

[9] http://searchdatacenter.techtarget.com/tip/A-data-center-checklist-for-facility-design-and-IT-ops

[10] Top 20 tips for best practice datacentre maintenance. http://www.on365.co.uk/Articles/Top_20_tips_for_best_practice_datacentre_maintenance.aspx#

[11] A Framework for Developing and Evaluating Data Centre Maintenance Programs. http://www.on365.co.uk/White_Papers/The_Green_Room_-_A_Framework_for_Developing__and__Evaluating_Data_Center_Maintenance_Programs.aspx

[12] http://searchdatacenter.techtarget.com/es/cronica/Gobernabilidad-piedra-angular-de-un-centro-de-datos-exitoso

[13] Norma Técnica Peruana NTP ISO/IEC 20000-2:2008. Tecnología de la información. Gestión del servicio. Parte 2: Código de buenas prácticas. 1a Edición

[14] Uptime, TIA and BICSI: Who runs the data center design standards show? http://searchdatacenter.techtarget.com/tip/Uptime-TIA-and-BICSI-Who-runs-the-data-center-design-standards-show

[15] A data center checklist for facility design and IT ops. 2014. http://searchdatacenter.techtarget.com/tip/A-data-center-checklist-for-facility-design-and-IT-ops?utm_medium=EM&asrc=EM_ERU_37834661&utm_campaign=20141222_ERU%20Transmission%20for%2012/22/2014%20(UserUniverse:%201266786)_myka-reports@techtarget.com&utm_source=ERU&src=5342020

[16] Estas recomendaciones se deben cumplir sólo en los frentes de energía, refrigeración y edificación, hasta el nivel de los gabinetes de servidores; no especifican requerimiento alguno en el campo de la arquitectura de TI.

[17] http://searchdatacenter.techtarget.in/tip/Tier-3-data-center-specifications-checklist

[18] http://searchdatacenter.techtarget.in/tip/Tier-3-data-center-design-The-cooling-checklist

[19] http://searchdatacenter.techtarget.in/tip/Four-data-center-tier-classification-misconceptions-demystified

[20] ASHRAE elevará el límite de temperatura del data center. http://www.datacenterdynamics.es/node/50766

[21] http://searchdatacenter.techtarget.com/tip/Five-data-center-upgrade-strategies-to-modernize-your-facility

[22] http://tc99.ashraetcs.org/documents/Clarification%20to%20ASHRAE%20Thermal%20Guidelines.pdf

[23] The Strategic Directions Group Pty Ltd. Data Center Size and Density. 2014. http://www.afcom.com/wp-content/uploads/2014/09/Strategic-Directions-DCISE-Size-Density-Standards-v1.0.pdf

[24] http://www.slideshare.net/datacenterconsultores/claves-para-el-diseo-conceptual-de-centro-de-datos

[25] Course: Calculating Space and Power Density Requirements for Data Centers.

[26] Top 10 tips for energy efficiency in the data centre. http://www.on365.co.uk/Articles/Top_10_Tips_for_achieving_energy_efficiency_in_the_Data_Centre.aspx

[27] Implementing Data Center Cooling Best Practices. http://journal.uptimeinstitute.com/implementing-data-center-cooling-best-practices/

0 Replies to “SUNAT: Proyecto de centro de datos -Nivel factibilidad -Parte 2”