Un centro de datos es un edificio , un espacio dedicado dentro de un edificio o un grupo de edificios [1] utilizado para albergar sistemas informáticos y componentes asociados, como sistemas de telecomunicaciones y almacenamiento . [2] [3]
Dado que las operaciones de TI son cruciales para la continuidad del negocio , generalmente incluyen componentes redundantes o de respaldo e infraestructura para el suministro de energía , conexiones de comunicación de datos, controles ambientales (por ejemplo, aire acondicionado , extinción de incendios) y varios dispositivos de seguridad. Un gran centro de datos es una operación a escala industrial que utiliza tanta electricidad como una ciudad mediana. [4] El consumo estimado de electricidad global del centro de datos en 2022 fue de 240 a 340 TWh , o aproximadamente el 1 al 1,3% de la demanda mundial de electricidad. Esto excluye la energía utilizada para la minería de criptomonedas, que se estimó en alrededor de 110 TWh en 2022, u otro 0,4% de la demanda mundial de electricidad. [5] La IEA proyecta que el uso eléctrico del centro de datos podría duplicarse entre 2022 y 2026. [6] La alta demanda de electricidad de los centros de datos, incluida la criptominería y la inteligencia artificial , también ha aumentado la presión sobre las redes eléctricas locales y ha aumentado los precios de la electricidad en algunos mercados.
Los centros de datos pueden variar ampliamente en términos de tamaño, requisitos de energía, redundancia y estructura general. Cuatro categorías comunes que se utilizan para segmentar los tipos de centros de datos son los centros de datos in situ, las instalaciones de coubicación, los centros de datos a hiperescala y los centros de datos de borde. [7]
Los centros de datos tienen sus raíces en las enormes salas de ordenadores de la década de 1940, ejemplificadas por ENIAC , uno de los primeros ejemplos de un centro de datos. [8] [nota 1] Los primeros sistemas informáticos, complejos de operar y mantener, requerían un entorno especial en el que funcionar. Se necesitaban muchos cables para conectar todos los componentes, y se idearon métodos para acomodarlos y organizarlos, como bastidores estándar para montar el equipo, pisos elevados y bandejas de cables (instaladas en el techo o debajo del piso elevado). Un solo mainframe requería una gran cantidad de energía y tenía que ser refrigerado para evitar el sobrecalentamiento. La seguridad se volvió importante: las computadoras eran caras y a menudo se usaban para fines militares . [8] [nota 2] Por lo tanto, se idearon pautas de diseño básicas para controlar el acceso a la sala de computadoras.
Durante el auge de la industria de las microcomputadoras en la década de 1980, los usuarios comenzaron a instalar computadoras en todas partes, en muchos casos con poca o ninguna preocupación por los requisitos operativos. Sin embargo, a medida que las operaciones de tecnología de la información (TI) comenzaron a crecer en complejidad, las organizaciones se dieron cuenta de la necesidad de controlar los recursos de TI. La disponibilidad de equipos de red económicos , junto con nuevos estándares para el cableado estructurado de redes , hicieron posible el uso de un diseño jerárquico que colocaba los servidores en una sala específica dentro de la empresa. El uso del término centro de datos , aplicado a salas de computadoras especialmente diseñadas, comenzó a ganar reconocimiento popular en esta época. [8] [nota 3]
Durante la burbuja punto-com de 1997-2000 se produjo un auge de los centros de datos. [9] [nota 4] Las empresas necesitaban una rápida conectividad a Internet y un funcionamiento ininterrumpido para implementar sistemas y establecer una presencia en Internet. Instalar ese tipo de equipos no era viable para muchas empresas más pequeñas. Muchas empresas comenzaron a construir instalaciones muy grandes, llamadas centros de datos de Internet (IDC), [10] que ofrecen capacidades mejoradas, como la copia de seguridad cruzada: "Si se corta una línea de Bell Atlantic, podemos transferirlas a... para minimizar el tiempo de interrupción". [10]
Se ha utilizado el término centros de datos en la nube (CDCs). [11] Los centros de datos suelen costar mucho construirlos y mantenerlos. [9] Cada vez más, la división de estos términos casi ha desaparecido y se están integrando en el término centro de datos . [12]
El mercado mundial de centros de datos experimentó un crecimiento constante en la década de 2010, con una notable aceleración en la segunda mitad de la década. Según Gartner , el gasto mundial en infraestructura de centros de datos alcanzó los 200 mil millones de dólares en 2021, lo que representa un aumento del 6 % con respecto a 2020 a pesar de los desafíos económicos planteados por la pandemia de COVID-19 . [13]
A finales de la década de 2010 y principios de la de 2020 se produjo un cambio significativo hacia las aplicaciones de inteligencia artificial y aprendizaje automático , lo que generó un auge mundial de infraestructuras de centros de datos más potentes y eficientes. En marzo de 2021, se proyectaba que la creación global de datos crecería a más de 180 zettabytes para 2025, frente a los 64,2 zettabytes de 2020. [14]
Estados Unidos es actualmente el líder más importante en infraestructura de centros de datos, albergando 5.381 centros de datos a marzo de 2024, la cifra más alta de cualquier país del mundo. [15] Según la consultora global McKinsey & Co., se espera que la demanda del mercado estadounidense se duplique a 35 gigavatios (GW) para 2030, frente a los 17 GW de 2022. [16] A partir de 2023, Estados Unidos representa aproximadamente el 40 por ciento del mercado mundial. [17]
Un estudio publicado por el Electric Power Research Institute (EPRI) en mayo de 2024 estima que el consumo de energía de los centros de datos de EE. UU. podría oscilar entre el 4,6 % y el 9,1 % de la generación del país para 2030. [18] En 2023, aproximadamente el 80 % de la carga de los centros de datos de EE. UU. se concentraba en 15 estados, encabezados por Virginia y Texas. [19]
La modernización y transformación de los centros de datos mejora el rendimiento y la eficiencia energética . [20]
La seguridad de la información también es una preocupación y, por este motivo, un centro de datos debe ofrecer un entorno seguro que minimice las posibilidades de una violación de seguridad. Por lo tanto, un centro de datos debe mantener altos estándares para garantizar la integridad y la funcionalidad del entorno informático que alberga.
La empresa de investigación industrial International Data Corporation (IDC) estima que la edad promedio de un centro de datos es de nueve años. [20] Gartner , otra empresa de investigación, dice que los centros de datos con más de siete años están obsoletos. [21] El crecimiento de los datos (163 zettabytes para 2025 [22] ) es un factor que impulsa la necesidad de modernizar los centros de datos.
El enfoque en la modernización no es algo nuevo: la preocupación por los equipos obsoletos fue denunciada en 2007, [23] y en 2011 el Uptime Institute estaba preocupado por la edad de los equipos en los centros de datos. [nota 5] Para 2018 la preocupación se había desplazado una vez más, esta vez a la edad del personal: "el personal del centro de datos está envejeciendo más rápido que el equipo". [24]
El Estándar de Infraestructura de Telecomunicaciones para Centros de Datos de la Asociación de la Industria de Telecomunicaciones [25] especifica los requisitos mínimos para la infraestructura de telecomunicaciones de los centros de datos y salas de computadoras, incluidos los centros de datos empresariales de un solo inquilino y los centros de datos de alojamiento de Internet de múltiples inquilinos. La topología propuesta en este documento está destinada a ser aplicable a centros de datos de cualquier tamaño. [26]
Telcordia GR-3160, Requisitos NEBS para equipos y espacios de centros de datos de telecomunicaciones , [27] proporciona pautas para espacios de centros de datos dentro de redes de telecomunicaciones y requisitos ambientales para el equipo destinado a ser instalado en esos espacios. Estos criterios fueron desarrollados conjuntamente por Telcordia y representantes de la industria. Pueden aplicarse a espacios de centros de datos que albergan equipos de procesamiento de datos o de tecnología de la información (TI). El equipo puede usarse para:
La transformación de un centro de datos se lleva a cabo de forma gradual mediante proyectos integrados que se llevan a cabo a lo largo del tiempo. Esto difiere del método tradicional de actualización de centros de datos que adopta un enfoque en serie y en silos. [28] Los proyectos típicos dentro de una iniciativa de transformación de un centro de datos incluyen estandarización/consolidación, virtualización , automatización y seguridad.
Telcordia Technologies , una subsidiaria de Ericsson , desarrolló una guía de estándares para pisos elevados denominada GR-2930 . [40]
Aunque la primera sala de ordenadores con suelo elevado fue construida por IBM en 1956, [41] y "ha existido desde los años 1960", [42] fue en los años 1970 cuando se hizo más común que los centros de ordenadores permitieran así que el aire frío circulara de manera más eficiente. [43] [44]
El primer propósito del piso elevado fue permitir el acceso para el cableado. [41]
El centro de datos con luces apagadas [45] , también conocido como centro de datos a oscuras o en penumbra, es un centro de datos que, idealmente, ha eliminado casi por completo la necesidad de acceso directo por parte del personal, excepto en circunstancias extraordinarias. Debido a que no es necesario que el personal ingrese al centro de datos, este puede funcionar sin iluminación. Se accede a todos los dispositivos y se administran mediante sistemas remotos, con programas de automatización que se utilizan para realizar operaciones sin supervisión. Además del ahorro de energía, la reducción de los costos de personal y la capacidad de ubicar el sitio más lejos de los centros de población, la implementación de un centro de datos con luces apagadas reduce la amenaza de ataques maliciosos a la infraestructura. [46] [47]
En términos generales, las autoridades locales prefieren que los niveles de ruido en los centros de datos sean "10 dB inferiores al nivel de ruido de fondo nocturno existente en la residencia más cercana". [48]
Las normas de OSHA exigen la supervisión de los niveles de ruido en el interior de los centros de datos si el ruido supera los 85 decibeles. [49] El nivel de ruido medio en las zonas de servidores de un centro de datos puede alcanzar los 92-96 dB(A). [50]
Los residentes que viven cerca de los centros de datos han descrito el sonido como "un zumbido agudo las 24 horas del día, los 7 días de la semana", diciendo que "es como estar en una pista con un motor de avión funcionando constantemente... excepto que el avión se mantiene al ralentí y nunca despega". [51] [52] [53] [54]
Las fuentes externas de ruido incluyen equipos de calefacción, ventilación y aire acondicionado y generadores de energía. [55] [56]
El campo del diseño de centros de datos ha estado creciendo durante décadas en varias direcciones, incluidas nuevas construcciones grandes y pequeñas junto con la reutilización creativa de instalaciones existentes, como espacios comerciales abandonados, antiguas minas de sal y búnkeres de la época de la guerra.
Los códigos de construcción locales pueden determinar las alturas mínimas de los techos y otros parámetros. Algunas de las consideraciones en el diseño de los centros de datos son:
Existen varias métricas para medir la disponibilidad de datos que resulta de la disponibilidad del centro de datos más allá del 95 % de tiempo de actividad, y la parte superior de la escala cuenta cuántos nueves se pueden colocar después del 99 % . [64]
La modularidad y la flexibilidad son elementos clave para permitir que un centro de datos crezca y cambie con el tiempo. Los módulos de un centro de datos son bloques de construcción prediseñados y estandarizados que se pueden configurar y mover fácilmente según sea necesario. [65]
Un centro de datos modular puede consistir en equipos de centro de datos contenidos dentro de contenedores de envío o contenedores portátiles similares. [66] Los componentes del centro de datos pueden ser prefabricados y estandarizados, lo que facilita su traslado si es necesario. [67]
La temperatura y la humedad se controlan mediante:
Es importante que las computadoras no se humedezcan ni se calienten demasiado, ya que la humedad alta puede provocar que el polvo obstruya los ventiladores, lo que provoca un sobrecalentamiento, o puede provocar que los componentes funcionen mal, arruinando la placa y generando un riesgo de incendio. El sobrecalentamiento puede hacer que los componentes, generalmente el silicio o el cobre de los cables o circuitos, se derritan, lo que hace que las conexiones se aflojen y provoquen riesgos de incendio.
La energía de respaldo consiste en una o más fuentes de alimentación ininterrumpida , bancos de baterías y/o generadores de turbinas diésel o de gas . [70]
Para evitar puntos únicos de falla , todos los elementos de los sistemas eléctricos, incluidos los sistemas de respaldo, suelen tener copias redundantes y los servidores críticos están conectados tanto a las fuentes de alimentación del lado A como del lado B. Esta disposición se realiza a menudo para lograr redundancia N+1 en los sistemas. A veces se utilizan interruptores de transferencia estáticos para garantizar una conmutación instantánea de una fuente de alimentación a la otra en caso de un corte de energía.
Las opciones incluyen:
La gestión del flujo de aire aborda la necesidad de mejorar la eficiencia de refrigeración de los ordenadores de los centros de datos evitando la recirculación del aire caliente que sale de los equipos informáticos y reduciendo el flujo de aire de derivación. Existen varios métodos para separar las corrientes de aire caliente y frío, como la contención de pasillos frío/caliente y las unidades de refrigeración en hilera. [72]
La contención de los pasillos fríos se realiza dejando expuesta la parte trasera de los bastidores de los equipos, mientras que los frentes de los servidores se cierran con puertas y cubiertas. Esto es similar a cómo las grandes empresas alimentarias refrigeran y almacenan sus productos.
Los gabinetes de computadoras y las granjas de servidores suelen organizarse para contener los pasillos fríos y calientes. La ubicación adecuada de los conductos de aire evita que el aire frío y caliente se mezclen. Las filas de gabinetes se colocan en pares para que queden enfrentadas de modo que las entradas y salidas de aire frío y caliente no se mezclen, lo que reduciría gravemente la eficiencia de refrigeración.
Como alternativa, una serie de paneles bajo el piso pueden crear vías eficientes de aire frío dirigidas a las baldosas ventiladas del piso elevado. Se puede contener tanto el pasillo frío como el pasillo caliente. [73]
Otra opción es instalar gabinetes con chimeneas de conductos de extracción verticales . [74] Los conductos/tubos de ventilación/tuberías de extracción de aire caliente pueden dirigir el aire hacia un espacio de cámara sobre un cielorraso suspendido y de regreso a las unidades de enfriamiento o a las ventilaciones exteriores. Con esta configuración, la configuración tradicional de pasillos frío/calor no es un requisito. [75]
Los centros de datos cuentan con sistemas de protección contra incendios , que incluyen elementos de diseño pasivo y activo , así como la implementación de programas de prevención de incendios en las operaciones. Los detectores de humo suelen instalarse para proporcionar una alerta temprana de un incendio en su etapa incipiente.
Aunque la sala principal por lo general no permite sistemas basados en tuberías húmedas debido a la naturaleza frágil de las placas de circuitos , aún existen sistemas que se pueden utilizar en el resto de la instalación o en sistemas de circulación de aire de pasillo frío/caliente que son sistemas cerrados , como por ejemplo: [76]
Sin embargo, también existen otros medios para apagar incendios, especialmente en zonas sensibles , generalmente utilizando extinción de incendios mediante gas , de los cuales el gas halón era el más popular, hasta que se descubrieron los efectos negativos de su producción y uso.[1]
El acceso físico suele estar restringido. La seguridad por capas suele comenzar con vallas, bolardos y trampas para personas . [77] Casi siempre hay vigilancia con cámaras de vídeo y guardias de seguridad permanentes si el centro de datos es grande o contiene información confidencial. Las trampas para personas con reconocimiento de huellas dactilares están empezando a ser algo habitual.
Algunas normativas de protección de datos exigen el registro de acceso; algunas organizaciones lo vinculan estrechamente con los sistemas de control de acceso. Pueden producirse múltiples entradas de registro en la entrada principal, en las entradas a las salas internas y en los armarios de equipos. El control de acceso en los armarios se puede integrar con unidades de distribución de energía inteligentes , de modo que las cerraduras estén conectadas en red a través del mismo dispositivo. [78]
El consumo de energía es un tema central para los centros de datos. El consumo de energía varía desde unos pocos kW para un rack de servidores en un armario hasta varias decenas de MW para instalaciones de gran tamaño. Algunas instalaciones tienen densidades de energía más de 100 veces superiores a las de un edificio de oficinas típico. [79] En el caso de instalaciones con mayor densidad de energía, los costos de electricidad son un gasto operativo dominante y representan más del 10% del costo total de propiedad (TCO) de un centro de datos. [80]
En 2020, los centros de datos (excluyendo la minería de criptomonedas) y la transmisión de datos utilizaron cada uno alrededor del 1% de la electricidad mundial. [81] Aunque parte de esta electricidad era baja en carbono, la AIE pidió más "esfuerzos gubernamentales e industriales en eficiencia energética, adquisición de energías renovables e I+D", [81] ya que algunos centros de datos todavía utilizan electricidad generada por combustibles fósiles. [82] También dijeron que se deben considerar las emisiones del ciclo de vida, es decir, incluidas las emisiones incorporadas , como en los edificios. [81] Se estima que los centros de datos fueron responsables del 0,5% de las emisiones de gases de efecto invernadero de EE. UU. en 2018. [83] Algunas empresas chinas, como Tencent , se han comprometido a ser neutrales en carbono para 2030, mientras que otras como Alibaba han sido criticadas por Greenpeace por no comprometerse a volverse neutrales en carbono. [84] Google y Microsoft ahora consumen cada uno más energía que algunos países bastante grandes, superando el consumo de más de 100 países. [85]
La métrica de eficiencia energética más comúnmente utilizada para los centros de datos es la efectividad del uso de energía (PUE), calculada como la relación entre la energía total que ingresa al centro de datos dividida por la energía utilizada por los equipos de TI.
La PUE mide el porcentaje de energía utilizada por los dispositivos de arriba (refrigeración, iluminación, etc.). El centro de datos promedio de EE. UU. tiene una PUE de 2,0, [86] lo que significa dos vatios de energía total (gastos generales + equipos de TI) por cada vatio entregado a los equipos de TI. Se estima que los centros de datos de última generación tienen una PUE de aproximadamente 1,2. [87] Google publica métricas de eficiencia trimestrales de sus centros de datos en funcionamiento. [88] Se han logrado PUE de tan solo 1,01 con refrigeración por inmersión de dos fases. [89]
La Agencia de Protección Ambiental de los Estados Unidos tiene una clasificación Energy Star para centros de datos independientes o de gran tamaño. Para calificar para la etiqueta ecológica, un centro de datos debe estar dentro del cuartil superior en eficiencia energética de todas las instalaciones informadas. [90] La Ley de Mejora de la Eficiencia Energética de 2015 (Estados Unidos) requiere que las instalaciones federales, incluidos los centros de datos, funcionen de manera más eficiente. El Título 24 (2014) del Código de Regulaciones de California exige que todos los centros de datos de nueva construcción deben tener algún tipo de contención del flujo de aire para optimizar la eficiencia energética.
La Unión Europea también tiene una iniciativa similar: el Código de Conducta de la UE para los Centros de Datos. [91]
El objetivo de medir y analizar el uso de energía va más allá de lo que utilizan los equipos de TI; el hardware de soporte de las instalaciones, como enfriadores y ventiladores, también utiliza energía. [92]
En 2011, los racks de servidores en los centros de datos se diseñaron para más de 25 kW y se estimó que el servidor típico desperdiciaba alrededor del 30% de la electricidad que consumía. La demanda de energía para los sistemas de almacenamiento de información también está aumentando. Se estima que un centro de datos de alta disponibilidad tiene una demanda de 1 megavatio (MW) y consume $20,000,000 en electricidad durante su vida útil , y la refrigeración representa entre el 35% y el 45% del costo total de propiedad del centro de datos . Los cálculos muestran que en dos años, el costo de alimentar y enfriar un servidor podría ser igual al costo de comprar el hardware del servidor. [93] La investigación en 2018 ha demostrado que aún se podría conservar una cantidad sustancial de energía optimizando las tasas de actualización de TI y aumentando la utilización del servidor. [94]
En 2011, Facebook , Rackspace y otros fundaron el Open Compute Project (OCP) para desarrollar y publicar estándares abiertos para tecnologías informáticas de centros de datos más ecológicas. Como parte del proyecto, Facebook publicó los diseños de su servidor, que había construido para su primer centro de datos dedicado en Prineville. Hacer que los servidores fueran más altos dejó espacio para disipadores de calor más efectivos y permitió el uso de ventiladores que movían más aire con menos energía. Al no comprar servidores comerciales listos para usar , también se ahorró el consumo de energía debido a ranuras de expansión innecesarias en la placa base y componentes innecesarios, como una tarjeta gráfica . [95] En 2016, Google se unió al proyecto y publicó los diseños de su rack de centro de datos poco profundo de 48 V CC. Este diseño había sido parte de los centros de datos de Google durante mucho tiempo . Al eliminar los múltiples transformadores que generalmente se implementan en los centros de datos, Google había logrado un aumento del 30% en la eficiencia energética. [96] En 2017, las ventas de hardware para centros de datos construidos según diseños OCP superaron los 1200 millones de dólares y se espera que alcancen los 6000 millones de dólares en 2021. [95]
La energía es el mayor costo recurrente para el usuario de un centro de datos. [97] Enfriarlo a 70 °F (21 °C) o menos desperdicia dinero y energía. [97] Además, enfriar demasiado el equipo en entornos con una humedad relativa alta puede exponerlo a una gran cantidad de humedad que facilita el crecimiento de depósitos de sal en los filamentos conductores de los circuitos. [98]
Un análisis de potencia y refrigeración , también conocido como evaluación térmica, mide las temperaturas relativas en áreas específicas, así como la capacidad de los sistemas de refrigeración para manejar temperaturas ambientales específicas. [99] Un análisis de potencia y refrigeración puede ayudar a identificar puntos calientes, áreas sobreenfriadas que pueden manejar una mayor densidad de uso de energía, el punto de quiebre de la carga del equipo, la efectividad de una estrategia de piso elevado y la ubicación óptima del equipo (como unidades de aire acondicionado) para equilibrar las temperaturas en todo el centro de datos. La densidad de refrigeración de energía es una medida de la cantidad de metros cuadrados que el centro puede enfriar a máxima capacidad. [100] La refrigeración de los centros de datos es el segundo mayor consumidor de energía después de los servidores. La energía de refrigeración varía del 10% del consumo total de energía en los centros de datos más eficientes y sube al 45% en los centros de datos estándar refrigerados por aire.
Un análisis de eficiencia energética mide el uso de energía de los equipos de TI y de las instalaciones de un centro de datos. Un análisis típico de eficiencia energética mide factores como la Eficacia del Uso de Energía (PUE) de un centro de datos en comparación con los estándares de la industria, identifica fuentes mecánicas y eléctricas de ineficiencia e identifica métricas de gestión del aire. [101] Sin embargo, la limitación de la mayoría de las métricas y enfoques actuales es que no incluyen la TI en el análisis. Los estudios de casos han demostrado que al abordar la eficiencia energética de manera integral en un centro de datos, se pueden lograr eficiencias importantes que no serían posibles de otra manera. [102]
Este tipo de análisis utiliza herramientas y técnicas sofisticadas para comprender las condiciones térmicas únicas presentes en cada centro de datos, prediciendo la temperatura, el flujo de aire y el comportamiento de la presión de un centro de datos para evaluar el rendimiento y el consumo de energía, utilizando modelos numéricos. [103] Al predecir los efectos de estas condiciones ambientales, el análisis CFD de un centro de datos se puede utilizar para predecir el impacto de los racks de alta densidad mezclados con racks de baja densidad [104] y el impacto posterior en los recursos de enfriamiento, las malas prácticas de gestión de la infraestructura y la falla del aire acondicionado o el apagado del aire acondicionado para el mantenimiento programado.
El mapeo de zonas térmicas utiliza sensores y modelos computacionales para crear una imagen tridimensional de las zonas calientes y frías en un centro de datos. [105]
Esta información puede ayudar a identificar la ubicación óptima del equipo del centro de datos. Por ejemplo, los servidores críticos podrían ubicarse en una zona fría que reciba servicio de unidades de aire acondicionado redundantes.
Los centros de datos consumen mucha energía, que se destina a dos usos principales: la energía necesaria para hacer funcionar el equipo en sí y la energía necesaria para enfriar el equipo. La eficiencia energética reduce la primera categoría.
La reducción de los costes de refrigeración por medios naturales incluye decisiones de ubicación: cuando el objetivo es evitar una buena conectividad de fibra óptica, conexiones a la red eléctrica y concentraciones de personas para gestionar el equipo, un centro de datos puede estar a kilómetros de los usuarios. Los centros de datos masivos como Google o Facebook no necesitan estar cerca de centros de población. Las ubicaciones en el Ártico que pueden utilizar aire exterior, que proporciona refrigeración, son cada vez más populares. [106]
Las fuentes de energía renovables son otra ventaja. Por ello, países con condiciones favorables, como Canadá [107] , Finlandia [108] , Suecia [109] , Noruega [110] y Suiza [111] , están tratando de atraer centros de datos de computación en la nube.
Singapur levantó una prohibición de tres años sobre nuevos centros de datos en abril de 2022. Singapur, un importante centro de centros de datos para la región de Asia y el Pacífico [112] , levantó su moratoria sobre nuevos proyectos de centros de datos en 2022, otorgando 4 nuevos proyectos, pero rechazando más de 16 solicitudes de centros de datos de más de 20 nuevas solicitudes de centros de datos recibidas. Los nuevos centros de datos de Singapur deberán cumplir criterios de tecnología verde muy estrictos, incluidos "Efectividad en el uso del agua (WUE) de 2,0/MWh, Efectividad en el uso de la energía (PUE) de menos de 1,3 y tener una "certificación Platino según los criterios de la Marca Verde BCA-IMDA de Singapur para nuevos centros de datos" que abordan claramente la descarbonización y el uso de células de hidrógeno o paneles solares. [113] [114] [115] [116]
Los centros de datos de corriente continua son centros de datos que producen corriente continua en el sitio con paneles solares y almacenan la electricidad en el sitio en una central eléctrica de almacenamiento de baterías . Las computadoras funcionan con corriente continua y se eliminaría la necesidad de invertir la energía de CA de la red . El sitio del centro de datos aún podría usar energía de CA como una solución de red como respaldo. Los centros de datos de CC podrían ser un 10% más eficientes y utilizar menos espacio en el piso para invertir componentes. [117] [118]
Es muy difícil reutilizar el calor que proviene de los centros de datos refrigerados por aire. Por este motivo, las infraestructuras de los centros de datos suelen estar equipadas con bombas de calor. [119] Una alternativa a las bombas de calor es la adopción de refrigeración líquida en todo el centro de datos. Se combinan y combinan diferentes técnicas de refrigeración líquida para permitir una infraestructura totalmente refrigerada por líquido que capture todo el calor con agua. Las diferentes tecnologías de refrigeración líquida se clasifican en 3 grupos principales: refrigeración líquida indirecta (racks refrigerados por agua), refrigeración líquida directa (refrigeración directa al chip) y refrigeración líquida total (inmersión completa en líquido, consulte refrigeración por inmersión del servidor ). Esta combinación de tecnologías permite la creación de una cascada térmica como parte de los escenarios de encadenamiento de temperatura para crear salidas de agua a alta temperatura desde el centro de datos.
La criptominería y el auge de la inteligencia artificial de la década de 2020 también han provocado una mayor demanda de electricidad, [120] [121] que la AIE espera que pueda duplicar la demanda global de electricidad de los centros de datos entre 2022 y 2026. [6] Estados Unidos podría ver su participación en el mercado de la electricidad destinada a los centros de datos aumentar del 4% al 6% durante esos cuatro años. [6] Bitcoin utilizó el 2% de la electricidad estadounidense en 2023. [122] Esto ha provocado un aumento de los precios de la electricidad en algunas regiones, [123] particularmente en regiones con muchos centros de datos como Santa Clara, California [124] y el norte del estado de Nueva York . [125] Los centros de datos también han generado preocupaciones en el norte de Virginia sobre si los residentes tendrán que pagar la factura de las futuras líneas eléctricas. [122] También ha dificultado el desarrollo de viviendas en Londres. [126] Un informe del Bank of America Institute de julio de 2024 concluyó que el aumento de la demanda de electricidad debido en parte a la IA ha estado impulsando los precios de la electricidad al alza y es un contribuyente significativo a la inflación de la electricidad . [127] [128] [129]
La infraestructura dinámica [130] ofrece la capacidad de mover de forma inteligente, automática y segura cargas de trabajo dentro de un centro de datos [131] en cualquier momento y lugar, para migraciones, aprovisionamiento [132] , para mejorar el rendimiento o para construir instalaciones de coubicación . También facilita la realización de mantenimiento de rutina en sistemas físicos o virtuales, al mismo tiempo que minimiza las interrupciones. Un concepto relacionado es la infraestructura componible, que permite la reconfiguración dinámica de los recursos disponibles para satisfacer las necesidades, solo cuando sea necesario. [133]
Los beneficios secundarios incluyen:
En la actualidad, las comunicaciones en los centros de datos se basan en redes que ejecutan el conjunto de protocolos de Internet . Los centros de datos contienen un conjunto de enrutadores y conmutadores que transportan el tráfico entre los servidores y el mundo exterior [135], que están conectados de acuerdo con la arquitectura de red del centro de datos . La redundancia de la conexión a Internet se proporciona a menudo mediante el uso de dos o más proveedores de servicios ascendentes (consulte Multihoming ).
Algunos de los servidores del centro de datos se utilizan para ejecutar los servicios básicos de Internet e intranet que necesitan los usuarios internos de la organización, por ejemplo, servidores de correo electrónico, servidores proxy y servidores DNS .
También suelen desplegarse elementos de seguridad de red: cortafuegos , gateways VPN , sistemas de detección de intrusos , etc. También son habituales los sistemas de monitorización de la red y de algunas de las aplicaciones. También son habituales los sistemas de monitorización externos adicionales, en caso de fallo de las comunicaciones dentro del centro de datos.
Las opciones no mutuamente excluyentes para la copia de seguridad de datos son:
La presencialidad es tradicional, [136] y una de sus principales ventajas es la disponibilidad inmediata.
Las técnicas de copia de seguridad de datos incluyen tener una copia cifrada de los datos fuera del sitio. Los métodos utilizados para transportar datos son: [137]
Para una rápida implementación o recuperación ante desastres de TI , varios grandes proveedores de hardware han desarrollado soluciones móviles/modulares que pueden instalarse y ponerse en funcionamiento en muy poco tiempo.
Los microcentros de datos (MDC) son centros de datos de nivel de acceso que son más pequeños que los centros de datos tradicionales, pero brindan las mismas características. [140] Por lo general, se ubican cerca de la fuente de datos para reducir los retrasos en la comunicación, ya que su pequeño tamaño permite que varios MDC se distribuyan en un área amplia. [141] [142] Los MDC son adecuados para aplicaciones front-end orientadas al usuario. [143] Se utilizan comúnmente en la computación de borde y otras áreas donde se necesita un procesamiento de datos de baja latencia. [144]
Centro de datos... una instalación gigante... 15 de estos edificios, y seis más... en construcción
"Los amigos no dejan que sus amigos construyan centros de datos", dijo Charles Phillips, director ejecutivo de Infor, un fabricante de software empresarial.
{{cite book}}
: CS1 maint: varios nombres: lista de autores ( enlace )