Dell M1000e

Computadora servidor

Los productos de servidor blade de Dell están construidos alrededor de su gabinete M1000e que puede albergar sus servidores blade, una red de área de almacenamiento iSCSI EqualLogic integrada y módulos de E/S que incluyen conmutadores Ethernet , Fibre Channel e InfiniBand .

Gabinete M1000e con selección de servidores blade G12

Recinto

El M1000e cabe en un rack de 19 pulgadas y tiene 10 unidades de rack de alto (44 cm), 17,6" (44,7 cm) de ancho y 29,7" (75,4 cm) de profundidad. El gabinete blade vacío pesa 44,5 kg, mientras que un sistema completamente cargado puede pesar hasta 178,8 kg. [1]

En la parte frontal se insertan los servidores, mientras que en la parte posterior se insertan las fuentes de alimentación, los ventiladores y los módulos de E/S junto con los módulos de gestión (CMC o controlador de gestión de chasis) y el conmutador KVM . Un gabinete blade ofrece una gestión centralizada de los servidores y los sistemas de E/S del sistema blade. La mayoría de los servidores utilizados en el sistema blade ofrecen una tarjeta iDRAC y se puede conectar a cada iDRAC de los servidores a través del sistema de gestión M1000e. También es posible conectar un conmutador KVM virtual para tener acceso a la consola principal de cada servidor instalado.

En junio de 2013, Dell presentó el PowerEdge VRTX , que es un sistema blade más pequeño que comparte módulos con el M1000e. Los servidores blade, aunque siguen la estrategia de denominación tradicional, p. ej., M520, M620 (solo se admiten blades), no son intercambiables entre el VRTX y el M1000e. Los blades difieren en el firmware y los conectores mezzanine. [ cita requerida ]

En 2018, Dell presentó el Dell PE MX7000, un nuevo modelo de gabinete MX, la próxima generación de gabinetes Dell.

El gabinete M1000e tiene un lado frontal y un lado posterior y, por lo tanto, toda la comunicación entre los blades insertados y los módulos se realiza a través de la placa intermedia, que tiene la misma función que una placa posterior pero tiene conectores en ambos lados, donde el lado frontal está dedicado a los blades de servidor y el posterior a los módulos de E/S .

Plano medio

Indicación en la parte posterior del chasis para ver qué plano medio se instaló en fábrica

El plano medio es completamente pasivo. Los servidores blade se insertan en la parte frontal del gabinete, mientras que se puede acceder a todos los demás componentes a través de la parte posterior. [2]
Las capacidades originales del plano medio 1.0 son: Fabric A: Ethernet 1 Gb; Fabrics B&C: Ethernet 1 Gb, 10 Gb, 40 Gb; Canal de fibra 4 Gb, 8 Gb; IfiniBand DDR, QDR, FDR10. Las capacidades mejoradas del plano medio 1.1 son: Fabric A: Ethernet 1 Gb, 10 Gb; Fabrics B&C: Ethernet 1 Gb, 10 Gb, 40 Gb; Canal de fibra 4 Gb, 8 Gb, 16 Gb; IfiniBand DDR, QDR, FDR10, FDR. Los gabinetes M1000e originales venían con la versión 1.0 de midplane, pero ese midplane no soportaba el estándar 10GBASE-KR en la estructura A ( el estándar 10GBASE-KR es soportado en las estructuras B y C). Para tener Ethernet de 10 Gb en la estructura A o Fibre Channel o InfiniBand FDR de 16 Gb (y más rápido) en las estructuras B y C, se requiere midplane 1.1. Las versiones actuales del gabinete vienen con midplane 1.1 y es posible actualizar el midplane. A través de las marcas en la parte posterior del gabinete, justo encima de los módulos de E/S: si se puede ver una "flecha hacia abajo" sobre las 6 ranuras de E/S, el midplane 1.0 se instaló en la fábrica; si hay 3 o 4 barras horizontales, se instaló el midplane 1.1. Como es posible actualizar el midplane, las marcas externas no son decisivas: a través de la interfaz de administración de CMC, se puede ver la versión instalada actual del midplane [3].

Frente: Servidores Blade

Cada gabinete M1000e puede alojar hasta 32 blades de un cuarto de altura, 16 de media altura u 8 de altura completa o combinaciones (por ejemplo, 1 de altura completa + 14 de media altura). Las ranuras están numeradas del 1 al 16, donde 1 a 8 son los blades superiores y 9 a 16 están directamente debajo de 1 a 8. Cuando se utilizan blades de altura completa, se utiliza la ranura n (donde n = 1 a 8) y la ranura n + 8. Integrada en la parte inferior del lado frontal hay una opción de conexión para 2 x USB , destinados a un mouse y teclado, así como una conexión de monitor VGA estándar (15 pines). Al lado hay un botón de encendido con indicador de encendido.

Junto a esto hay una pequeña pantalla LCD con botones de navegación que permite obtener información del sistema sin necesidad de acceder al sistema de gestión/CMC del gabinete. La información básica de estado y configuración está disponible a través de esta pantalla. Para operar la pantalla, se puede acercar e inclinar para obtener una vista óptima y acceder al botón de navegación. Para realizar comprobaciones rápidas del estado, hay una luz indicadora junto a la pantalla LCD que siempre está visible: un LED azul indica el funcionamiento normal y un LED naranja indica algún tipo de problema.

Esta pantalla LCD también se puede utilizar para el asistente de configuración inicial en un sistema recién entregado (sin configurar), lo que permite al operador configurar la dirección IP del CMC. [2]

Atrás: alimentación, gestión y E/S

Todas las demás partes y módulos se encuentran en la parte posterior del M1000e. La parte posterior se divide en 3 secciones: parte superior: aquí se insertan los 3 módulos de administración: uno o dos módulos CMC y un módulo i KVM opcional . En la parte inferior del gabinete hay 6 bahías para unidades de suministro de energía. Un M1000e estándar funciona con tres PSU. El área intermedia ofrece 3 x 3 bahías para ventiladores de enfriamiento (izquierda, centro, derecha) y hasta 6 módulos de E/S: tres módulos a la izquierda de los ventiladores del medio y tres a la derecha. Los módulos de E/S de la izquierda son los módulos de E/S numerados A1, B1 y C1, mientras que el lado derecho tiene lugares para A2, B2 y C2. Los módulos de E/S de la estructura A se conectan a los controladores de E/S integrados que, en la mayoría de los casos, serán una NIC Ethernet dual de 1 Gb o 10 Gb. Cuando el blade tiene una NIC de 1 Gb integrada de puerto dual, la primera NIC se conectará al módulo de E/S en la estructura A1 y la segunda NIC se conectará a la estructura A2 (y la ranura del blade corresponde con la interfaz Ethernet interna: por ejemplo, la NIC integrada en la ranura 5 se conectará a la interfaz 5 de la estructura A1 y la segunda NIC integrada va a la interfaz 5 de la estructura A2)

Los módulos de E/S en la red B1/B2 se conectarán a la tarjeta Mezzanine B o 2 (opcional) en el servidor y la red C a la Mezzanine C o 3.

Todos los módulos se pueden insertar o quitar en un gabinete en funcionamiento ( intercambio en caliente ) [2]

Servidores blade disponibles

Una M1000e admite hasta 32 cuchillas de un cuarto de altura, 16 de media altura u 8 cuchillas de altura completa o una combinación de ellas (por ejemplo, 2 de altura completa + 12 de media altura). Las cuchillas de 1/4 de altura requieren una funda de tamaño completo para su instalación. La lista actual incluye las cuchillas 11G disponibles actualmente y los modelos 12 de última generación . También hay cuchillas más antiguas como las series M605, M805 y M905.

Borde de potencia M420

Lanzado en 2012, [4] el PE M420 es un servidor blade de "un cuarto de tamaño": mientras que la mayoría de los servidores son de "la mitad del tamaño", lo que permite instalar 16 servidores blade por gabinete M1000e, con el nuevo M420 se pueden instalar hasta 32 servidores blade en un solo chasis. La implementación del M420 tiene algunas consecuencias para el sistema: muchas personas han reservado 16 direcciones IP por chasis para admitir la "asignación automática de direcciones IP" para la tarjeta de administración iDRAC en un servidor blade, pero como ahora es posible ejecutar 32 servidores blade por chasis, es posible que las personas deban cambiar su asignación de IP de administración para el iDRAC. Para admitir el servidor M420, se necesita ejecutar el firmware CMC 4.1 o posterior [5] y se necesita una "funda" de tamaño completo que admita hasta cuatro servidores blade M420. Esto también tiene consecuencias para la asignación de NIC de E/S "normal": la mayoría de los blades (de tamaño medio) tienen dos LOM (LAN en la placa base): una que se conecta al conmutador en la estructura A1 y la otra a la estructura A2. Y lo mismo se aplica a las tarjetas Mezzanine B y C. Todos los módulos de E/S disponibles (excepto el PCM6348, MXL y MIOA) tienen 16 puertos internos: uno para cada blade de tamaño medio. Como un M420 tiene dos NIC LOM de 10 Gb, un chasis completamente cargado requeriría 2 × 32 puertos de conmutador internos para LOM y lo mismo para Mezzanine. Un servidor M420 solo admite una única tarjeta Mezzanine (Mezzanine B O Mezzanine C según su ubicación), mientras que todos los sistemas de media altura y de altura completa admiten dos tarjetas Mezzanine. Para admitir todas las NIC integradas, se necesitaría implementar un conmutador Ethernet de 32 ranuras, como el MXL o el agregador de E/S Force10. Pero para la tarjeta Mezzanine es diferente: las conexiones de Mezzanine B en el PE M420 están "equilibradas en carga" entre la estructura B y C del M1000e: la tarjeta Mezzanine en la "ranura A" (ranura superior en la funda) se conecta a la estructura C mientras que la "ranura B" (la segunda ranura desde arriba) se conecta a la estructura B, y eso luego se repite para las ranuras C y D en la funda. [4]

Borde de potencia M520

Un servidor de media altura con hasta 2 CPU Intel Xeon E5-2400 de 8 núcleos, que ejecuta el chipset Intel C600 y ofrece hasta 384 Gb de memoria RAM a través de 12 ranuras DIMM. Se pueden instalar dos discos en blade (SSD PCIe de 2,5 pulgadas, HDD SATA o HDD SAS) para almacenamiento local y una opción de ranuras Intel o Broadcom LOM + 2 Mezzanine para E/S. [6] El M520 también se puede utilizar en el sistema PowerEdge VRTX .

Borde de potencia M600

Un servidor de media altura con un procesador Intel Xeon de cuatro núcleos y 8 ranuras DIMM para hasta 64 GB de RAM

Borde de potencia M610

Servidor de media altura con CPU Intel 5500 o 5600 Xeon de cuatro o seis núcleos y chipset Intel 5520. Opciones de memoria RAM a través de 12 ranuras DIMM para hasta 192 Gb de RAM DDR3. Un máximo de dos discos duros o SSD de 2,5 pulgadas en blade conectables en caliente y una selección de NIC integradas para Ethernet o adaptador de red convergente (CNA), Fibre Channel o InfiniBand. El servidor tiene el chipset Intel 5520 y una tarjeta de vídeo Matrox G200 [7]

Borde de potencia M610x

Un servidor blade de altura completa que tiene las mismas capacidades que el M610 de media altura pero que ofrece un módulo de expansión que contiene 16 ranuras de expansión PCI Express (PCIe) 2.0 que pueden admitir hasta dos tarjetas PCIe estándar de altura/longitud completa. [8]

Borde de potencia M620

Un servidor de media altura con hasta 2 CPU Intel Xeon E5-2600 o Xeon E5-2600 v2 de 12 núcleos, que ejecuta el chipset Intel C600 y ofrece hasta 768 GB de memoria RAM a través de 24 ranuras DIMM. Se pueden instalar dos discos en blade (2,5" PCIe SSD, SATA HDD o SAS HDD) para almacenamiento local con una variedad de opciones de controlador RAID. Dos puertos USB externos y uno interno y dos ranuras para tarjetas SD. Los blades pueden venir preinstalados con Windows 2008 R2 SP1, Windows 2012 R2, SuSE Linux Enterprise o RHEL. También se pueden pedir con Citrix XenServer o VMWare vSphere ESXi o usando Hyper-V que viene con W2K8 R2. [9] Según el proveedor, todos los servidores de Generación 12 están optimizados para ejecutarse como plataforma de virtualización. [10] La administración fuera de banda se realiza a través de iDRAC 7 a través de CMC.

Borde de potencia M630

Un servidor de media altura con hasta 2 CPU Intel Xeon E5-2600 v3/v4 de 22 núcleos, que ejecuta el chipset Intel C610 y ofrece hasta 768 GB de memoria RAM a través de 24 ranuras DIMM, o 640 GB de memoria RAM a través de 20 ranuras DIMM cuando se utilizan CPU de 145 W. Se pueden instalar dos discos en blade (2,5" PCIe SSD, SATA HDD o SAS HDD) para almacenamiento local y una opción de Intel o Broadcom LOM + 2 ranuras Mezzanine para E/S. [6] El M630 también se puede utilizar en el sistema PowerEdge VRTX . Amulet HotKey ofrece un servidor M630 modificado que se puede equipar con un módulo Mezzanine PCoIP de Teradici o GPU.

Borde de potencia M640

Un servidor de media altura con hasta 2 CPU escalables Xeon de 28 núcleos. Compatible con los chasis M1000e y PowerEdge VRTX . El servidor puede admitir hasta 16 ranuras de memoria DDR4 RDIMM para hasta 1024 GB de RAM y 2 bahías de unidad compatibles con unidades SAS/SATA o NVMe (con un adaptador). El servidor utiliza iDRAC 9.

Borde de potencia M710

Un servidor de altura completa con una CPU Intel 5500 o 5600 Xeon de cuatro o seis núcleos y hasta 192 Gb de RAM. Un máximo de cuatro discos duros de 2,5" o SSD enchufables en caliente y una selección de NIC integradas para Ethernet o adaptador de red convergente, Fibre Channel o InfiniBand. La tarjeta de vídeo es una Matrox G200. El servidor tiene el chipset Intel 5520 [11]

Borde de potencia M710HD

Una versión de dos sockets del M710 pero ahora en un blade de media altura. La CPU puede ser dos Xeon 5500 o 5600 de cuatro o seis núcleos con el chipset Intel 5520. A través de 18 ranuras DIMM se pueden colocar hasta 288 Gb de RAM DDR3 en este blade y la opción estándar de NIC Ethernet integradas basadas en Broadcom o Intel y una o dos tarjetas Mezzanine para Ethernet, Fibre Channel o InfiniBand. [12]

Borde de potencia M820

Un servidor de altura completa con cuatro CPU Intel Xeon E5-4600 de ocho núcleos, que ejecuta el chipset Intel C600 y ofrece hasta 1,5 TB de memoria RAM a través de 48 ranuras DIMM. Se pueden instalar hasta cuatro discos duros/SSD SAS de 2,5" en blade o dos SSD flash PCIe para almacenamiento local. El M820 ofrece una selección de tres adaptadores Ethernet convergentes integrados diferentes para Fibre Channel over Ethernet (FCoE) de 10 Gbit/s de Broadcom, Brocade o QLogic y hasta dos Mezzanine adicionales para E/S Ethernet, Fibre Channel o InfiniBand [13]

Borde de potencia M910

Servidor de altura completa de 11.ª generación con hasta 4 CPU Intel XEON E7 de 10 núcleos o 4 CPU XEON serie 7500 de 8 núcleos o 2 CPU XEON serie 6500 de 8 núcleos, 512 Gb o 1 Tb de RAM DDR3 y dos discos duros de 2,5" intercambiables en caliente (spinning o SSD). Utiliza el chipset Intel E 7510. Una selección de NIC integradas para Ethernet, Fibre Channel o InfiniBand [14]

Borde de potencia M915

También es un servidor 11G de altura completa que utiliza la CPU AMD Opteron serie 6100 o 6200 con el chipset AMD SR5670 y SP5100. Memoria a través de 32 ranuras DIMM DDR3 que ofrecen hasta 512 Gb de RAM. Hasta dos discos duros o SSD de 2,5 pulgadas integrados. El blade viene con una selección de NIC integradas y hasta dos tarjetas intermedias para Ethernet de 10 Gb de puerto dual, FCoE de puerto dual, canal de fibra de 8 Gb de puerto dual o Infiniband Mellanox de puerto dual. El video se realiza a través del Matrox G200eW integrado con 8 MB de memoria [15]

Tarjetas mezzanine

Cada servidor viene con NIC Ethernet en la placa base. Estas NIC "integradas" se conectan a un conmutador o módulo de paso insertado en la bahía A1 o A2 en la parte posterior del conmutador. Para permitir más NIC o E/S que no sean Ethernet, cada blade [16] tiene dos ranuras denominadas de entrepiso : la ranura B que se conecta a los conmutadores/módulos en las bahías B1 y B2 y la ranura C que se conecta a C1/C2: un chasis M1000e admite hasta 6 conmutadores o módulos de paso. Para la redundancia, normalmente se instalarían conmutadores en pares: el conmutador en la bahía A2 normalmente es el mismo que el conmutador A1 y conecta las NIC integradas en la placa base de los blades para conectarse a la red de datos o almacenamiento.

Tarjetas Ethernet Mezzanine (convergentes)

Los servidores blade estándar tienen una o más NIC integradas que se conectan a la ranura de conmutación "predeterminada" (la estructura A ) en el gabinete (a menudo, los servidores blade también ofrecen una o más interfaces NIC externas en la parte frontal del blade), pero si uno desea que el servidor tenga más interfaces físicas (internas) o que se conecte a diferentes blades de conmutación en el gabinete, se pueden colocar tarjetas intermedias adicionales en el blade. Lo mismo se aplica a la adición de un adaptador de bus de host de canal de fibra o una interfaz de adaptador de red convergente de canal de fibra sobre Ethernet (FCoE) . Dell ofrece las siguientes tarjetas intermedias Ethernet (convergentes) para sus blades PowerEdge: [17]

  • CNA de dos puertos Broadcom 57712
  • Brocado BR1741M-k CNA
  • Tarjeta dual Mellanox ConnectX-2 de 10 Gb
  • Ethernet Intel de 10 Gb y dos puertos
  • Puerto Gigabit Ethernet Intel de cuatro puertos
  • Intel Quad port Gigabit Ethernet con tecnología de virtualización y funciones de aceleración iSCSI
  • Broadcom NetXtreme II 5709 Gigabit Ethernet de dos y cuatro puertos (dos puertos con funciones de descarga iSCSI)
  • Broadcom NetXtreme II 5711 de dos puertos y 10 Gb Ethernet con funciones de descarga iSCSI

Tarjetas que no sean Ethernet

Además de las anteriores, están disponibles las siguientes tarjetas mezzanine: [17]

  • Adaptador host Emulex LightPulse LPe1105-M4
  • Tarjeta mezzanine InfiniBand de dos puertos Mellanox ConnectX IB MDI
  • Adaptador de bus de banda ancha SANblade de QLogic
  • SANsurfer Pro

Almacenamiento de cuchillas

En la mayoría de las configuraciones, los servidores blade utilizan almacenamiento externo ( NAS con iSCSI , FCoE o Fibre Channel ) en combinación con almacenamiento local en cada servidor blade a través de discos duros o SSD en los servidores blade (o incluso solo una tarjeta SD con sistema operativo de arranque como VMware ESX [18] ). También es posible utilizar servidores blade completamente sin disco que se inicien a través de PXE o almacenamiento externo. Pero independientemente del almacenamiento local y de arranque: la mayoría de los datos utilizados por los servidores blade se almacenarán en SAN o NAS externos al gabinete del servidor blade.

SAN Blade de EqualLogic

Dell ha colocado los modelos EqualLogic PS M4110 de matrices de almacenamiento iSCSI [19] que están físicamente instalados en el chasis M1000e: esta SAN ocupará el mismo espacio en el gabinete que dos blades de media altura uno al lado del otro. Aparte del factor de forma (el tamaño físico, la obtención de energía del sistema del gabinete, etc.), es una SAN iSCSI "normal": los blades en el (mismo) chasis se comunican a través de Ethernet y el sistema requiere un switch de blade Ethernet aceptado en la parte posterior (o un módulo de paso + switch de rack): no hay opción para la comunicación directa de los blades de servidor en el chasis y el M4110: solo permite a un usuario empaquetar un minicentro de datos completo en un solo gabinete (rack de 19", 10 RU )

Dependiendo del modelo y del controlador de disco utilizado, el PS M4110 ofrece una capacidad de almacenamiento del sistema (sin procesar) de entre 4,5 TB (M4110XV con 14 × 146 Gb, 15K SAS HDD) y 14 TB (M4110E con 14 x 1 TB, 7,2K SAS HDD). El M4110XS ofrece 7,4 TB utilizando 9 HDD y 5 SSD . [20]

Cada M4110 viene con uno o dos controladores y dos interfaces Ethernet de 10 gigabits para iSCSI. La gestión de la SAN se realiza a través de la interfaz de gestión del chasis (CMC). Debido a que iSCSI utiliza interfaces de 10 Gb, la SAN debe utilizarse en combinación con uno de los conmutadores blade de 10 Gb: el PCM 8024-k o el conmutador Force10 MXL. [20] La versión del hardware del plano medio del gabinete debe ser al menos la versión 1.1 para admitir la conectividad KR de 10 Gb [21] [22]

Conmutadores PowerConnect

Dibujo de carcasa M1000e con 2 x FTOS MXL, 2 x M8024-k y 2 x FibreChannel 5424
Dibujo de carcasa M1000e con 2 x FTOS MXL, 2 x M8024-k y 2 x FibreChannel 5424

En la parte trasera del gabinete se encuentran las fuentes de alimentación, las bandejas de ventiladores, uno o dos módulos de administración del chasis (CMC) y un conmutador KVM virtual . Además, la parte trasera ofrece 6 bahías para módulos de E/S numerados en 3 pares: A1/A2, B1/B2 y C1/C2. Las bahías A conectan las NIC de la placa base a sistemas externos (y/o permiten la comunicación entre los diferentes blades dentro de un gabinete).

Los conmutadores Dell PowerConnect son conmutadores modulares para su uso en el gabinete de servidor blade Dell M1000e . Los conmutadores M6220, M6348, M8024 y M8024K son todos conmutadores de la misma familia, basados ​​en las mismas estructuras ( Broadcom ) y que ejecutan la misma versión de firmware. [23]

Todos los conmutadores de la serie M son compatibles con OSI capa 3 : por lo que también se puede decir que estos dispositivos son conmutadores Ethernet de capa 2 con enrutador incorporado o funcionalidad de capa 3.

La diferencia más importante entre los switches de la serie M y los switches clásicos Dell PowerConnect (por ejemplo, el modelo 8024 ) es el hecho de que la mayoría de las interfaces son interfaces internas que se conectan a los servidores blade a través del plano medio del gabinete. Además, los switches de la serie M no pueden funcionar fuera del gabinete: solo funcionarán cuando se inserten en el gabinete.

Conexión eléctrica M6220

Este es un conmutador de 20 puertos: 16 interfaces Gigabit Ethernet internas y 4 externas y la opción de ampliarlo con hasta cuatro interfaces externas de 10 Gb para enlaces ascendentes o dos enlaces ascendentes de 10 Gb y dos puertos de apilamiento para apilar varios PCM6220 en un conmutador lógico grande.

Conexión eléctrica M6348

Este es un switch de 48 puertos: 32 interfaces internas de 1 Gb (dos por servidor blade) y 16 interfaces externas de cobre (RJ45) de gigabit. También hay dos ranuras SFP+ para enlaces ascendentes de 10 Gb y dos ranuras CX4 que se pueden usar para dos enlaces ascendentes adicionales de 10 Gb o para apilar varios blades M6348 en un switch lógico. El M6348 ofrece cuatro interfaces de 1 Gb para cada blade, lo que significa que solo se puede utilizar el switch a plena capacidad cuando se usan blades que ofrecen 4 NIC internas en la estructura A (= la NIC interna/en la placa base). El M6348 se puede apilar con otros M6348, pero también con los switches en rack de la serie PCT7000 .

PowerConnect M8024 y M8024k

Los M8024 y M8024-k ofrecen 16 interfaces internas de detección automática de 1 o 10 Gb y hasta 8 puertos externos a través de uno o dos módulos de E/S, cada uno de los cuales puede ofrecer: 4 ranuras SFP+ de 10 Gb, 3 interfaces CX4 de 10 Gb (solamente) de cobre o 2 interfaces 10G BaseT 1/10 Gb RJ-45. El PCM8024 está "fuera de ventas" desde noviembre de 2011 y fue reemplazado por el PCM8024-k. [24] Desde la actualización de firmware 4.2, el PCM8024-k admite parcialmente FCoE a través de FIP (Protocolo de inicialización de FCoE) y, por lo tanto, adaptadores de red convergentes , pero a diferencia del PCM8428-k no tiene interfaces de canal de fibra nativas .

Además, desde la versión de firmware 4.2, el PCM8024-k se puede apilar utilizando interfaces Ethernet externas de 10 Gb asignándolas como puertos de apilamiento. Aunque esta nueva opción de apilamiento también se introduce en la misma versión de firmware para el PCT8024 y el PCT8024-f, no se pueden apilar versiones blade (PCM) y de rack (PCT) en una sola pila. Las nuevas características no están disponibles en el PCM8024 "original". El firmware 4.2.x para el PCM8024 solo corrige errores: no se agregan nuevas características ni nuevas funcionalidades a los modelos "finales de venta". [25] [26]

Para utilizar los conmutadores PCM8024 -k se necesitará una placa base que admita los estándares KR o IEEE 802.3ap [21] [22]

Capacidades de Powerconnect

Todos los conmutadores PowerConnect de la serie M ("PCM") son conmutadores multicapa, por lo que ofrecen opciones de capa 2 (Ethernet) y de capa 3 o de enrutamiento IP.
Según el modelo, los conmutadores ofrecen interfaces internas de 1 Gbit/s o 10 Gbit/s hacia los blades en el chasis. La serie PowerConnect M con "-k" en el nombre del modelo ofrece conexiones internas de 10 Gb utilizando el estándar 10GBASE-KR . Las interfaces externas están pensadas principalmente para utilizarse como enlaces ascendentes o interfaces de apilamiento, pero también se pueden utilizar para conectar servidores que no sean blades a la red.
En el nivel de enlace, los conmutadores PCM admiten la agregación de enlaces : tanto LAG estáticos como LACP. Como todos los conmutadores PowerConnect, los conmutadores ejecutan RSTP como protocolo de árbol de expansión , pero también es posible ejecutar MSTP o árbol de expansión múltiple. Los puertos internos hacia los blades están configurados de forma predeterminada como puertos de borde o "portfast". Otra característica es el uso de dependencia de enlaces. Por ejemplo, se puede configurar el switch para que todos los puertos internos de los blades se apaguen cuando el switch queda aislado porque pierde su enlace ascendente con el resto de la red.
Todos los switches PCM se pueden configurar como switches de capa 2 puros o se pueden configurar para que realicen todo el enrutamiento: tanto el enrutamiento entre las VLAN configuradas como el enrutamiento externo. Además de las rutas estáticas, los switches también admiten el enrutamiento OSPF y RIP . Cuando se utiliza el switch como switch de enrutamiento, es necesario configurar las interfaces VLAN y asignar una dirección IP a esa interfaz VLAN: no es posible asignar una dirección IP directamente a una interfaz física.
[23]

Apilado

Todos los switches blade PowerConnect, excepto el PC-M8024 original , se pueden apilar. Para apilar el nuevo switch PC-M8024-k, los switches deben ejecutar la versión de firmware 4.2 o superior. [27] En principio, solo se pueden apilar switches de la misma familia; por lo tanto, se pueden apilar varios PCM6220 juntos o varios PCM8024-k. La única excepción es la capacidad de apilar el blade PCM6348 junto con el switch de rack PCT7024 o PCT7048. Las pilas pueden contener varios switches dentro de un chasis M1000e, pero también se pueden apilar switches de diferentes chasis para formar un switch lógico. [28]

Interruptores Force10

Conmutador MXL 10/40 Gb

En el Dell Interop 2012 en Las Vegas, Dell anunció el primer conmutador blade basado en FTOS : el conmutador blade Force10 MXL 10/40Gpbs y, posteriormente, un concentrador de 10/40 Gbit/s. El FTOS MXL 40 Gb se presentó el 19 de julio de 2012. [29] El MXL proporciona 32 enlaces internos de 10 Gbit/s (2 puertos por blade en el chasis), dos puertos QSFP+ de 40 Gbit/s y dos ranuras de expansión vacías que permiten un máximo de 4 puertos QSFP+ de 40 Gbit/s adicionales u 8 puertos de 10 Gbit/s. Cada puerto QSFP+ se puede utilizar para un enlace ascendente de conmutador a conmutador (pila) de 40 Gbit/s o, con un cable de conexión, 4 enlaces de 10 Gbit/s. Dell ofrece cables de conexión directa con una interfaz QSFP+ en un extremo y 4 x SFP+ en el otro extremo o un transceptor QSFP+ en un extremo y 4 pares de fibra óptica para conectar a transceptores SFP+ en el otro lado. Se pueden apilar hasta seis conmutadores blade MXL en un conmutador lógico.

Además del módulo QSFP 2x40 mencionado anteriormente, el MXL también admite un módulo SFP+ 4x10 Gb y un módulo 4x10GbaseT. Todos los módulos de extensión Ethernet para el MXL también se pueden utilizar para la serie N4000 basada en bastidor (anteriormente, conector de alimentación 8100).

Los conmutadores MXL también admiten Fibre Channel over Ethernet, de modo que los servidores blade con una tarjeta Mezzanine de adaptador de red convergente se pueden utilizar tanto para datos como para almacenamiento mediante un sistema de almacenamiento Fibre Channel. El conmutador blade MXL de 10/40 Gbit/s ejecutará FTOS [30] y, por ello, será el primer producto de E/S M1000e sin una interfaz gráfica de usuario web . El MXL puede reenviar el tráfico FCoE a un conmutador ascendente o, mediante un módulo FC de 8 Gb y 4 puertos, realizar la función FCF, conectando el MXL a un conmutador FC completo o directamente a una SAN FC.

Agregador de E/S

En octubre de 2012, Dell también lanzó el Agregador de E/S para el chasis M1000e que se ejecuta en FTOS . El Agregador de E/S ofrece 32 puertos internos de 10 Gb hacia los blades y dos enlaces ascendentes QSFP+ de 40 Gbit/s estándar y ofrece dos ranuras de extensión. Según los requisitos de cada uno, se pueden obtener módulos de extensión para puertos QSFP+ de 40 Gb, SFP+ de 10 Gb o interfaces de cobre de 1 a 10 GBaseT. Se pueden asignar hasta 16 enlaces ascendentes de 10 Gb a la capa de distribución o núcleo. El Agregador de E/S admite funciones FCoE y DCB ( puente de centro de datos ) [31]

Conmutadores Cisco

Dell también ofreció algunos conmutadores Cisco Catalyst para este gabinete blade. Cisco ofrece una gama de conmutadores para sistemas blade de los principales proveedores. Además del gabinete Dell M1000e, Cisco también ofrece conmutadores similares para gabinetes blade HP, FSC e IBM. [32]

Para el Dell M1000e hay dos gamas de modelos para conmutación Ethernet: (nota: Cisco también ofrece el Catalyst 3030, pero este conmutador es para el antiguo sistema blade de Generación 8 o Gen 9 , no para el gabinete M1000e actual [33] )

A partir de 2017, el único dispositivo de E/S de Cisco disponible para el chasis M1000e es el Nexus FEX [34]

Catalizador 3032

Catalyst 3032: un switch de capa 2 con 16 interfaces Ethernet internas y 4 externas de 1 Gb con una opción de ampliación a 8 interfaces externas de 1 Gb. Los puertos externos integrados son interfaces de cobre 10/100/1000 BaseT con un conector RJ45 y se pueden añadir hasta 4 puertos adicionales de 1 Gb utilizando las ranuras del módulo de extensión que ofrecen cada una 2 ranuras SFP para enlaces de fibra óptica o Twinax de 1 Gb. El Catalyst 3032 no ofrece apilamiento (conmutación de blade virtual) [35]

Catalizador 3130

Los conmutadores de la serie 3130 ofrecen 16 interfaces internas de 1 Gb hacia los servidores blade. Para las conexiones de enlace ascendente o externas hay dos opciones: el 3130G ofrece 4 ranuras RJ-45 10/100/1000BaseT integradas y dos bahías modulares que permiten hasta 4 ranuras SFP de 1 Gb mediante transceptores SFP o cables Twinax SFP. [36]

El 3130X también ofrece 4 conexiones externas 10/100/1000BaseT y dos módulos para enlaces ascendentes X2 de 10 Gb. [37]

Ambos switches 3130 ofrecen " apilamiento " o "conmutador blade virtual". Se pueden apilar hasta 8 switches Catalyst 3130 para que se comporten como un solo switch. Esto puede simplificar la administración de los switches y simplificar la topología (spanning tree) ya que los switches combinados son solo un switch para las consideraciones de spanning tree . También permite al administrador de red agregar enlaces ascendentes de unidades de switch físicamente diferentes en un enlace lógico. [35] Los switches 3130 vienen de serie con IP Base IOS que ofrece todas las capacidades de capa 2 y la capa 3 básica o de enrutamiento. Los usuarios pueden actualizar esta licencia básica a IP Services o IP Advanced agregando capacidades de enrutamiento adicionales como protocolos de enrutamiento EIGRP , OSPF o BGP4 , enrutamiento IPv6 y enrutamiento unicast y multicast basado en hardware. Estas características avanzadas están integradas en el IOS del switch, pero un usuario tiene que actualizar a la licencia IP (Advanced) Services para desbloquear estas opciones [38]

Extensor de tejido Nexus

Desde enero de 2013, Cisco y Dell ofrecen un Nexus Fabric Extender para el chasis M1000e: Nexus B22Dell. Estos FEX ya estaban disponibles para los sistemas blade de HP y Fujitsu, y ahora también hay un FEX para el sistema blade M1000e. El lanzamiento del B22Dell se produce aproximadamente 2,5 años después de la fecha inicialmente prevista y anunciada: un desacuerdo entre Dell y Cisco dio lugar a que Cisco detuviera el desarrollo del FEX para el M1000e en 2010. [39] Los clientes gestionan un FEX desde un conmutador Nexus serie 5500. [40]

Otras tarjetas de E/S

Un gabinete M1000e puede alojar hasta 6 conmutadores u otras tarjetas de E/S. Además de los conmutadores Ethernet como los conmutadores Powerconnect M-series, Force10 MXL y Cisco Catalyst 3100 mencionados anteriormente, los siguientes módulos de E/S están disponibles o se pueden utilizar en un gabinete Dell M1000e: [1] [41]

  • Los módulos de transferencia Ethernet llevan las interfaces internas del servidor a una interfaz externa en la parte posterior del gabinete. Hay módulos de transferencia para 1G, 10G-XAUI [42] y 10G 10GbaseXR. [43] Todos los módulos de transferencia ofrecen 16 interfaces internas vinculadas a 16 puertos externos en el módulo.
  • Módulo de transferencia de canal de fibra Emulex de 4 u 8 Gb [1]
  • Conmutador FC Brocade 5424 de 8 Gb para red de área de almacenamiento basada en canal de fibra
  • Brocade M6505. Conmutador FC de 16 Gb [44]
  • Agregador de puertos NPIV de canal de fibra de 4 u 8 Gb de Dell
  • Mellanox 2401G y 4001F/Q: módulos InfiniBand de velocidad de datos dual o cuádruple para informática de alto rendimiento
  • Infiniscale 4: conmutador Infiniband de 16 puertos y 40 Gb [45]
  • Conmutador Cisco M7000e Infiniband con 8 puertos DDR externos
  • El siguiente conmutador Powerconnect 8428-k con 4 interfaces de canal de fibra de 8 Gb "nativas":

PCM 8428-k FCoE de Brocade

Aunque el PCM8024-k y el conmutador MXL admiten Fibre Channel over Ethernet, no es un conmutador FCoE "nativo": no tiene interfaces Fibre Channel. Estos conmutadores deben conectarse a un conmutador FCoE "nativo", como el Powerconnect B-series 8000e (igual que un conmutador Brocade 8000) o un conmutador Cisco Nexus serie 5000 con interfaces de canal de fibra (y licencias). El PCM8428 es el único conmutador con capacidad total para Fibre Channel over Ethernet para el gabinete M1000e que ofrece 16 interfaces internas Ethernet de 10 Gb mejoradas, 8 puertos externos Ethernet de 10 Gb (mejorados) y también hasta cuatro interfaces Fibre Channel de 8 Gb para conectarse directamente a un controlador SAN FC o un conmutador Fibre Channel central.
El conmutador ejecuta el firmware Brocade FC para la estructura y el conmutador de canal de fibra y el sistema operativo Foundry para la configuración del conmutador Ethernet. [46] En cuanto a capacidades, es muy comparable al Powerconnect-B8000, solo el factor de forma y el número de interfaces Ethernet y FC son diferentes. [1] [47]

PowerConnect M5424 / Brocade 5424

Este es un conmutador Brocade con canal de fibra completo. Utiliza las estructuras B o C para conectar la tarjeta intermedia de canal de fibra en los servidores blade a la infraestructura de almacenamiento basada en FC. El M5424 ofrece 16 puertos internos que se conectan a las tarjetas intermedias de canal de fibra en los servidores blade y 8 puertos externos. De fábrica, solo los dos primeros puertos externos (17 y 18) tienen licencia: las conexiones adicionales requieren licencias adicionales de Dynamic Ports On Demand (DPOD). El conmutador funciona con un procesador PowerPC 440EPX a 667 MHz y 512 MB de memoria RAM DDR2 del sistema. Además, tiene 4 MB de memoria flash de arranque y 512 MB de memoria flash compacta integrada. [48]

Brocado M6505

Capacidades similares a las anteriores, pero que ofrecen 16 puertos FC de 16 Gb hacia el servidor mezzanine y 8 externos. La licencia estándar ofrece 12 conexiones que se pueden aumentar en 12 para admitir los 24 puertos. Velocidad de detección automática de 2, 4, 8 y 16 Gb. Ancho de banda total agregado de 384 GB [49]

Brocado 4424

Al igual que el 5424, el 4424 también es un dispositivo de E/S SAN de Brocade que ofrece 16 puertos internos y 8 externos. El conmutador admite velocidades de hasta 4 Gbit/s. En el momento de la entrega, 12 de los puertos tienen licencia para funcionar y, con licencias adicionales, se pueden habilitar los 24 puertos. El 4424 funciona con un procesador PowerPC 440GP a 333 MHz con una memoria de sistema SDRAM de 256 MB, una memoria flash de arranque de 4 MB y una memoria flash compacta de 256 MB. [50]

Infinibanda

Hay varios módulos disponibles que ofrecen conectividad Infiniband en el chasis M1000e. Infiniband ofrece conectividad intracomputadora de alto ancho de banda y baja latencia, como la que se requiere en clústeres de HPC académicos , grandes centros de datos empresariales y aplicaciones en la nube. [51] Existe el conmutador InfiniBand SFS M7000e de Cisco. El Cisco SFS ofrece 16 interfaces internas de "detección automática" para velocidad de datos (DDR) simple (10) (SDR) o doble (20 Gbit/s) y 8 puertos externos/de enlace ascendente DDR. La capacidad total de conmutación es de 960 Gbit/s [52]

Otras opciones son el Mellanox SwitchX M4001F y M4001Q [53] y el conmutador Infiniband Mellanox M2401G de 20 Gb para el gabinete M1000e [54].

Los conmutadores M4001 ofrecen conectividad de 40 GBit/s (M4001Q) o 56 Gbit/s (M4001F) y tienen 16 interfaces externas que utilizan puertos QSFP y 16 conexiones internas a la tarjeta Infiniband Mezzanine en los blades. Al igual que con todos los demás conmutadores que no se basan en Ethernet, solo se puede instalar en la estructura B o C del gabinete M1000e, ya que la estructura A se conecta a las NIC "en la placa base" de los blades y solo vienen como NIC Ethernet o Ethernet convergente.

El 2401G ofrece 24 puertos: 16 internos y 8 externos. A diferencia de los conmutadores M4001, en los que los puertos externos utilizan puertos QSFP para transceptores de fibra, el 2401 tiene interfaces de cable de cobre CX4 . La capacidad de conmutación del M2401 es de 960 Gbit/s [54].

El 4001, con 16 puertos internos y 16 externos a 40 o 56 Gbit/s, ofrece una capacidad de conmutación de 2,56 Tbit/s.

Módulos de paso a través

En algunas configuraciones, no se desea ni se necesita contar con capacidades de conmutación en el gabinete. Por ejemplo, si solo algunos de los servidores blade utilizan almacenamiento de canal de fibra, no se necesita un conmutador FC totalmente administrable: solo se desea poder conectar la interfaz FC "interna" del blade directamente a la infraestructura FC (existente). Un módulo de transferencia solo tiene capacidades de administración muy limitadas. Otras razones para elegir el módulo de transferencia en lugar de los "conmutadores de gabinete" podrían ser el deseo de que toda la conmutación se realice en una infraestructura de "un solo proveedor"; y si este no está disponible como un módulo M1000e (es decir, no es uno de los conmutadores de Dell Powerconnect, Dell Force10 o Cisco), se podría optar por módulos de transferencia:

  • Tarjeta de paso Gigabit Ethernet de 32 puertos 10/100/1000 Mbit/s: conecta 16 interfaces Ethernet internas (1 por blade) a un puerto de cobre RJ45 externo de 10/100/1000 Mbit/s [55]
  • La versión NIC de 10 Gb y 32 puertos admite 16 puertos internos de 10 Gb con 16 ranuras SFP+ externas
  • La versión CNA de 10 Gb y 32 puertos admite 16 puertos CNA internos de 10 Gb con 16 CNA externos [56]
  • Agregador de puertos NPIV de canal de fibra de 4 u 8 Gb de Dell
  • Intel/Qlogic ofrece un módulo de paso QDR Infiniband para el chasis Dell M1000e y una versión mezzanine del QLE7340 QDR IB HCA.

Manejo del recinto

Un gabinete M1000e ofrece varias formas de administración. El M1000e ofrece administración "fuera de banda": una VLAN dedicada (o incluso LAN física) para administración. Los módulos CMC en el gabinete ofrecen interfaces Ethernet de administración y no dependen de conexiones de red realizadas a través de conmutadores de E/S en el blade. Normalmente, se conectarían los enlaces Ethernet en el CMC evitando un conmutador en el gabinete. A menudo, se crea una LAN físicamente aislada para la administración, lo que permite el acceso de administración a todos los gabinetes incluso cuando toda la infraestructura está inactiva. Cada chasis M1000e puede albergar dos módulos CMC.

Cada gabinete puede tener uno o dos controladores CMC y, de manera predeterminada, se puede acceder a la interfaz web de CMC a través de https y SSH para acceder a la línea de comandos. También es posible acceder a la administración del gabinete a través de un puerto serial para acceder a la CLI o mediante un teclado, mouse y monitor locales a través del conmutador iKVM. Es posible conectar en cadena varios gabinetes M1000e.

Interfaz de gestión

Página principal de la Webgui de CMC

La siguiente información supone el uso de la interfaz web de la CMC M1000e, aunque todas las funciones también están disponibles a través del acceso CLI basado en texto. Para acceder al sistema de administración, se debe abrir la interfaz web de la CMC a través de https utilizando la dirección IP de administración fuera de banda de la CMC. Cuando el gabinete está en modo "autónomo", se obtendrá una descripción general de todo el sistema: la interfaz web ofrece una descripción general de cómo se ve el sistema en realidad, incluidos los LED de estado, etc. De manera predeterminada, la interfaz Ethernet de una tarjeta CMC obtendrá una dirección de un servidor DHCP, pero también es posible configurar una dirección IPv4 o IPv6 a través de la pantalla LED en la parte frontal del chasis. Una vez que se establece o se conoce la dirección IP, el operador puede acceder a la interfaz web utilizando la cuenta raíz predeterminada que viene incorporada de fábrica.

A través de la administración de CMC se pueden configurar las características relacionadas con el chasis: direcciones IP de administración, características de autenticación (lista de usuarios locales, utilizando RADIUS o servidor Tacacs), opciones de acceso (webgui, cli, enlace serial, KVM, etc.), registro de errores ( servidor syslog ), etc. A través de la interfaz CMC se pueden configurar los blades en el sistema y configurar el acceso de iDRAC a esos servidores. Una vez habilitado, se puede acceder a iDRAC (y con ello a la consola del servidor) a través de esta webgui o abriendo directamente la webgui de iDRAC.

Lo mismo se aplica a los módulos de E/S en la parte trasera del sistema: a través del CMC se puede asignar una dirección IP al módulo de E/S en una de las 6 ranuras y luego navegar a la interfaz gráfica de usuario de ese módulo (si hay una interfaz gráfica de usuario basada en web: los módulos de paso a través no administrados no ofrecerán una interfaz gráfica de usuario web ya que no hay nada que configurar).

Pantalla LCD

En la parte frontal del chasis hay una pequeña pantalla LCD oculta con 3 botones: un botón direccional de 4 direcciones que permite navegar por los menús de la pantalla y dos botones de "encendido/apagado" que funcionan como botón "Aceptar" o "Escape". La pantalla se puede utilizar para comprobar el estado del gabinete y los módulos que contiene: se pueden, por ejemplo, comprobar las alarmas activas en el sistema, obtener la dirección IP del CMC de KVM, comprobar los nombres de los sistemas, etc. Especialmente para un entorno en el que hay más gabinetes en un centro de datos, puede ser útil comprobar si se está trabajando en el gabinete correcto. A diferencia de los servidores en rack o en torre, los servidores individuales tienen un conjunto muy limitado de indicadores: un servidor blade tiene un LED de encendido y un LED de actividad de disco (local), pero no una pantalla LCD que ofrezca alarmas, nombres de host, etc. Tampoco hay LED para la actividad de E/S: todo esto se combina en esta pequeña pantalla que ofrece información sobre el gabinete y también sobre los servidores insertados, conmutadores, ventiladores, fuentes de alimentación, etc. La pantalla LCD también se puede utilizar para la configuración inicial de un chasis no configurado. Se puede utilizar la pantalla LCD para configurar el idioma de la interfaz y la dirección IP del CMC para una configuración posterior basada en CLI o web. [2] Durante el funcionamiento normal, la pantalla se puede "empujar" hacia el chasis y está principalmente oculta. Para utilizarla, se debe sacarla e inclinarla para leer la pantalla y tener acceso a los botones.

Blade 17: Gestión local de E/S

Un sistema blade no está realmente diseñado para la gestión local (in situ) y casi toda la comunicación con los módulos del gabinete y el gabinete mismo se realiza a través de la(s) tarjeta(s) "CMC" ubicada(s) en la parte posterior del gabinete. En la parte frontal del chasis, directamente adyacente al botón de encendido, se puede conectar un terminal local: un conector de monitor VGA estándar y dos conectores USB . Esta conexión se conoce dentro del sistema como "blade 17" y permite una interfaz local con las tarjetas de gestión CMC. [2]

Acceso remoto a iDRAC

Aparte del acceso normal a los servidores blade (por ejemplo, sesiones SSH a un sistema operativo basado en Linux, RDP a un sistema operativo basado en Windows, etc.), existen básicamente dos formas de administrar los servidores blade: a través de la función iDRAC o a través del conmutador iKVM. Cada servidor blade del gabinete viene con un iDRAC integrado que permite acceder a la consola a través de una conexión IP. El iDRAC en un servidor blade funciona de la misma manera que una tarjeta iDRAC en un servidor en rack o en torre: existe una red iDRAC especial para obtener acceso a la función iDRAC. En los servidores en rack o en torre, una interfaz Ethernet iDRAC dedicada se conecta a una LAN de administración. En los servidores blade funciona de la misma manera: a través del CMC se configura la instalación de iDRAC y el acceso al iDRAC de un blade NO está vinculado a ninguna de las NIC integradas: si todas las NIC del servidor estuvieran inactivas (por lo tanto, todas las NIC de la placa base y también las Mezzanine B y C), uno aún puede acceder al iDRAC.

iKVM: acceso remoto a consola

Aparte de eso, también se puede conectar un teclado, un ratón y un monitor directamente al servidor: en un rack o en un conmutador de torre se pueden conectar los dispositivos de E/S cuando se necesiten o se pueden conectar todos los servidores a un conmutador KVM . Lo mismo es posible con los servidores en un gabinete blade: a través del módulo iKVM opcional en un gabinete se puede acceder directamente a cada uno de los 16 blades. Es posible incluir el conmutador iKVM en una red existente de conmutadores KVM digitales o analógicos. El conmutador iKVM en el gabinete Dell es un conmutador Avocent y se puede conectar (conectar) el módulo iKVM a otros conmutadores KVM digitales como los conmutadores digitales Dell 2161 y 4161 o Avocent DSR. También es posible conectar el iKVM a conmutadores KVM analógicos como el Dell 2160AS o 180AS u otros conmutadores KVM Avocent (compatibles). [2] A diferencia del CMC, el conmutador iKVM no es redundante, pero como siempre se puede acceder a un servidor (también) a través de su iDRAC, cualquier interrupción del conmutador KVM no impide el acceso a la consola del servidor.

Direcciones flexibles

El gabinete M1000e ofrece la opción de direcciones flexibles. Esta característica permite a los administradores del sistema utilizar direcciones MAC dedicadas o fijas y nombres de dominio mundial (WWN) que están vinculados al chasis, la posición del blade y la ubicación de la interfaz de E/S. Permite a los administradores reemplazar físicamente un servidor blade y/o una tarjeta Mezzanine mientras que el sistema continuará utilizando las mismas direcciones MAC y/o WWN para ese blade sin la necesidad de cambiar manualmente ninguna dirección MAC o WWN y evitar el riesgo de introducir direcciones duplicadas: con direcciones flexibles, el sistema asignará una MAC/WWN globalmente única en función de la ubicación de esa interfaz en el chasis. Las direcciones flexibles se almacenan en una tarjeta SD que se inserta en el módulo CMC de un chasis y cuando se usa sobrescribe la dirección grabada en las interfaces de los blades en el sistema. [2]

Energía y refrigeración

El gabinete M1000e está diseñado, como la mayoría de los sistemas blade, para infraestructuras de TI que exigen alta disponibilidad. (Casi) todo en el gabinete admite operaciones redundantes: cada una de las 3 estructuras de E/S (A, B y C) admite dos conmutadores o tarjetas de paso y admite dos controladores CMC, aunque se puede ejecutar el chasis con solo un CMC. También la alimentación y la refrigeración son redundantes: el chasis admite hasta seis fuentes de alimentación y nueve unidades de ventilador. Todas las fuentes de alimentación y las unidades de ventilador se insertan desde la parte posterior y son intercambiables en caliente. [2] Las fuentes de alimentación se encuentran en la parte inferior del gabinete, mientras que las unidades de ventilador se encuentran al lado y entre los conmutadores o módulos de E/S. Cada fuente de alimentación es una fuente de alimentación de 2700 vatios y utiliza 208–240 V CA como voltaje de entrada. Un chasis puede funcionar con al menos dos fuentes de alimentación (configuración no redundante 2+0). Dependiendo de la redundancia requerida, se puede utilizar una configuración 2+2 o 3+3 (redundancia de entrada donde se conectaría cada grupo de suministros a dos fuentes de energía diferentes) o una configuración 3+1, 4+2 o 5+1, que brinda protección si una unidad de fuente de alimentación falla, pero no por la pérdida de un grupo de energía de CA completo [1].

Referencias

  1. ^ abcde Sitio web de Dell Especificaciones técnicas del M1000e, visitado el 10 de marzo de 2013
  2. ^ abcdefgh Sitio web de soporte técnico de Dell Manual del propietario de la M1000e, consultado el 26 de octubre de 2012
  3. ^ Guía de instalación de PowerEdge M1000e, revisión A05, páginas 47-51. Fecha: marzo de 2011. Consultado: 25 de enero de 2013
  4. ^ ab "Detalles sobre el servidor blade Dell PowerEdge M420". BladesMadeSimple.com . 22 de mayo de 2012. Consultado el 29 de enero de 2017 .
  5. ^ "Servidor blade Dell PowerEdge M420 - Dell". Dell.com . Consultado el 29 de enero de 2017 .
  6. ^ Sitio web de Dell: Especificaciones técnicas del Poweredge M630, visitado el 29 de agosto de 2016.
  7. ^ Folleto de especificaciones técnicas del PowerEdge M610, actualizado el 20 de diciembre de 2011
  8. ^ Especificaciones técnicas del Dell PowerEdge M610x, consultado el 20 de diciembre de 2011
  9. ^ Resumen de las especificaciones técnicas del Poweredge M620, visitado el 12 de junio de 2012
  10. ^ Sitio web de Dell que anuncia los servidores G12 con detalles sobre la virtualización Archivado el 14 de junio de 2012 en Wayback Machine , visitado el 12 de junio de 2012
  11. ^ Folleto de especificaciones técnicas del PowerEdge M710, consultado el 27 de junio de 2011
  12. ^ Especificaciones técnicas del Power Edge PowerEdge M710HD, consultado el 20 de diciembre de 2011
  13. ^ Sitio web de Dell: Especificaciones técnicas del Poweredge M820, visitado el 28 de julio de 2012
  14. ^ Especificaciones técnicas del M910, consultado el 20 de diciembre de 2011
  15. ^ Sitio web de Dell con especificaciones técnicas del blade M915, consultado el 20 de diciembre de 2011
  16. ^ Nota al pie: Excepto el PE M420, que solo admite una tarjeta Mezzanine: el servidor blade de un cuarto de altura PE M420 solo tiene una ranura Mezzanine B
  17. ^ Sitio de soporte de Dell con manuales de descripción general para el chasis M1000e, visitado el 27 de junio de 2011
  18. ^ Documento técnico sobre la instalación redundante de tarjetas SD en hipervisores, consultado el 19 de febrero de 2013
  19. ^ Especificaciones técnicas del conjunto de blades Equallogic PS M4110, consultado el 27 de septiembre de 2012
  20. ^ Hoja de datos de Dell para el PS-M4110, descargada: 2 de marzo de 2013
  21. ^ ab Uso del sistema M1000e con una placa base PHY AMCC QT2025 en una aplicación 10GBASE-KR, consultado el 12 de junio de 2012
  22. ^ ab Cómo encontrar la revisión del plano medio del M1000e, visitado el 19 de septiembre de 2012
  23. ^ ab Guía del usuario de PowerConnect M-series, firmware 4.x, marzo de 2011, consultado el 26 de junio de 2011
  24. ^ Sitio web de Dell: los switches blade PCM8024 disponibles no figuran como disponibles, 29 de diciembre de 2011
  25. ^ Sitio web de Dell PCM8024-k, visitado el 29 de diciembre de 2012
  26. ^ Página 6 de notas de la versión y más información incluida en el paquete de firmware PC 4.2.1.3, fecha de lanzamiento: 2 de febrero de 2012, descargado: 16 de febrero de 2012
  27. ^ Apilamiento de conmutadores PowerConnect 10G, diciembre de 2011. Consultado el 10 de marzo de 2013
  28. ^ Guía de configuración del usuario del PCM6348 [ enlace muerto permanente ] , descargado el 10 de marzo de 2013
  29. ^ Sitio web de la comunidad de Dell: Dell anuncia el conmutador F10 MXL, 24 de abril de 2012. Visitado el 18 de mayo de 2012
  30. ^ EWeek: Dell presenta un conmutador de red habilitado para 40 GbE [ enlace inactivo permanente ] , 24 de abril de 2012. Consultado el 18 de mayo de 2012
  31. ^ Sitio web de Dell: PowerEdge MI/O Aggregator, agosto de 2012. Visitado: 26 de octubre de 2012
  32. ^ Sitio web de Cisco: Soluciones integrales de E/S para servidores blade, visitado: 14 de abril de 2012
  33. ^ Catalyst 3032 para Dell, consultado el 14 de abril de 2012
  34. ^ Nexus FEX para M1000e, visitado el 2 de julio de 2017
  35. ^ ab Catalyst para Dell de un vistazo, consultado el 14 de abril de 2012
  36. ^ Sitio web de Dell Catalyst 3130G Archivado el 21 de junio de 2011 en Wayback Machine , visitado el 14 de abril de 2012
  37. ^ Sitio web de Dell sobre Catalyst 3130X Archivado el 21 de junio de 2011 en Wayback Machine , visitado el 14 de abril de 2012
  38. ^ Ficha técnica de Cisco sobre el Catalyst 3130, sección: software del 3130. Consultado: 14 de abril de 2012
  39. ^ Sitio web de TheRegister: Cisco corta el switch blade Nexus 4001d, 16 de febrero de 2010. Visitado: 10 de marzo de 2013
  40. ^ Ficha técnica de Cisco: Ficha técnica del extensor de red Cisco Nexus B22 Blade, 2013. Descargado: 10 de marzo de 2013
  41. ^ Manuales y documentos para PowerEdge M1000E [ enlace muerto permanente ‍ ] , visitado el 9 de marzo de 2013
  42. ^ Manual de usuario para el módulo de transferencia XAUI de 10 GbE [ enlace inactivo permanente ‍ ] , 2010, visitado: 10 de marzo de 2013
  43. ^ Manual de usuario para el passthrough de 10 Gb -k para M1000e [ enlace muerto permanente ‍ ] , 2011. Visitado: 10 de marzo de 2013
  44. ^ Brocade M6505 para chasis M1000e, visitado el 2 de julio de 2017
  45. ^ Guía del usuario de Infiniscal IV [ enlace muerto permanente ] , 2009. Descargado: 10 de marzo de 2013
  46. ^ Sitio web de Dell Especificaciones del conmutador convergente 10Gbe M8424, visitado el 12 de octubre de 2012
  47. ^ Detalles sobre el conmutador PC-B-8000, visitado el 18 de marzo de 2012
  48. ^ "Manual de referencia del hardware del módulo de E/S SAN del servidor blade Brocade M5424, septiembre de 2008" (PDF) . Support.Euro.Dell.com . Consultado el 12 de octubre de 2012 .
  49. ^ Descripción técnica del M6505, consultado el 2 de julio de 2017
  50. ^ Manual de Dell: Referencia de hardware del módulo de E/S SAN del servidor blade Brocade 4424, noviembre de 2007. Descargado: 12 de octubre de 2012
  51. ^ Noticias, NO: IDG, archivado desde el original el 10 de enero de 2017 , consultado el 13 de octubre de 2012
  52. ^ Ficha técnica de Cisco sobre el conmutador Infiniband SFS M7000e, marzo de 2008. Consultado: 12 de octubre de 2012
  53. ^ Guía del usuario de Melanox para los conmutadores Infiniband SwitcX M4001 M4001, noviembre de 2011. Consultado el 12 de octubre de 2012
  54. ^ Guía del usuario de Melanox para el conmutador Infiniband M2401, junio de 2008. Consultado el 12 de octubre de 2012
  55. ^ Sitio web de Dell Módulo de transferencia Gigabit para la serie M Archivado el 18 de diciembre de 2010 en Wayback Machine , visitado el 26 de junio de 2011
  56. ^ Especificaciones de transferencia de datos de 10 Gb, PDF, consultado el 27 de junio de 2011
Obtenido de "https://es.wikipedia.org/w/index.php?title=Dell_M1000e&oldid=1221443675"