Pregunta ¿Te saltas una unidad de rack entre servidores?


Parece que hay mucha discrepancia en la mentalidad cuando se trata de instalar servidores en rack. Ha habido discusiones sobre cables de cable y otros accesorios de montaje en rack, pero tengo curiosidad:

¿Deja una unidad de rack vacía entre sus servidores cuando los instala? ¿Por qué o por qué no? ¿Tiene alguna evidencia empírica para apoyar sus ideas? ¿Alguien está al tanto de un estudio que demuestre de manera concluyente si uno es mejor o no?


67
2018-06-18 00:09


origen




Respuestas:


Si sus servidores utilizan la refrigeración de flujo frontal a inverso, como hacen la mayoría de los servidores montados en bastidor, dejar huecos puede dañar la refrigeración. No desea que el aire frío tenga ninguna forma de llegar al pasillo caliente, excepto a través del propio servidor. Si necesita dejar huecos (por cuestiones de energía, problemas de peso del piso, etc.), debe usar paneles ciegos para que el aire no pase entre los servidores.


81
2018-06-18 01:17



Sí, si deja un espacio, debe llenarlo con un panel para evitarlo. - Thomas
= 1. los servidores de montaje en bastidor y los bastidores están diseñados para el flujo de aire con todos los paneles y los paneles y todos los u llenos. Al igual que el flujo de aire en una PC, está diseñado para tener todas las cubiertas. Eludir el diseño al dejar huecos y / o quitar paneles y cubiertas es probable que haga más daño que beneficio. - joeqwerty


Nunca he saltado las unidades de rack entre dispositivos montados en rack en un gabinete. Si un fabricante me diera instrucciones para omitir las U entre dispositivos, lo haría, pero nunca he visto una recomendación de este tipo.

Espero que cualquier dispositivo diseñado para el montaje en rack agote su calor a través de los paneles frontal o posterior. Se va a conducir algo de calor a través de los rieles y la parte superior e inferior del chasis, pero espero que sea muy pequeño en comparación con la radiación de la parte delantera y trasera.


23
2018-06-18 00:17



De hecho, si está saltando unidades de rack, necesita usar cubiertas entre cada servidor, de lo contrario obtendrá aire mezclado entre los pasillos alto y frío. - Doug Luxem


En nuestro centro de datos no dejamos vacíos. Tenemos aire fresco saliendo del piso y las brechas causan problemas en el flujo de aire. Si tenemos un hueco por alguna razón, lo cubrimos con una placa en blanco. La adición de placas en blanco inmediatamente hizo que las partes superiores de nuestros pasillos fríos se enfriaran y nuestros pasillos calientes se calentaran.

No creo que ya tenga los datos o los gráficos, pero la diferencia fue muy clara en cuanto comenzamos a hacer cambios. Los servidores en la parte superior de los racks dejaron de sobrecalentarse. Dejamos de cocinar las fuentes de alimentación (que hacíamos a una velocidad de aproximadamente 1 / semana). Sé que los cambios se iniciaron después de que nuestro gerente del centro de datos regresó de una exposición de centro de datos de Sun Green, donde participó en algunos seminarios sobre refrigeración y similares. Antes de esto, habíamos estado utilizando huecos y bastidores parcialmente llenos y azulejos perforados en el piso en la parte delantera y detrás de los bastidores.

Incluso con los brazos de administración en su lugar, eliminar las brechas ha funcionado mejor. Todas las temperaturas internas de nuestros servidores en todas partes de la sala están ahora bien dentro de las especificaciones. Este no fue el caso antes de estandarizar nuestra gestión de cables y eliminar las brechas, y de corregir nuestra colocación de baldosas. Nos gustaría hacer más para dirigir el aire caliente de regreso a las unidades CRAC, pero todavía no podemos obtener financiamiento.


20
2018-06-18 02:46





Yo no nos salto. Nosotros alquilamos y nos costará dinero.

No hay razón para el calor en estos días. Todo el aire fresco viene por delante y por detrás. Ya no hay orificios de ventilación en la parte superior.


9
2018-06-18 01:30



Re: "Nos cuesta dinero". Solía ​​pensar que el espacio era un factor importante en los precios de los centros de datos. Luego conseguí un trabajo en el sector de alojamiento, resulta que la mayoría de los costos en un entorno de Colo provienen de circuitos de alimentación y conexiones cruzadas. - JamesBarnett


Google no está dejando la U entre los servidores, y supongo que están preocupados por la gestión del calor. Siempre es interesante ver cómo los grandes jugadores hacen el trabajo. Aquí hay un video de uno de sus centros de datos: http://www.youtube.com/watch?v=zRwPSFpLX8I&feature=player_embedded

Ir directamente a 4:21 para ver sus servidores.


6
2018-06-18 10:54





No deje espacio si tiene aire fresco proveniente del piso y también use espacios en blanco en el espacio u utilizado. Si solo tiene un sistema de refrigeración de baja tecnología que utiliza una unidad de aire acondicionado estándar, es mejor dejar espacios para minimizar los puntos calientes cuando se agrupan los servidores activos.


5
2018-06-18 02:28



Si sus servidores utilizan el enfriamiento de los ventiladores de adelante hacia atrás, no es prudente dejar huecos, afectará el flujo de aire. - pauska


Tenemos 3 1/2 racks de nodos de clúster y su almacenamiento en una instalación de colocación. El único lugar donde hemos omitido las U es donde debemos enrutar el cableado de la red al bastidor central donde se encuentra el conmutador del núcleo central. Podemos permitirnos hacerlo en cuanto al espacio, ya que los racks ya tienen un máximo de potencia, por lo que no sería posible meter más nodos en ellos :)

Estas máquinas funcionan 24/7 con un 100% de CPU, y algunas de ellas tienen hasta 16 núcleos en una caja de 1U (4x Xeons de cuatro núcleos) y aún no he visto ningún efecto negativo de no dejar espacios entre la mayoría de ellas.

Mientras su equipo tenga una ruta de aire bien diseñada, no veo por qué importaría.


5
2018-06-18 01:34





Tengo espacios grandes por encima de mi UPS (para instalar una segunda batería en el futuro) y por encima de mi biblioteca de cintas (si necesito otra). Aparte de eso, no tengo huecos, y uso paneles para llenar espacios vacíos para preservar el flujo de aire.


5
2018-06-18 10:36





Cada tercio, pero eso se debe a brazos de gestión y la necesidad de trabajar alrededor de ellos en lugar de calor. El hecho de que esos servidores tienen cada uno 6 Los cables Cat5 que van a ellos no ayudan. Hacemos un uso intensivo de los paneles ciegos y las represas de aire en la parte superior de las rejillas para evitar la recirculación del pasillo caliente.

Además, una cosa que no nos falta en nuestro centro de datos es el espacio. Fue diseñado para la expansión cuando los servidores 7-10U eran estándar. Ahora que nos hemos ido con clústeres ESX de gran densidad de rack, es un pueblo fantasma.


3
2018-06-18 00:26



OK, 6 cables, veamos ... 2 interfaces de administración, 2 interfaces iscsi y 2 ... dedicadas al administrador de clústeres? - Matt Simmons
No uses brazos de administración y no tienes que saltar unidades. :) - Doug Luxem
6 cables: 1 tarjeta HP iLO, 1x ESX mgmt LUN, 4x VM Luns. Además, fibras para la SAN. No hemos ido iSCSI todavía. Si estuviéramos dispuestos a desvestir completamente los servidores antes de sacarlos, definitivamente nos iríamos sin los brazos. - sysadmin1138♦
Habiendo visto su centro de datos, tengo que preguntarme si configura las cosas en una configuración de pasillo frío tradicional de pasillo caliente, en lugar de dispersarse por su habitación gigante si obtendría un mejor rendimiento térmico. - Laura Thomas


No dejaría espacios entre los servidores, pero sí para cosas como los conmutadores de LAN. Esto me permite poner algunas barras de administración de cables de 1U por encima y por debajo ... pero definitivamente no está hecho para la refrigeración.


3
2017-09-08 03:26





No hay brechas, excepto cuando hemos sacado un servidor o algo más y no nos hemos molestado en reorganizar. Creo que somos un poco más pequeños que muchas personas aquí, con 2 bastidores que solo tienen unos 15 servidores, además de algunas unidades de cinta, conmutadores y UPS.


2
2018-06-18 05:11