[go: up one dir, main page]

RU209333U1 - HIGH DENSITY COMPUTING NODE - Google Patents

HIGH DENSITY COMPUTING NODE Download PDF

Info

Publication number
RU209333U1
RU209333U1 RU2021128505U RU2021128505U RU209333U1 RU 209333 U1 RU209333 U1 RU 209333U1 RU 2021128505 U RU2021128505 U RU 2021128505U RU 2021128505 U RU2021128505 U RU 2021128505U RU 209333 U1 RU209333 U1 RU 209333U1
Authority
RU
Russia
Prior art keywords
blade servers
communication devices
computing node
ports
density computing
Prior art date
Application number
RU2021128505U
Other languages
Russian (ru)
Inventor
Владимир Геннадиевич Басалов
Юрий Алексеевич Малых
Эдуард Геннадьевич Байков
Original Assignee
Российская Федерация, от имени которой выступает Государственная корпорация по атомной энергии "Росатом" (Госкорпорация "Росатом")
Федеральное государственное унитарное предприятие "Российский Федеральный ядерный центр - Всероссийский научно-исследовательский институт экспериментальной физики" (ФГУП "РФЯЦ-ВНИИЭФ")
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Российская Федерация, от имени которой выступает Государственная корпорация по атомной энергии "Росатом" (Госкорпорация "Росатом"), Федеральное государственное унитарное предприятие "Российский Федеральный ядерный центр - Всероссийский научно-исследовательский институт экспериментальной физики" (ФГУП "РФЯЦ-ВНИИЭФ") filed Critical Российская Федерация, от имени которой выступает Государственная корпорация по атомной энергии "Росатом" (Госкорпорация "Росатом")
Priority to RU2021128505U priority Critical patent/RU209333U1/en
Application granted granted Critical
Publication of RU209333U1 publication Critical patent/RU209333U1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F12/00Accessing, addressing or allocating within memory systems or architectures
    • G06F12/02Addressing or allocation; Relocation
    • G06F12/08Addressing or allocation; Relocation in hierarchically structured memory systems, e.g. virtual memory systems
    • G06F12/0802Addressing of a memory level in which the access to the desired data or data block requires associative addressing means, e.g. caches
    • G06F12/0806Multiuser, multiprocessor or multiprocessing cache systems
    • G06F12/0813Multiuser, multiprocessor or multiprocessing cache systems with a network or matrix configuration

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Mathematical Physics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Cooling Or The Like Of Electrical Apparatus (AREA)

Abstract

Полезная модель относится к области вычислительной техники и может быть использована при создании высокопроизводительных вычислительных систем (ВВС). Высокоплотный вычислительный узел содержит корпус высотой 4U, блейд-сервера, коммуникационные устройства и блоки питания. Корпус разделен на переднюю и заднюю секции информационной и электрической объединительными платами, блейд-сервера, устанавливаются в передней части корпуса, а коммуникационные устройства и блоки питания устанавливаются в задней части корпуса. Блейд-сервера и коммуникационные устройства с разных сторон подключаются к объединительным платам. Каждое коммуникационное устройство имеет три группы портов. Первыми группами портов коммуникационные устройства объединяются между собой по полносвязной топологии. Вторые группы портов коммуникационных устройств являются внешними выводами высокоплотного вычислительного узла, которые предназначены для объединения высокоплотных вычислительных узлов в единую высокопроизводительную вычислительную систему неограниченной производительности. К третьей группе портов каждого коммуникационного устройства подключены до двух соответствующих блейд-серверов. Блейд-сервера и коммуникационные устройства оборудованы контактной системой жидкостного охлаждения. Технический результат заключается в увеличении эффективности высокоплотного вычислительного узла. 5 ил.The utility model relates to the field of computer technology and can be used to create high-performance computing systems (HPC). The high-density computing node contains a 4U chassis, blade servers, communication devices, and power supplies. The chassis is divided into front and rear sections by information and electrical backplanes, the server blades are installed in the front of the chassis, and the communication devices and power supplies are installed in the back of the chassis. Blade servers and communication devices are connected from different sides to the backplanes. Each communication device has three groups of ports. The first groups of ports connect communication devices to each other in a fully connected topology. The second groups of ports of communication devices are external outputs of a high-density computing node, which are designed to combine high-density computing nodes into a single high-performance computing system of unlimited capacity. Up to two corresponding blade servers are connected to the third group of ports on each communication device. Blade servers and communication devices are equipped with a contact liquid cooling system. The technical result consists in increasing the efficiency of a high-density computing node. 5 ill.

Description

Полезная модель относится к области вычислительной техники и может быть использована при создании высокопроизводительных вычислительных систем (ВВС).The utility model relates to the field of computer technology and can be used to create high-performance computing systems (HPC).

Известна серверная платформа (вычислительный узел) (патент RU №2389058 приоритет от 07.08.2008, «Серверная платформа», автор Слепухин А.Ф.. МПК G06F 1/12, Н05К 7/20, опубликовано 10.05.2010 Бюл. №13), содержащая корпус, который разделен по направлению движения охлаждающего воздуха на переднюю и заднюю секции, с направляющими для блейд-серверов, блейд-серверы, блоки питания и вентиляторы воздушного охлаждения. Направляющие для блейд-серверов выполнены на части длины корпуса и расположены в его задней секции. Вентиляторы попарно объединены в охлаждающие модули и размещены в передней секции корпуса, свободной от направляющих. 10 двухпроцессорных блейд-серверов устанавливают с задней стороны корпуса внутрь его задней секции. Между блейд-серверами и охлаждающими модулями имеется свободная полость, выполняющая функцию воздушного коллектора. Блоки питания размещены над блейд-серверами таким образом, что названная полость гидравлически сообщается с пространством корпуса, в котором установлены блоки питания. На торцевых поверхностях блейд-серверов, обращенных наружу с задней секции корпуса, выполнены разъемы межинтерфейсного обмена. В стандартной 19 дюймовой телекоммуникационной стойке высотой 42 U размещается до восьми серверных платформ.Known server platform (computing node) (patent RU No. 2389058 priority dated 08/07/2008, "Server platform", author Slepukhin A.F.. IPC G06F 1/12, H05K 7/20, published on 10.05.2010 Bull. No. 13) , containing a chassis that is divided in the direction of cooling air into front and rear sections, with rails for blade servers, blade servers, power supplies, and air-cooling fans. Guides for blade servers are made on part of the length of the case and are located in its rear section. The fans are combined in pairs into cooling modules and placed in the front section of the case, free from guides. 10 dual-socket blade servers are installed from the back of the chassis inside the rear section of the chassis. Between the blade servers and cooling modules there is a free cavity that acts as an air collector. The power supplies are placed above the blade servers in such a way that said cavity is in fluid communication with the housing space in which the power supplies are installed. On the end surfaces of the blade servers, facing outward from the rear section of the case, connectors for inter-interface exchange are made. A standard 42 U 19" telecom rack accommodates up to eight server platforms.

Недостатками известного устройства является отсутствие в его составе коммуникационного оборудования обеспечивающего эффективный обмен информацией между блейд-серверами серверной платформы и необходимость использования дополнительного внешнего коммуникационного оборудования, применение в серверной платформе воздушного охлаждения не позволяет достичь высокой плотности размещения вычислительных ресурсов и хорошей энергоэффективности.The disadvantages of the known device are the lack of communication equipment in its composition that ensures efficient exchange of information between the blade servers of the server platform and the need to use additional external communication equipment, the use of air cooling in the server platform does not allow achieving a high density of computing resources and good energy efficiency.

Известна блейд-система (высокоплотный вычислительный узел) 8U SuperBlade SBE-820C производства фирмы Supermicro (8U SuperBlade User's Manual revision 1.2a, опубликовано 24.10.2018. https://www.supermicro.com/manuals/superblade/MNL-SuperBlade_8U.pdf). Блейд-система SuperBlade SBE-820C содержит корпус, в котором установлены подсистема электропитания, подсистема воздушного охлаждения и коммуникационная подсистема, объединяющая от 2 до 20 блейд-серверов. Коммуникационная подсистема использует коммуникационное оборудование. состоящее из двух типов коммуникационных устройств: 40 портовый коммутатор InfiniBand и канальные адаптеры Mellanox ConnectX-4 или 44 - портовый коммутатор Intel Omni-Path и канальные адаптеры Intel Omni-Path Wolfriver. В стандартной 19 дюймовой телекоммуникационной стойке высотой 42 U размещается до 5 блейд-еистем.Known blade system (high-density computing node) 8U SuperBlade SBE-820C manufactured by Supermicro (8U SuperBlade User's Manual revision 1.2a, published 10/24/2018. https://www.supermicro.com/manuals/superblade/MNL-SuperBlade_8U.pdf ). The SuperBlade SBE-820C blade system contains a chassis that contains a power supply subsystem, an air cooling subsystem and a communication subsystem that combines from 2 to 20 blade servers. The communication subsystem uses the communication hardware. consisting of two types of communication devices: a 40-port InfiniBand switch and Mellanox ConnectX-4 channel adapters or a 44-port Intel Omni-Path switch and Intel Omni-Path Wolfriver channel adapters. A standard 42 U 19" telecom rack accommodates up to 5 blade systems.

Недостатками известной блейд-системы являются: значение средней дистанции коммуникационной сети блейд-системы, равное двум хопам, сообщение проходит минимум три коммуникационных устройства, что приводит к увеличению задержки при передаче сообщений: использование в коммуникационной подсистеме двух разных типов коммуникационных устройств: коммутатора и адаптера, неисправность многопортового коммутатора приводит к выходу из строя всей блейд-системы; применение воздушного охлаждения, что увеличивает энергопотребление и уровень шума.The disadvantages of the known blade system are: the value of the average distance of the communication network of the blade system is two hops, the message passes at least three communication devices, which leads to an increase in the delay in message transmission: the use of two different types of communication devices in the communication subsystem: a switch and an adapter, failure of a multiport switch leads to failure of the entire blade system; the use of air cooling, which increases energy consumption and noise level.

Наиболее близким аналогом, по совокупности существенных признаков, к заявляемой полезной модели является блейд-система ТС4600Е-LX, разработанная китайской компанией Sugon (Sugon TC4600E-LC: Обновленная блейд-система с СЖО, опубликовано 20.11.2015, http://hpc-lc.ru/news/sugon_tc4600e__liquid_blade_rack).The closest analogue, in terms of essential features, to the claimed utility model is the TC4600E-LX blade system developed by the Chinese company Sugon (Sugon TC4600E-LC: Updated blade system with LSS, published on 11/20/2015, http://hpc-lc .ru/news/sugon_tc4600e__liquid_blade_rack).

Блейд-система TC4600E-LC содержит корпус, в котором установлены подсистема электропитания, подсистема гибридного охлаждения, коммуникационная подсистема и могут быть размещены 10 блейд-серверов или 5 гетерогенных лезвий плюс 10 GPU или Intel Xeon Phi ускорителей. Коммуникационная подсистема использует коммуникационное оборудование, состоящее из двух типов коммуникационных устройств: 36-или 40- портовый коммутатор InfiniBand и канальные адаптеры Mellanox ConnectX-4. Высота блейд-системы TC4600E-LC составляет 6U и в стандартной стойке высотой 42 U размещается до 6 блейд-систем. В гибридной системе охлаждения водой охлаждают только блейд-сервера, а для остальных частей блейд-системы используется воздушное охлаждение.The TC4600E-LC blade system contains a chassis that houses the power subsystem, hybrid cooling subsystem, communication subsystem and can accommodate 10 blade servers or 5 heterogeneous blades plus 10 GPUs or Intel Xeon Phi accelerators. The communication subsystem uses communication hardware consisting of two types of communication devices: a 36 or 40 port InfiniBand switch and Mellanox ConnectX-4 channel adapters. The TC4600E-LC Blade System is 6U high and can accommodate up to 6 blade systems in a standard 42U rack. In a hybrid cooling system, only the blade servers are cooled with water, while air cooling is used for the rest of the blade system.

Недостатками данного устройства являются: значение средней дистанции коммуникационной сети блейд-системы, равное двум хопам: использование в коммуникационной подсистеме двух разных типов коммуникационных устройств: коммутатора и адаптера, неисправность многопортового коммутатора приводит к выходу из строя всей блейд-системы: применение воздушного охлаждения коммуникационного оборудования приводит к уменьшению плотности компоновки.The disadvantages of this device are: the value of the average distance of the communication network of the blade system, equal to two hops; the use of two different types of communication devices in the communication subsystem: a switch and an adapter; leads to a decrease in the packing density.

Технической проблемой, на решение которой направлена заявляемая полезная модель, является создание отказоустойчивого высокоплотного вычислительного узла, высотой 4U, обеспечивающего размещение до 16 блейд-серверов, каждый из которых содержит N процессоров, где N = 1, 2, … и оперативную память. Значение средней дистанции передачи сообщений между блейд-серверами одного высокоплотного вычислительного узла не должно превышать одного хопа.The technical problem to be solved by the claimed utility model is the creation of a fault-tolerant high-density computing node, 4U high, providing accommodation for up to 16 blade servers, each of which contains N processors, where N = 1, 2, ... and RAM. The value of the average message transfer distance between the blade servers of one high-density computing node should not exceed one hop.

Технический результат заключается в увеличении эффективности высокоплотного вычислительного узла за счет уменьшения значения средней дистанции коммуникационной сети высокоплотного вычислительного узла до одного хона и. следовательно, уменьшения задержки при передаче сообщений.The technical result consists in increasing the efficiency of a high-density computing node by reducing the value of the average distance of the communication network of a high-density computing node to one hone and. hence, reducing the delay in the transmission of messages.

Данный технический результат достигается тем, что в высокоплотном вычислительном узле, содержащем корпус, блоки питания, систему охлаждения, коммуникационные устройства и блейд-серверы, каждый из которых содержит N процессоров, где N = 1, 2, … и оперативную память, при этом блоки питания подключены к соответствующим блейд-серверам и коммуникационным устройствам, новым является то, что корпус разделен на переднюю и заднюю секции информационной и электрической объединительными платами, при этом в передней секции корпуса установлены направляющие для блейд-серверов и блейд-сервера, а в задней секции установлены коммутационные устройства, выполненные на базе малопортовых, полноматричных комму таторов и объединенные между собой через информационную объединительную плату первыми группами портов по полносвязной топологии, вторые группы портов коммуникационных устройств являются внешними выводами высокоплотного вычислительного узла, а к третьей группе портов каждого коммуникационного устройства через информационную объединительную плату подключены до двух соответствующих блейд-серверов, при этом система охлаждения выполнена с использованием контактной системы жидкостного охлаждения электронных компонент блейд-серверов и коммуникационных устройств.This technical result is achieved by the fact that in a high-density computing node containing a housing, power supplies, a cooling system, communication devices and blade servers, each of which contains N processors, where N = 1, 2, ... and RAM, while blocks power supplies are connected to the respective blade servers and communication devices, what is new is that the chassis is divided into front and rear sections by information and electrical backplanes, while rails for blade servers and blade server are installed in the front section of the chassis, and rails for the blade servers and the blade server are installed in the rear section switching devices are installed, made on the basis of low-port, full-matrix switches and interconnected through an information backplane by the first groups of ports in a fully connected topology, the second groups of ports of communication devices are external outputs of a high-density computing node, and to the third group of ports of each communication device up to two corresponding blade servers are connected through the information backplane, while the cooling system is made using a contact liquid cooling system for the electronic components of the blade servers and communication devices.

В заявляемом высокоплотном вычислительном узле за счет соединения коммуникационных устройств и соответствующих им блейд-серверов между собой по полносвязной топологии («каждый с каждым») значение диаметра и средней дистанции коммуникационной сети уменьшается до одного хопа, что приводит к уменьшению задержки при передаче сообщений и в свою очередь к увеличению эффективности.In the inventive high-density computing node, due to the connection of communication devices and their corresponding blade servers to each other in a fully connected topology ("each with each"), the diameter and average distance of the communication network is reduced to one hop, which leads to a decrease in the delay in the transmission of messages and in in turn to increase efficiency.

Блейд-сервера и коммуникационные устройства оборудованы контактной системой жидкостного охлаждения. На наружных торцевых поверхностях каждого блейд-сервера и каждого коммуникационного устройства имеются по два быстроразъемных соединения для входа и выхода охлаждающей жидкости, которые обеспечивают защиту от протечек при подключении к внешней системе подачи и отвода жидкости.Blade servers and communication devices are equipped with a contact liquid cooling system. The outer end surfaces of each blade server and each communication device have two quick-disconnect connections for coolant inlet and outlet, which provide leakage protection when connected to an external fluid supply and drainage system.

Блоки питания размещены в задней части корпуса вдоль его стенок, справа и слева от коммуникационных устройств. Блоки питания могут выполняться в виде автономных модулей, каждый из которых имеет корпус с размещенными внутри него элементами питания и вытяжным вентилятором. Блоки питания подключаются к разъемам электрической объединительной платы.Power supplies are located in the back of the case along its walls, to the right and left of the communication devices. Power supplies can be made in the form of stand-alone modules, each of which has a housing with batteries placed inside it and an exhaust fan. The power supplies plug into the connectors on the electrical backplane.

Корпус высокоплотного вычислительного узла может быть выполнен со съемной крышкой и внутри корпуса размещены направленные вдоль его длины направляющие для устанавливаемых спереди блейд-серверов, а сзади коммуникационных устройств.The case of a high-density computing node can be made with a removable cover, and inside the case there are guides directed along its length for blade servers installed in front and communication devices at the back.

Блейд-сервера и коммуникационные устройства размещаются в корпусе вертикально, что упрощает независимое извлечение блейд-серверов и коммуникационных устройств из высокоплотного вычислительного узла для ремонтных работ, без остановки работы высокоплотного вычислительного узла.Blade servers and communications devices are placed vertically in the chassis, making it easy to independently remove blade servers and communications devices from the high-density compute node for repair work without shutting down the high-density compute node.

На фиг.1 представлен вид высокоплотного вычислительного узла спереди в изометрии. На фиг.2 представлен вид высокоплотного вычислительного узла сзади в изометрии. На фиг.3 представлен вид блейд-сервера высокоплотного вычислительного узла в изометрии. На фиг.4 представлен вид коммуникационного устройства высокоплотного вычислительного узла в изометрии. На фиг.5 приведена схема коммуникационной сети высокоплотного вычислительного узла.Figure 1 shows a front isometric view of a high-density computing node. Figure 2 shows a rear isometric view of a high-density computing node. Figure 3 shows an isometric view of a blade server of a high-density computing node. Figure 4 shows an isometric view of a communication device of a high-density computing node. Figure 5 shows a diagram of the communication network of a high-density computing node.

Высокоплотный вычислительный узел (фиг.1) содержит корпус 1 (показан прозрачным), который делится на переднюю 2 и заднюю 3 секции объединительными платами: информационной 4 и электрической 5. В передней секции 2 корпуса 1 установлены блейд-серверы 6. Снаружи передней секции 2 находится система подачи 7 охлаждающей жидкости к каждому блейд-серверу 6 и отвода 8 нагретого охладителя от блейд-серверов 6. Корпус ! высокоплотного вычислительного узла снабжен верхней крышкой 9.A high-density computing node (figure 1) contains a case 1 (shown transparent), which is divided into front 2 and rear 3 sections by backplanes: information 4 and electrical 5. Blade servers 6 are installed in the front section 2 of case 1. Outside the front section 2 there is a system for supplying 7 coolant to each blade server 6 and removing 8 the heated coolant from the blade servers 6. Chassis ! high-density computing node is equipped with a top cover 9.

Коммуникационные устройства (10) и блоки питания 11 (фиг.2) установлены в задней секции 3 высокоплотного вычислительного узла. Снаружи задней секции 3 находится система подачи 12 охлаждающей жидкости к коммуникационным устройствам 10 и отвода 13 нагретого охладителя от коммуникационных устройств 10.Communication devices (10) and power supplies 11 (figure 2) are installed in the rear section 3 of the high-density computing node. Outside the rear section 3 there is a system for supplying 12 coolant to the communication devices 10 and removing 13 the heated coolant from the communication devices 10.

Каждый блейд-сервер (фиг.3) содержит процессоры 14 и оперативную память 15, оборудованные контактной системой 16 жидкостного охлаждения. На материнской плате 17 блейд-сервера установлен информационный разъем 18, для подключения блейд-сервера к информационной объединительной плате 4 (на фиг.1), и соединительная плата с разъемом 19 для подключения к электрической объединительной плате 5 (на фиг.1). На наружных торцевых поверхностях блейд-сервера имеются по два быстроразъемных соединения 20 для входа и выхода охлаждающей жидкости, которые обеспечивают защиту от протечек при подключении к внешней системе подачи и отвода охлаждающей жидкости.Each blade server (figure 3) contains processors 14 and RAM 15, equipped with a contact system 16 liquid cooling. On the blade server motherboard 17, an information connector 18 is installed to connect the blade server to the information backplane 4 (in Fig. 1), and a connection board with a connector 19 to connect to the electrical backplane 5 (in Fig. 1). The outer end surfaces of the blade server have two quick connectors 20 each for coolant inlet and outlet, which provide leak protection when connected to an external coolant supply and discharge system.

Каждое коммуникационное устройство (фиг.4) содержит сверхбольшую интегральную схему (СБИС) малопортового, полноматричного коммутатора 21 и три приемопередатчика QSFP-DD 22, оборудованные контактной системой жидкостного охлаждения 23. На задней стороне платы 24 коммуникационного устройства установлен информационный разъем 25, с помощью которого коммуникационное устройство подключается к информационной объединительной плате 4 (на фиг.1) и разъем 26 для подключения к электрической объединительной плате 5 (на фиг.1). На наружных торцевых поверхностях коммуникационною устройства выполнены три отверстия 27, в которые выводятся разъемы приемопередатчиков QSFP-DD 22 и два быстроразъемных соединения 28 для входа и выхода жидкости, которые обеспечивают защиту от протечек при подключении к внешней системе подачи и отвода охлаждающей жидкости.Each communication device (figure 4) contains a very large-scale integrated circuit (VLSI) of a low-port, full-matrix switch 21 and three QSFP-DD 22 transceivers equipped with a contact liquid cooling system 23. An information connector 25 is installed on the back side of the board 24 of the communication device, with which the communication device is connected to the information backplane 4 (in Fig.1) and the connector 26 for connection to the electrical backplane 5 (in Fig.1). Three holes 27 are made on the outer end surfaces of the communication device, into which the connectors of the QSFP-DD 22 transceivers and two quick-disconnect connections 28 for the inlet and outlet of the liquid are made, which provide protection against leaks when connected to an external system for supplying and discharging coolant.

На фиг.5 приведена схема коммуникационной сети высокоплотного вычислительного узла, состоящая из восьми СБИС малопортового, полноматричного коммутатора 21.0 - 21.7. Каждый полноматричный коммутатор 21 имеет двенадцать портов разделенных на три группы. К первой группе портов относятся порты с номерами 1-7 (21) обеспечивающие объединение коммутаторов 21.0 - 21.7 высокоплотного вычислительного узла по топологии «каждый с каждым» со значениями диаметра и средней дистанцией коммуникационной сети равными одному хопу. Ко второй группе портов относятся порты с номерами 8, 9 и 10, отведены для внешней коммутации и позволяют через разъемы QSFP-DD 22 (на фиг.4) объединять высокоплотные вычислительные узлы между собой, создавая высокопроизводительные вычислительные системы. К третьей группе портов относятся порты с номерами 11 и 12, обеспечивающие передачу информации от коммутаторов 21.0 - 21.7 в блейд-сервера 6.0 - 6.12. Третья группа портов одного коммутатора могут подключаться либо к одному блейд-серверу, как например блейд-сервер 6.4, либо к двум разным блейд-серверам, как например блейд-серверы 6.2 и 6.3.Figure 5 shows a diagram of a communication network of a high-density computing node, consisting of eight VLSI low-port, full-matrix switch 21.0 - 21.7. Each full matrix switch 21 has twelve ports divided into three groups. The first group of ports includes ports with numbers 1-7 (21) providing the combination of switches 21.0 - 21.7 of a high-density computing node in the "each with each" topology with the diameter and average distance of the communication network equal to one hop. The second group of ports includes ports numbered 8, 9 and 10, set aside for external switching and allow through connectors QSFP-DD 22 (in Fig.4) to combine high-density computing nodes with each other, creating high-performance computing systems. The third group of ports includes ports numbered 11 and 12, which provide information transfer from switches 21.0 - 21.7 to blade servers 6.0 - 6.12. The third group of ports on the same switch can connect either to one blade server, such as the 6.4 blade server, or to two different blade servers, such as the 6.2 and 6.3 blade servers.

Высокоплотный вычислительный узел работает следующим образом.The high-density computing node operates as follows.

Высокоплотный вычислительный узел является базовым элементом при создании высокопроизводительных вычислительных систем любой производительности предназначенных для высокопроизводительных вычислений в промышленности и науке.A high-density computing node is a basic element in creating high-performance computing systems of any performance designed for high-performance computing in industry and science.

Высокоплотные вычислительные узлы устанавливают в стойку со стандартной высотой 42 U. В одной стойке размещается до десяти высокоплотных вычислительных узлов, которые объединяются кабелями через разъемы QSFP-DD 22 (на фиг.4). Блейд-серверы 6 и коммуникационные устройства 2 I подключаются к внешней системе подачи и отвода охлаждающей жидкости. Блоки питания подключаются к системе электроснабжения.High-density computing nodes are installed in a rack with a standard height of 42 U. Up to ten high-density computing nodes are placed in one rack, which are connected by cables through QSFP-DD 22 connectors (figure 4). Blade servers 6 and communication devices 2 I are connected to an external system for supplying and discharging coolant. Power supplies are connected to the power supply system.

Обмен информацией между процессами одного приложения, выполняющегося на процессорах расположенных в разных блейд-серверах. осуществляется следующим образом.The exchange of information between the processes of one application running on processors located in different blade servers. is carried out as follows.

Например, процесс А выполняется на процессоре блейд-сервера 6.0, а процесс Б па процессоре блейд-сервера 6.1. Передача информации из процесса А в процесс Б осуществляется следующим образом: из процессора блейд-сервера 6.0 информация передается в коммутатор 21.0 через порт 11, а затем из коммутатора 21.0 через порт 12 в процессор блейд-сервера 6.1. Маршрут передачи информации проходит только через одно коммуникационное ус гройство.For example, process A runs on a 6.0 blade server processor and process B runs on a 6.1 blade server processor. The transfer of information from process A to process B is carried out as follows: from the blade server processor 6.0, information is transmitted to the switch 21.0 through port 11, and then from the switch 21.0 through port 12 to the blade server processor 6.1. The information transfer route passes through only one communication device.

Процесс А выполняется на процессоре блейд-сервера 6.0, а процесс Б на процессоре блейд-сервера 6.6. Передача информации из процесса А в процесс Б осуществляется следующим образом: из процессора блейд-сервера 6.0 информация передается через порт 11 в коммутатор 21.0, затем через порт 3 коммутатора 21.0 пепедается в порт 1 коммутатора 21.3, а затем через порт 12 коммутатора 21.3 передается в процессор блейд-сервера 6.6. Маршрут передачи информации имеет дистанцию один хоп, и проходит через два коммуникационных устройства.Process A runs on a 6.0 blade server processor and process B runs on a 6.6 blade server processor. The transfer of information from process A to process B is carried out as follows: from the blade server processor 6.0, information is transmitted through port 11 to switch 21.0, then through port 3 of switch 21.0 it is transferred to port 1 of switch 21.3, and then through port 12 of switch 21.3 it is transferred to the processor blade servers 6.6. The information transfer path has a distance of one hop, and passes through two communication devices.

Процессы А и Б выполняются на процессорах блейд-серверов находящихся в разных высокоплотных вычислительных узлах. Передача информации из процесса А в процесс Б осуществляется следующим образом: из процессора блейд-сервера, расположенного в первом высокоплотном вычислительном узле, информация передается через соответствующий порт 11 или 12 в соответствующий коммутатор. Затем, в зависимости от топологии коммуникационной сети высокопроизводительной вычислительной системы, через порты 8, 9 или 10 этого коммутатора информация передается в порты 8, 9 или 10 смежного коммутатора, расположенного во втором высокоплотном вычислительном узле. Затем через порты 11 или 12 смежного коммутатора передается в процессор блейд-сервера расположенного во втором высокоплотном вычислительном узле.Processes A and B run on blade server processors located in different high-density computing nodes. The transfer of information from process A to process B is carried out as follows: from the blade server processor located in the first high-density computing node, information is transmitted through the corresponding port 11 or 12 to the corresponding switch. Then, depending on the topology of the communication network of a high-performance computing system, through ports 8, 9 or 10 of this switch, information is transmitted to ports 8, 9 or 10 of an adjacent switch located in the second high-density computing node. Then, through ports 11 or 12 of the adjacent switch, it is transmitted to the blade server processor located in the second high-density computing node.

Claims (1)

Высокоплотный вычислительный узел, содержащий корпус, блоки питания, систему охлаждения, коммуникационные устройства и блейд-сервера, каждый из которых содержит N процессоров, где N = 1, 2, … и оперативную память, при этом блоки питания подключены к соответствующим блейд-серверам и коммуникационным устройствам, отличающийся тем, что корпус разделен на переднюю и заднюю секции информационной и электрической объединительными платами, при этом в передней секции корпуса установлены направляющие для блейд-серверов и идентичные блейд-серверы, а в задней секции установлены коммутационные устройства, выполненные на базе малопортовых, полноматричных коммутаторов и объединенные между собой через информационную объединительную плату первыми группами портов по полносвязной топологии, вторые группы портов коммуникационных устройств являются внешними выводами высокоплотного вычислительного узла, а к третьей группе портов каждого коммуникационного устройства через информационную объединительную плату подключены до двух соответствующих блейд-серверов, при этом система охлаждения выполнена с использованием контактной системы жидкостного охлаждения электронных компонент блейд-серверов и коммуникационных устройств.A high-density computing node containing a chassis, power supplies, a cooling system, communication devices and blade servers, each of which contains N processors, where N = 1, 2, ... and RAM, while the power supplies are connected to the corresponding blade servers and communication devices, characterized in that the case is divided into front and rear sections by information and electrical backplanes, while in the front section of the case there are guides for blade servers and identical blade servers, and in the rear section there are switching devices made on the basis of low-port , full-matrix switches and interconnected through an information backplane by the first groups of ports in a fully connected topology, the second groups of ports of communication devices are external outputs of a high-density computing node, and to the third group of ports of each communication device through an information backplane up to two corresponding blade servers are connected, while the cooling system is made using a contact liquid cooling system for the electronic components of the blade servers and communication devices.
RU2021128505U 2021-09-27 2021-09-27 HIGH DENSITY COMPUTING NODE RU209333U1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
RU2021128505U RU209333U1 (en) 2021-09-27 2021-09-27 HIGH DENSITY COMPUTING NODE

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
RU2021128505U RU209333U1 (en) 2021-09-27 2021-09-27 HIGH DENSITY COMPUTING NODE

Publications (1)

Publication Number Publication Date
RU209333U1 true RU209333U1 (en) 2022-03-15

Family

ID=80737488

Family Applications (1)

Application Number Title Priority Date Filing Date
RU2021128505U RU209333U1 (en) 2021-09-27 2021-09-27 HIGH DENSITY COMPUTING NODE

Country Status (1)

Country Link
RU (1) RU209333U1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050015430A1 (en) * 2003-06-25 2005-01-20 Rothman Michael A. OS agnostic resource sharing across multiple computing platforms
US6985357B2 (en) * 2003-08-28 2006-01-10 Galactic Computing Corporation Bvi/Bc Computing housing for blade server with network switch
US20080266813A1 (en) * 2005-11-18 2008-10-30 International Business Machines Corporation Blade Server Assembly
RU2389058C2 (en) * 2008-06-07 2010-05-10 Открытое акционерное общество "Т-Платформы" Server platform

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050015430A1 (en) * 2003-06-25 2005-01-20 Rothman Michael A. OS agnostic resource sharing across multiple computing platforms
US6985357B2 (en) * 2003-08-28 2006-01-10 Galactic Computing Corporation Bvi/Bc Computing housing for blade server with network switch
US20080266813A1 (en) * 2005-11-18 2008-10-30 International Business Machines Corporation Blade Server Assembly
RU2389058C2 (en) * 2008-06-07 2010-05-10 Открытое акционерное общество "Т-Платформы" Server platform

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Tiffany Trader "Sugon VP on Global Market Strategy, the VMware Venture and Robotic Immersive Cooling", опубл. 18.11.2015 на 2 страницах [прототип], размещено в Интернет по адресу URL:https://www.hpcwire.com/2015/11/18/sugon-vp-on-global-market-strategy-the-vmware-venture-and-robotic-immersive-cooling/. *

Similar Documents

Publication Publication Date Title
US6611428B1 (en) Cabinet for cooling electronic modules
US9277680B2 (en) Blade computer system
US8411440B2 (en) Cooled universal hardware platform
KR102126141B1 (en) Fanless chillerless liquid-gas cooling for electronic racks of IT components in the data center
US8259450B2 (en) Mobile universal hardware platform
WO2009017536A1 (en) A blade cooling system using wet and dry heat sinks
CN111031770B (en) Server cabinet and heat exchange equipment cabinet for server
WO2012012611A2 (en) Architecture for a computing system
US10842040B2 (en) Flexible and adaptable computing system infrastructure
US20120020349A1 (en) Architecture for a robust computing system
EP3069587B1 (en) Modular super-calculation architecture
CN201282471Y (en) Cluster type server application device
EP4546020A1 (en) Liquid cooling structure of optical module, and optical module
CN119719004B (en) Server
WO2021230525A1 (en) Highly efficient heat pipe cooling system
RU209333U1 (en) HIGH DENSITY COMPUTING NODE
CN210183766U (en) An all-in-one cabinet
CN103605413A (en) Rack-mounted server system cabinet, rack-mounted server system and management method thereof
CN219628246U (en) Improve space utilization's server liquid cooling rack
CN118567443A (en) Server and server cabinet
CN118413977A (en) Switch node and cabinet server
CN217563971U (en) Liquid-cooled container system
JP2013069087A (en) Mounting structure of electronic component
JP2016057997A (en) Electric communication computing module capable of housing printed circuit board
JP3195481U (en) Telecommunications computing module capable of accommodating printed circuit boards