InfiniBand: архитектура коммутации для серверов, запоминающих устройств и коммуникационных систем
Кевин Дайерлинг (Kevin Deierling), Mellanox Technologies
Технология InfiniBand это новейшая архитектура коммутируемой связи, предназначенная для подключения серверов, запоминающих устройств и систем связи. Она обладает уникальными возможностями с точки зрения построения стандартных каналов связи интегральных схем, электронных модулей и отдельных подсистем.
 
Технология InfiniBand снимает ограничения по вводу/выводу в современных серверных архитектурах и с успехом может использоваться во встраиваемых системах и телекоммуникационных приложениях. Впервые стандартная архитектура ввода/вывода массового применения позволяет расширять традиционные объединительные панели и внутриплатные шины за пределы физических разъемов и базовых средств связи хост-системы с периферийными устройствами.

Архитектура InfiniBand, при разработке которой с самого начала предъявлялись высокие требования по надежности, готовности и удобству обслуживания, обеспечивает создание надежных, упорядоченных, сквозных соединений транспортного уровня. В вышедшей в октябре 2000 года исчерпывающей спецификации сформулированы требования к ПО начальной загрузки, обнаружения устройств и управления, характеристики "горячей" замены и управления системной платы, а также функции аварийного переключения. Определены также программные интерфейсы уровня сокетов, обеспечивающие прозрачное взаимодействие с существующими коммуникационными приложениями и запоминающими системами.

Равная пропускная способность повсеместно

Среди главных достоинств архитектуры InfiniBand ее способность обеспечить за пределами сервера такую же производительность передачи данных, как и внутри него. Архитектура InfiniBand доставляет данные со скоростью 10 Гбит/с в любую точку коммутируемой структуры, на практике реализуя принцип "Равная пропускная способность повсеместно". Весь предыдущий опыт показывает, что чем дальше от центрального процессора расположен приемник, тем меньше производительность передачи данных. Этот феномен и тенденции проиллюстрированы на рис. 1. В 1998 году процессор Intel Pentium II имел производительность мирового класса, однако особенности вычислительной серверной архитектуры не выпускали эту производительность за рамки "внутренних нужд".


Рис.1 Технология InfiniBand сохраняет полосу пропускания на всём расстоянии от ЦП до удалённой точки информационного центра
 
Чем дальше приемник данных от процессора, тем ниже скорость передачи, падая на "краю" системы практически на порядок до 100 Мбит/с. В 1999 году появился еще более мощный процессор Pentium III, однако эта закономерность осталась такой же, какой и была. Пропускная способность с увеличением расстояния падает, и мощные вычислительные центры по-прежнему продолжают обмениваться информацией со скоростью 100 Мбит/с. В 2000 2001 году после появления Pentium 4 и существенного роста производительности всех подсистем вычислительного приложения ситуация тем не менее не изменилась: при удалении от центрального процессора к границе системы пропускная способность падает на порядок величины.

Архитектура InfiniBand меняет этот закон: скорость обмена данными между процессором и устройствами на границе системы, включая локальные и глобальные сети и запоминающие устройства, составляет 20 Гбит/с (агрегатная пропускная способность). Технология InfiniBand реализует на практике принцип "Равная пропускная способность повсеместно", обеспечивая одинаковую скорость передачи данных от процессора до внешних интерфейсов вычислительной системы. В 2003 году ожидается повышение агрегатной пропускной способности InfiniBand до 60 Гбит/с по линиям 12Х.

Архитектура InfiniBand

InfiniBand это архитектура коммутации соединений типа "точка-точка". Каждая линия связи представляет собой четырехпроводное двунаправленное соединение с пропускной способностью 2,5 Гбит/с в каждом направлении и гибким выбором физических линий передачи. В архитектуре InfiniBand определен многоуровневый протокол (физический, канальный, сетевой и транспортный уровни) для реализации аппаратными средствами, а также программный уровень для поддержки управляющих функций и скоростного обмена данными (с малыми задержками) между устройствами. Перечислим основные характеристики технологии InfiniBand:

  • возможность масштабирования пропускной способности линий связи до 30 Гбит/с в дуплексном режиме;
  • поддержка различных физических линий: печатных проводников (на объединительной панели), медных или оптоволоконных кабелей;
  • связь на базе коммутации пакетов с сохранением целостности данных и управлением потоком;
  • качество обслуживания;
  • реализованный аппаратно гибкий транспортный механизм;
  • оптимизированный программный интерфейс и удаленный прямой доступ в память (RDMA);
  • инфраструктура управления, поддерживающая функции отказоустойчивости, аварийного переключения и "горячей" замены.
В спецификации InfiniBand определен чрезвычайно гибкий и масштабируемый физический уровень, обеспечивающий возможности дальнейшего наращивания пропускной способности и добавления новых типов поддерживаемых физических линий. Его характеристики:

  • двунаправленный обмен сигналами со скоростями 2,5 Гбит/с (1Х), 10 Гбит/с (4Х) и 30 Гбит/с (12Х)*;
  • малое число требуемых физических проводников: всего 4, 16 или 48 проводников для линий 1Х, 4Х и 12Х;
  • встроенные тактовые импульсы со схемой кодирования 8В/10В без передачи сигналов по вспомогательному каналу;
  • объединение каналов связи на физическом уровне;
  • поддержка различных типов физических проводников: с медной жилой (для экономии) и с оптоволокном (на большие расстояния);
  • несложный физический уровень с малым потреблением энергии.
* Пропускная способность указана для 10-разрядных данных. При схеме кодирования 8В/10В к 8 разрядам данных добавляются дополнительные два разряда, необходимые для синхронизации. Таким образом, реальная пропускная способность линий InfiniBand составляет 2, 8 и 24 Гбит/с соответственно.

Применение схемы кодирования 8В/10В и встраивание тактовых импульсов в поток данных снижает требования, предъявляемые к прокладке проводников по объединительным панелям по сравнению с другими технологиями ввода/вывода с раздельными шинами данных и линиями передачи синхроимпульсов, когда расфазировка сигналов данных и синхроимпульсов может нарушить целостность сигнала и привести к ошибкам передачи.

Имеется возможность объединения нескольких линий InfiniBand на физическом уровне в один канал на основе технологии "расщепления последовательности байтов" (byte stripping) (рис. 2). Для канала 4Х это означает одновременную посылку четырех байтов по каждой отдельной линии InfiniBand (аналогично, двенадцати байтов по каждой линии в составе канала 12Х InfiniBand). Этот уникальный по своим возможностям механизм объединения на физическом уровне превосходит по своим характеристикам аналогичный механизм, реализованный в стандарте Ethernet 802.3ad. В данном случае объединенные линии всегда используются более эффективно.


Рис. 2. Сравнение объединенных линий InfiniBand и Gigabit Ethernet
 
Этого нельзя сказать про Ethernet, где параллельные линии могут использоваться лишь для одновременной пересылки пакетов (и только целиком) от разных источников. Тем самым предотвращается "вклинивание" маленьких пакетов в передачу больших с последующими нарушением порядка пакетов, повторными передачами и т.д. Таким образом, на практике объединение Ethernet-линий не приводит к ожидаемому повышению пропускной способности, поскольку параллельные линии используются в полную силу лишь 15 20% времени.

Другое достоинство архитектуры InfiniBand заключается в применении простой дифференциальной схемы обмена сигналами на физическом уровне. Эта схема отличается более высокой устойчивостью к помехам, целостностью сигналов и меньшей вероятностью ошибок передачи при гораздо меньшем потреблении энергии, чем более сложные формирователи физического уровня как, например, в Gigabit Ethernet. Поскольку длина InfiniBand-линий ограничена 17 метрами при использовании кабелей с медным проводом, неудивительно, что формирователи InfiniBand потребляют на порядок меньше мощности, чем формирователи Gigabit Ethernet, рассчитанные на линии связи длиной более 100 метров.

Столь низкий уровень потребления энергии формирователями InfiniBand обеспечивает более высокую степень объединения, чем может предложить Ethernet-коммутатор. Несколько производителей уже предлагают однокристальные интегральные InfiniBand-коммутаторы с 32-мя интегрированными приемопередатчиками с пропускной способностью 2,5 Гбит/с каждый. Таким образом, интегрированные InfiniBand-коммутаторы обеспечивают значительную экономию средств, пространства и энергии по сравнению с многокристальными устройствами для Gigabit Ethernet.

В основе построения системной сети (SAN) на базе InfiniBand лежат четыре типа основных системных компонентов, связанных друг с другом линиями InfiniBand (рис. 3):

  • канальный адаптер главного узла (НСА - Host Channel Adapter), который обеспечивают соединение центрального процессора главного узла со структурой InfiniBand и содержит аппаратные средства поддержки высокоэффективного защищенного обмена с системной памятью;
  • канальный адаптер целевого узла (ТСА - Target Channel Adapter), который обеспечивают соединение структуры InfiniBand с другими устройствами ввода/вывода типа Ethernet, Fibre Channel или запоминающими устройствами;
  • коммутатор, который обеспечивают пересылку пакетов в конечные точки по указанному адресу и с указанным качеством обслуживания;
  • маршрутизатор, который обеспечивают передачу пакетов между подсетями; Маршрутизаторы InfiniBand делят сеть InfiniBand на подсети и не являются источниками и приемниками никаких других пакетов, кроме управляющих.

Рис. 3. Основные компоненты SAN-сети на основе InfiniBand
 
В каждой подсети работает своя программа-менеджер подсети (SM Subnet Manager), который выполняет задачи обнаружения связной структуры, инициализации устройств и организации соединений. SM-менеджер может исполняться в хост-системе, коммутаторе и маршрутизаторе. В состав всех компонентов входит агент управления подсетью (SMA Subnet Management Agent), исполняющийся как клиент, выполняющий запросы SM-менеджера.

В InfiniBand определен весьма гибкий набор линий связи и механизмов транспортного уровня, обеспечивающий точную настройку характеристик SAN-сети на базе InfiniBand в зависимости от прикладных требований, в число которых входят:

  • пакеты переменного размера;
  • максимальный размер единицы передачи: 256, 512, 1К, 2К и 4К байт;
  • заголовки локальной трассы уровня 2 (LRH Local Route Header) для направления пакетов в нужный порт канального адаптера;
  • дополнительный заголовок уровня 3 для глобальной маршрутизации (GRH Global route header);
  • поддержка групповой передачи;
  • вариантные и инвариантные контрольные суммы (VCRC и ICRC) для обеспечения целостности данных.
Выбор максимального размера единицы передачи определяет такие характеристики системы, как неустойчивость синхронизации пакетов, величина накладных расходов на инкапсуляцию и длительность задержки, используемые при разработке систем с несколькими протоколами. Возможность опускать сведения о глобальном маршруте при пересылке в пункт назначения локальной подсети позволяет снижать издержки локального обмена данными. Код VCRC рассчитывается заново каждый раз при прохождении очередного звена канала связи, а код ICRC при получении пакета пунктом назначения, что гарантирует целостность передачи по звену и всему каналу связи.

В InfiniBand определены управление потоком на основе разрешений (для предотвращения блокировок головного пакета (head of line blocking) и потерь пакетов), управление потоком на канальном уровне и сквозное управление потоком. По своим возможностям управление на канальном уровне на основе разрешений превосходит широко распространенный протокол XON/XOFF, устраняя ограничения на максимальную дальность связи и обеспечивая лучшее использование линии связи. Приемный конец линии связи посылает передающему устройству разрешения с указанием объема данных, которые могут быть надежно получены. Данные не передаются до тех пор, пока приемник не пошлет разрешение, свидетельствующее о наличии свободного пространства в приемном буфере. Механизм передачи разрешений между устройствами встроен в протоколы соединений и линий связи для гарантии надежности управления потоком. Управление потоком на канальном уровне осуществляется для каждого виртуального канала отдельно, чем предотвращается распространение конфликтов передачи, свойственное другим технологиям типа Ethernet.

Качество обслуживания (QoS)

На канальном уровне в InfiniBand предусмотрено несколько сервисных уровней (SL - service level), которые обеспечивают механизм QoS качество и класс предоставляемых услуг передачи данных. Каждый SL-уровень, представляющий желаемый класс услуг в каждом узле канала передачи, отображается на один из существующих виртуальных каналов (VL Virtual Lane). Виртуальные каналы это отдельные соединения канального уровня, которые разделяют одну и ту же физическую линию. У каждого виртуального канала есть свой собственный буфер и механизм управления потоком для каждого порта коммутатора или канального адаптера. В InfiniBand поддерживается до 15 виртуальных каналов общего назначения плюс один дополнительный для передачи управляющей информации. Передача пакетов по виртуальным каналам осуществляется на основе взвешенной круговой системы равноправных очередей с элементом приоритетности, обеспечивающей гарантированную задержку и полосу пропускания.

Управление качеством обслуживания реализуется на канальном уровне путем распределения интенсивного трафика по индивидуальным виртуальным каналам. В качестве примера QoS рассмотрим два вида трафика в рамках одной и той же коммутируемой структуры: информации "не-реального времени" типа IP-потоков или копируемого файла и потока речевых или мультимедийных данных. Программный модуль управления на базе централизованной политики (policy-based) назначает каждому виду трафика свой виртуальный канал, например, для информации "не-реального времени" канал VL1, а для речевых данных канал VL2, причем более приоритетным является речевой трафик. В момент перегрузки трафика первого типа (например, в результате копирования большого файла) буфер канала VL1 начинает переполняться и механизм управления потоком начинает "тормозить" соответствующий источник данных (путем приостановки выдачи разрешений). Если в этот момент прибывает пакет речевых данных, то его пересылка будет запланирована прежде пересылки файловых данных. Таким образом, речевые данные будут пересылаться по связной структуре, запаздывая не дольше гарантированной величины задержки.

Для реализации более сложных принципов управления качеством обслуживания могут быть задействованы дополнительные виртуальные каналы. Благодаря тому, что управление потоками осуществляется для каждого виртуального канала отдельно, InfiniBand (в отличие от Ethernet и других технологий) позволяет создавать на базе одного и того же физического проводника действительно независимые каналы ввода/вывода, или "виртуальную связную структуру", не приводя при этом к распространяющейся перегрузке, свойственной другим сетям.

В дополнение к механизмам обеспечения качества обслуживания уровня 2 InfiniBand поддерживает на транспортном уровне до 16 миллионов пар очередей (queue pairs QP), чем обеспечивается реализация мелкоструктурного управления на прикладном уровне. Кроме того, канальные адаптеры хоста и внешней системы могут осуществлять расширенное планирование исполнения тредов, освобождая операционную систему от подобных функций реального времени.

Транспортные механизмы InfiniBand

В InfiniBand определен целый набор транспортных сервисов, реализованных аппаратно в канальном адаптере (Channel Adapter). Эти сервисы осуществляют надежную, упорядоченную и ориентированную на соединения доставку сообщений, более эффективную, чем обеспечивают транспортные услуги, реализованные программным способом. К примеру, протокольный стек TCP/IP тоже обеспечивает надежную доставку пакетов в сетях Ethernet, однако для его поддержки требуется отдельный процессор. Контроль последовательности номеров пакетов, подтверждение передачи, стратегия управления потоком данных методом скользящего окна (sliding-window), алгоритмы контроля перегрузки, сегментация и повторная сборка пакетов, а также вычисление контрольной суммы требуют весьма значительных процессорных ресурсов.

Надежные соединения в канальных адаптерах InfiniBand реализуются на аппаратном уровне, что значительно упрощает систему, снижает общую стоимость и уменьшает задержки передачи. Кроме аппаратной реализации транспортных механизмов, архитектура InfiniBand отличается тем, что она является реальной структурой ввода/вывода, аппаратно поддерживающей запоминание семантики передачи. Благодаря этому системы InfiniBand могут без особых затрат соединяться с другими сетями и устройствами ввода/вывода, не требуя при этом наличия процессоров или других сложных модулей обработки протоколов в каждой конечной точке.

Кроме того, транспортный механизм InfiniBand поддерживает такие функции, как удаленный прямой доступ в память (RDMA) и функции передачи сообщений, отсутствующие в других программных транспортных механизмах. Преобразование виртуальных адресов памяти в физические и контроль защиты обеспечивают выполнение RDMA-операций копирования действительно с нулевым временем ожидания, освобождая операционную систему от низкоуровневых действий по перемещению данных. Операционная система при этом может выполнять задачи более высокого уровня, например, виртуализацию сервера и элементов ввода/вывода связной структуры. В дополнение к перечисленным свойствам, транспортные механизмы вроде сквозного управления потоком обеспечивают гораздо более эффективную поддержку протоколов блочной передачи запоминающих систем, чем ориентированные на потоки байтов протоколы, подобные TCP/IP.

В архитектуре InfiniBand имеются механизмы, позволяющие назначить SM-менеджера какой-либо одной подсети (subnet manager) главным менеджером всей связной структуры. При этом остальные SM-менеджеры превращаются в резервные и периодически опрашивают состояние главного SM-менеджера, обеспечивая дальнейшее управление структурой в случае его отказа. В функции SM-менеджера входят определение, инициализация, конфигурирование и контроль устройств и соединений в составе связной структуры. Часть наиболее важных функций обеспечения надежности, готовности и удобства обслуживания (reliability, availability, serviceability RAS) реализована в инфраструктуре управления, поддерживаемой на всех уровнях архитектуры InfiniBand. В их число входят:

  • определение типа топологии,
  • инициализация и конфигурирование сетевого узла,
  • контроль состояния узла и соединения,
  • аварийное переключение и обеспечение отказоустойчивости.
В InfiniBand имеются механизмы, гарантирующие готовность этой инфраструктуры управления. Блокировка управляющего трафика невозможна, поскольку он имеет наивысший приоритет и для него выделен отдельный виртуальный канал. Резервные SM-менеджеры в случае отказа главного SM-менеджера включаются в работу механизмами аварийного переключения.

Предотвращение "кардинальной" модернизации

Очень важно, чтобы переход от шинной архитектуры к коммутируемому вводу/выводу не требовал разработки всех аппаратных и программных средств заново. Подобная "кардинальная" модернизация была бы далеко не оптимальной формой грядущего "апгрейда", поскольку требует одновременной модификации каждого элемента системы. К счастью, у поставщиков интегральных схем и программного обеспечения InfiniBand уже есть несколько решений, обеспечивающих плавный переход от одной архитектуры к другой. В качестве примера можно привести протокол SDP (Sockets Direct Protocol непосредственный протокол сокетов) и мост PCI-PCI на основе InfiniBand.

Протокол SDP это один из ключевых программных элементов, обеспечивающих обратную совместимость с существующими приложениями и одновременно повышающих эффективность новых приложений с InfiniBand-соединениями. Стандартный программный интерфейс с набором протоколов TCP/IP обычно выполняется в виде API-интерфейса с так называемыми сокетами (BSD-сокеты, Winsock и т.д.). Таким образом, чтобы воспользоваться протоколом TCP/IP, приложение, как правило, обращается к операционной системе путем выдачи директив сокета. Протокол SDP обеспечивает прозрачную работу приложений с аппаратными средствами InfiniBand, опираясь на высокую надежность соединений InfiniBand и отличаясь значительно меньшими программными издержками по сравнению с TCP/IP. В новых приложениях расширения SDP обеспечивают полную реализацию достоинств InfiniBand типа RDMA-операций и защиты памяти. Протокол SDP это всего лишь один из многих программных механизмов, способствующих плавному переходу приложений на архитектуру InfiniBand. В числе других, отличающихся аналогичной степенью обратной совместимости и плавностью перехода, можно назвать реализацию IP-протокола для InfiniBand-линий (IP-over-IB) и протокол SRP (SCSI RDMA Protocol), которые обеспечивают IP-туннелирование соответственно через InfiniBand-структуру и SCSI-инкапсуляцию (такой же метод инкапсуляции, как в Fibre Channel).

Несмотря на то, что в архитектуре InfiniBand нет явного определения механизма сохранения семантики PCI при осуществлении PCI-ввода/вывода через структуру InfiniBand, сделать это достаточно просто. Ключевым компонентом здесь является мост InfiniBand-PCI, посредством которого обеспечивается прозрачное соединение шин PCI через InfiniBand. Имея такой мост, поставщики вычислительных систем смогут разработать стратегию перехода, предусматривающую адаптацию стандартной архитектуры коммутации без необходимости перепроектирования всех компонентов существующих систем. Канальные адаптеры InfiniBand с функциями мостов PCI-PCI (Р2Р) позволяют масштабировать систему произвольным образом без каких-либо изменений в ее BIOS, операционной системе или драйверах устройств. По мере все более широкого распространения программных и аппаратных средств InfiniBand существующие Р2Р-функции могут совершенствоваться, обеспечивая более полную реализацию архитектурных достоинств InfiniBand.

Канальный Р2Р-адаптер должен уметь работать в двух режимах: в качестве основного адаптера (primary) и в качестве подчиненного (secondary). Основной адаптер подключается к хост-процессору и открывает канал связи (т.е. создает пару очередей) с одним из подчинённых устройств. Основная PCI-подсистема генерирует на шине такие же транзакции, как и стандартный PCI-мост, и пересылает их подчиненной PCI-подсистеме. Аналогичным образом, подчиненная PCI-система генерирует на шине транзакции как вторичный PCI-мост и передает их основной PCI-подсистеме.

Компания Mellanox Technologies поставляет мостовые микросхемы InfiniBand-PCI и технологию InfiniPCI , с помощью которых реализуется функция Р2Р в полностью совместимых канальных адаптерах InfiniBand. На том же кристалле реализованы средства программирования конфигурации и управления, обеспечивающие применение "упрощенных" алгоритмов определения топологии для инициализации и управления Р2Р-мостами. Подобные возможности необходимы для успешного перехода на архитектуру InfiniBand. В следующем разделе рассматривается простые, но вместе с тем показательные системы с Р2Р-мостами на основе InfiniBand, которые совместимы с существующей технологией CompactPCI- и могут быть реализованы на основе технологии InfiniPCI.

Модульные серверы: системы будущего

В настоящее время подкомитет PICMG 3.2 занимается разработкой архитектуры CompactPCI следующего поколения на базе полностью коммутируемой структуры ввода/вывода. Вероятнее всего, в спецификации будет предусмотрена и поддержка других технологий, хотя InfiniBand рассматривается как естественное решение. В то время как серверная индустрия только начинает экспериментировать с форм-факторами модульных серверов ("blade server"), CompactPCI-сообществу уже давно известны концепции "горячей" замены модулей и пассивных объединительных панелей. Вместе с тем меньшие форматы модулей и широкие возможности по подключению это лишь часть достоинств, которыми обладают решения на основе коммутируемой архитектуры. Такие ключевые характеристики, как транспортный механизм на аппаратном уровне, разделяемый ввод/вывод, горячее резервирование (failover), кластеризация, распределение нагрузки и поддержка удаленных запоминающих устройств, позволяют полностью реализовать в каркасах на основе InfiniBand все достоинства модульных вычислительных систем, созданных с использованием коммутируемой связи (рис.4).


Рис. 4. Сдвоенные коммутаторы и сдвоенные объединительные панели со звездообразной топологией позволяют создавать на основе InfiniBand дублированные, отказоустойчивые модульные серверы и системы ввода/вывода с поддержкой "горячей" замены (собранные из модулей "лезвий" blades).
 
Применение пассивных объединительных панелей хорошо тем, что исчезают громоздкие пучки кабелей и естественным образом организуются резервные соединения. Встроенные механизмы горячего резервирования позволяют создавать на основе InfiniBand вычислительные системы с высоким коэффициентом готовности. Упрощенные средства управления - еще одно достоинство архитектуры InfiniBand, которая способна функционировать как интегрированная структура ввода/вывода с простыми механизмами передачи файловых и коммуникационных потоков (например, Fibre Channel или Ethernet). Благодаря унифицированной архитектуре модульных серверов и систем ввода/вывода обеспечивается высокая плотность устройств в стойках и упрощается их расширение и модернизация. Не требуя предварительного анализа инфраструктурных требований, InfiniBand обеспечивает гибкое наращивание системных возможностей путем добавления вычислительных мощностей или устройств ввода/вывода по мере необходимости.

Широкая поддержка со стороны индустрии компьютерных систем плюс расширенный набор функциональных возможностей превращают InfiniBand в логическую основу перехода на коммутируемые связные структуры. Наличие мостов к шине PCI позволяет CompactPCI-сообществу начинать этот переход уже сегодня. Этому способствуют следующие особенности InfiniBand, благодаря которым эта технология является наилучшим вариантом для сPCI:

  • открытый стандарт, поддерживаемый более чем 200 компаниями;
  • высокая экономия от масштаба благодаря широкому применению в индустрии серверов и запоминающих устройств;
  • доступные уже сегодня стратегии перехода:
  • протокол SDP (Sockets Direct Protocol), обеспечивающий обратную совместимость и ориентированный на будущие расширения,
  • мосты InfiniBand-PCI, облегчающие аппаратную модификацию;
  • основные преимущества InfiniBand:
  • аппаратные транспортные механизмы;
  • масштабируемая производительность;
  • RAS (надежность, готовность, удобство обслуживания),
  • качество обслуживания (QoS),
  • возможность объединения отдельных линий связи (каналы с пропускной способностью 2,5; 10 и 30 Гбит/с),
  • пониженные энергопотребление, стоимость и сложность.
Только технология InfiniBand предлагает полное решение, которое в состоянии стать единой унифицированной платформой для создания коммуникационных, запоминающих и вычислительных систем (рис.5).


Рис. 5. Модульные серверы и системы ввода/вывода на основе InfiniBand, объединенные в одной стойке, образуют масштабируемую, надежную и удобную в обслуживании вычислительную платформу с высоким коэффициентом готовности
 
Источник: Interconnect Strategies, InfiniBand: The Switch Fabric for Servers, Storage, and Communication

 
 
О журнале | Новости | Архив | Выставки и события | Ресурсы | Подписка | Реклама | Авторам статей
Copyright 2000 © Мир компьютерной автоматизации. Авторские права охраняются.
Designed by Jang