Интерфейсы подключения жестких дисков: SCSI, SAS, Firewire, IDE, SATA. Разница между SAS и SATA Подключение дисков sas к контроллеру

Если дисков компьютере пара-тройка, подключение их простое. Но если дисков захотелось много - возникают особенности. На КДПВ SAS кабель с Али, уже проскакивавший в прошлом , так неожиданно тепло встреченным сообществом. Спасибо, камрады. Попробую затронуть тему, потенциально полезную чуть более широкому кругу. Хотя и специфическую. Начну с этого кабеля и обязательной программы, но только для затравки. Разные кусочки пазла приходится собирать в разных местах.
Хочу сразу предупредить, что текст получился плотный и довольно тяжёлый. Заставлять себя читать и понять всё это уж точно не обязательно. Много картинок!

Кто-то скажет, 9 баксов за тупой кабель? Что делать, в быту это применяется крайне редко, а на промышленные вещи тиражи ниже, а цены - выше. За сложный SAS кабель и сотню-другую баксов могут не моргнув глазом выставить. Так что китайцы ещё кратно снижают:)

Доставка и упаковка

Заказ 6 мая 2017, получено 17 мая - просто ракета. Трек был.

Обычный серый пакет, внутри ещё один - вполне достаточно, товар не хрупкий.

Спецификация

Мама-папа SFF-8482 SAS 29 пин кабель.
Длина 50 см
Масса нетто 66 г

Картинка продавца

Реальный внешний вид, как видите - отличается



За лишнюю пластмассу продавец получил 4 звезды вместо 5, но на работоспособность не влияет.

Про SAS и SATA разъёмы

Что такое SFF-8482 и с чем его едят? Во-первых, это самый массовый разъём на SAS устройствах (), например, на моём лентопротяге



А ещё SFF-8482 прекрасно садится на SATA диск (но не наоборот)


Сравните, у SATA между данными и питанием промежуток. А у SAS он заполнен пластмассой. Поэтому SATA разъём на SAS устройство не налезет.

Конечно, в этом есть смысл. По сигналам SAS и SATA разные. И SATA контроллер не сможет работать с SAS устройством. A SAS - контроллер сможет и с тем и с другим (хотя встречается совет не смешивать при определённых обстоятельствах, дома вряд ли реальных)

SAS контроллеры и экспандеры

Ну и что, спросит читатель. Что я выигрываю от такой совместимости? Мне и SATA контроллеров достаточно!

Истинная правда! Если достаточно - на этом месте можно нужно бросать читать. Вопрос был что делать, если МНОГО дисков?

Вот так выглядит простенький SAS контроллер из моего зипа - DELL H200.


Мой прошит в HBA, то есть все диски оси видны отдельно

А это древний SAS RAID HP

У обоих мы видим внутренние разъёмы (называются sff 8087 или, чаще, miniSAS) и один внешний - sff 8088

Сколько дисков можно подключить на один miniSAS? Ответ зависит. Тупым кабелем - 4шт, то есть 8 на такой контроллер. Кабель из моего ЗИП выглядит вот так

На одном конце miniSAS, на другом - 4шт SATA (и ещё один разъём, о нём ниже)

Но можно взять miniSAS-miniSAS кабель и подключить к экспандеру, то есть размножителю портов. И контроллер потянет до 256 (двухсот пятидесяти шести) дисков. Причём скорости канала хватит уж на десятки дисков - точно.
Экспандер как отдельная карта выглядит, например, как мой Ченбро

А может быть распаян на дисковой корзине. Тогда в неё может идти всего один miniSAS канал (а может - больше). Вот такими кабелями.


Согласитесь, кабель менеджмент несколько упрощается:)

Корзины

Понятно, диски прекрасно могут работать и без специальных корзин. Но иногда корзины могут быть полезны.

Вот так выглядит SATA корзинка старой модели Супермикро. Можно найти за 1000 р, но скорее за 5+ тыс.


Её лоток для диска


Вид изнутри, видно, что там SATA разъёмы.


Если корзинка SAS - ещё лучше, меньше проводов. Если SCSI или FC - использовать её вы не сможете. Я взял одну 19" FC на пробу - ничего полезного не сделал. Там, правда, лома цветмета оказалось почти на те деньги, за которые купил.


Вид сзади, видим 4 SATA, 2 MOLEX и тот самый порт, что был на кабеле. Предназначен для управления LED активности дисков.

Вот так выглядит одна из самых простых корзинок (моделей много разных, но похожих)


Именно такие уже не продают, так что детали не важны. Просто кусок металла с амортизаторами и карлсоном впереди.

Вот так это выглядело в 2013 году,


Картонный костыль внизу и третья корзина были только на момент для перекачки данных с 2T дисков на 4T. С тех пор работает 24/7.

SAS+SATA у меня

Точнее работало до того, как мне понадобилось подключить лентопротяг. Первым делом я воткнул второй SAS контроллер, купил кабель miniSAS на sff 8482, примерно такой

И включил. Всё заработало, но в режиме 24/7 каждый ватт стоит денег. Я искал переходники с sff 8482 на SATA, но решение оказалось ещё проще. Вы же помните, что SATA диск подключается на SAS sff 8482?

Вот я теперь тоже помню, но тогда пару месяцев тупил:) А потом вынул лишний контроллер, переключил один из дисков на чипсетный порт SATA порт, три остальных на sff 8482. Пришлось менять подключение питания, был разветвитель Molex-SATA, пришлось покупать на Али Molex-много Molex. Вот такой


, всё хорошо.

А лентопротяг переехал в другой корпус именно с использованием обозреваемого кабеля. Но это отдельная песня, а, караул, чувствую, устал:)

Где всё это выгоднее искать

Цены на новое серверное железо для дома запретительны. Так что бу, в том числе из ЗИП от выводимого из эксплуатации оборудования.
Кабели можно найти на месте. За сравнимые деньги на e-bay. На Али - несколько менее вероятно, но бывают исключения - я же купил.
Контроллеры - прежде всего на e-bay, причём из Европы. Можно из США, там сильно дешевле, если как-то решить вопрос с доставкой. Можно найти на Родине - авито. (На комке - дорого). В Китае покупать очень опасно. Множество жалоб на подделку из отбраковки. То работает, то нет. Никому ничего не докажешь.
Корзины разумнее искать локально. Есть даже варианты простейшие корзины покупать новые. Простые корзины без электроники можно брать и в Китае и в Европе и на барахолке. Корзины с экспандерами - см пункт про контроллеры.

ВАЖНО Запутаться - проще, чем потеряться в лесу. Консультируйтесь на форуме. SAS бывает разный -3, 6 и 12 Gb/s. Одни контроллеры шьются в то, что можно использовать с десктоп железом, другие нет, третьи вообще не заживут нигде, кроме матери родного производителя. И так далее.



На хоботе я MikeMac

PS Если для вас это стало выступлением Капитана Очевидность - прошу прощения за отнятое время.
Если бредом сивой кобылы - тем более мои искренние извинения. Трудно балансировать, хотелки, задачи и исходные у каждого свои.

Планирую купить +33 Добавить в избранное Обзор понравился +56 +106

Коротко о современных RAID-контроллерах

В настоящее время RAID-контроллеры как отдельное решение ориентированы исключительно на специализированный серверный сегмент рынка. Действительно, все современные материнские платы для пользовательских ПК (не серверные платы) имеют интегрированные программно-аппаратные SATA RAID-контроллеры, возможностей которых с избытком хватает для пользователей ПК. Правда, нужно иметь в виду, что эти контроллеры ориентированы исключительно на использование операционной системы Windows. В операционных системах семейства Linux RAID-массивы создаются программным методом, и все расчеты переносятся с RAID-контроллера на центральный процессор.

В серверах традиционно применяются либо программно-аппаратные, либо чисто аппаратные RAID-контроллеры. Аппаратный RAID-контроллер позволяет создавать и обслуживать RAID-массив без участия операционной системы и центрального процессора. Такие RAID-массивы видятся операционной системой как один диск (SCSI-диск). При этом никакого специализированного драйвера не нужно - используется стандартный (входящий в состав операционной системы) драйвер SCSI-диска. В этом плане аппаратные контроллеры являются платформенно-независимыми, а настройка RAID-массива производится через BIOS контроллера. Аппаратный RAID-контроллер не задействует центральный процессор при расчете всех контрольных сумм и т.п., поскольку для расчетов применяет свой специализированный процессор и оперативную память.

Программно­аппаратные контроллеры требуют обязательного наличия специализированного драйвера, который подменяет собой стандартный драйвер SCSI-диска. Кроме того, программно-аппаратные контроллеры комплектуются утилитами управления. В этом плане программно-аппартные контроллеры привязаны к конкретной операционной системе. Все необходимые расчеты в этом случае также выполняются процессором самого RAID-контроллера, но использование программного драйвера и утилиты управления позволяет управлять контроллером через операционную систему, а не только через BIOS контроллера.

Учитывая тот факт, что на смену серверным SCSI-дискам уже пришли SAS-диски, все современные серверные RAID-контроллеры ориентированы на поддержку либо SAS-, либо SATA-дисков, которые также применяются в серверах.

В прошлом году на рынке начали появляться диски с новым интерфейсом SATA 3 (SATA 6 Гбит/с), который стал постепенно вытеснять интерфейс SATA 2 (SATA 3Гбит/с). Ну а на смену дискам с интерфейсом SAS (3 Гбит/с) пришли диски с интерфейсом SAS 2.0 (6 Гбит/с). Естественно, новый стандарт SAS 2.0 полностью совместим со старым стандартом.

Соответственно появились RAID-контроллеры с поддержкой стандарта SAS 2.0. Казалось бы, какой смысл переходить к стандарту SAS 2.0, если даже самые скоростные SAS-диски имеют скорость чтения и записи данных не выше 200 Мбайт/с и для них вполне достаточно пропускной способности протокола SAS (3 Гбит/с или 300 Мбайт/с)?

Действительно, когда каждый диск подключается к отдельному порту на RAID-контроллере, пропускной способности 3 Гбит/с (что в теории составляет 300 Мбайт/с) вполне достаточно. Однако к каждому порту RAID-контроллера могут подключаться не только отдельные диски, но и дисковые массивы (дисковые корзины). В этом случае один SAS-канал делят между собой сразу несколько накопителей, и пропускной способности в 3 Гбит/с будет уже недостаточно. Ну и, кроме того, нужно учитывать наличие SSD-дисков, скорость чтения и записи которых уже преодолела планку в 300 Мбайт/с. К примеру, в новом диске Intel SSD 510 скорость последовательного чтения составляет до 500 Мбайт/с, а скорость последовательной записи - до 315 Мбайт/с.

После краткого знакомства с текущей ситуацией на рынке серверных RAID-контроллеров давайте рассмотрим характеристики контроллера LSI 3ware SAS 9750-8i.

Характеристики RAID-контроллера 3ware SAS 9750-8i

Данный RAID-контроллер выполнен на базе специализированного XOR-процессора LSI SAS2108 с тактовой частотой 800 МГц и архитектурой PowerPC. Этот процессор использует 512 Мбайт оперативной памяти DDRII 800 МГц с коррекцией ошибок (ECC).

Контроллер LSI 3ware SAS 9750-8i совместим с SATA- и SAS-дисками (поддерживаются как HDD-, так и SSD-диски) и позволяет подключать до 96 устройств с помощью SAS-экспандеров. Немаловажно, что данный контроллер поддерживает диски с интерфейсом SATA 600 Мбайт/с (SATA III) и SAS 2.

Для подключения дисков на контроллере предусмотрено восемь портов, которые физически объединены в два разъема Mini-SAS SFF-8087 (по четыре порта в каждом разъеме). То есть если диски подключать напрямую к портам, то всего можно подключить к контроллеру восемь дисков, а при подключении к каждому порту дисковых корзин общий объем дисков может быть увеличен до 96. Каждый из восьми портов контроллера имеет пропускную способность 6 Гбит/с, что соответствует стандартам SAS 2 и SATA III.

Естественно, при подключении дисков или дисковых корзин к этому контроллеру потребуются специализированные кабели, которые c одного конца имеют внутренний разъем Mini-SAS SFF-8087, а на другом конце - разъем, который зависит от того, что именно подключается к контроллеру. К примеру, при подключении к контроллеру напрямую SAS-дисков необходимо использовать кабель, у которого с одной стороны разъем Mini-SAS SFF-8087, а с другой - четыре разъема SFF 8484, которые позволяют непосредственно подключать SAS-диски. Отметим, что сами кабели не входят в комплект поставки и приобретаются отдельно.

У контроллера LSI 3ware SAS 9750-8i есть интерфейс PCI Express 2.0 x8, что обеспечивает пропускную способность 64 Гбит/с (по 32 Гбит/с в каждом направлении). Понятно, что такой пропускной способности вполне достаточно для полностью загруженных восьми портов SAS с пропускной способностью 6 Гбит/с каждый. Также отметим, что на контроллере имеется специальный разъем, в который опционально можно подключить батарею резервного питания LSIiBBU07.

Немаловажно, что данный контроллер требует инсталляции драйвера, то есть является программно-аппаратным RAID-контроллером. При этом поддерживаются такие операционные системы, как Windows Vista, Windows Server 2008, Windows Server 2003 x64, Windows 7, Windows 2003 Server, MAC OS X, LinuxFedora Core 11, Red Hat Enterprise Linux 5.4, OpenSuSE 11.1, SuSE Linux Enterprise Server (SLES) 11, OpenSolaris 2009.06, VMware ESX/ESXi 4.0/4.0 update-1 и другие системы семейства Linux. В комплект поставки также входит программное обеспечение 3ware Disk Manager 2, которое позволяет управлять RAID-массивами через операционную систему.

Контроллер LSI 3ware SAS 9750-8i поддерживает стандартные типы RAID-массивов: RAID 0, 1, 5, 6, 10 и 50. Пожалуй, единственный тип массива, который не поддерживается, - RAID 60. Это связано с тем, что данный контроллер способен создать массив RAID 6 только на пяти дисках, подключаемых напрямую к каждому порту контроллера (теоретически RAID 6 может быть создан на четырех дисках). Соответственно для массива RAID 60 данному контроллеру требуется минимум десять дисков, которых просто нет.

Понятно, что поддержка массива RAID 1 неактуальна для такого контроллера, поскольку данный тип массива создается только на двух дисках, а использовать такой контроллер только для двух дисков нелогично и крайне расточительно. А вот поддержка массивов RAID 0, 5, 6, 10 и 50 весьма актуальна. Хотя, возможно, с массивом RAID 0 мы и поторопились. Всё же этот массив не обладает избыточностью, а соответственно не обеспечивает надежности хранения данных, поэтому в серверах он используется крайне редко. Однако теоретически этот массив является самым быстрым по скорости чтения и записи данных. Впрочем, давайте вспомним, чем разные типы RAID-массивов отличаются друг от друга и что они собой представляют.

Уровни RAID-массивов

Термин «RAID-массив» появился в 1987 году, когда американские исследователи Паттерсон, Гибсон и Катц из Калифорнийского университета в Беркли в своей статье «Избыточный массив недорогих дисков» (“A case for redundant arrays of inexpensive discs, RAID”) описали, каким образом можно объединить несколько дешевых жестких дисков в одно логическое устройство так, чтобы в результате повышались емкость и быстродействие системы, а отказ отдельных дисков не приводил к отказу всей системы. С момента выхода этой статьи прошло уже почти 25 лет, но технология построения RAID-массивов не утратила актуальности и сегодня. Единственное, что изменилось с тех пор, - это расшифровка аббревиатуры RAID. Дело в том, что первоначально RAID-массивы строились вовсе не на дешевых дисках, поэтому слово Inexpensive («недорогие») поменяли на Independent («независимые»), что больше соответствовало действительности.

Отказоустойчивость в RAID-массивах достигается за счет избыточности, то есть часть емкости дискового пространства отводится для служебных целей, становясь недоступной для пользователя.

Повышение производительности дисковой подсистемы обеспечивается одновременной работой нескольких дисков, и в этом смысле чем больше дисков в массиве (до определенного предела), тем лучше.

Совместную работу дисков в массиве можно организовать с помощью либо параллельного, либо независимого доступа. При параллельном доступе дисковое пространство разбивается на блоки (полоски) для записи данных. Аналогично информация, подлежащая записи на диск, разбивается на такие же блоки. При записи отдельные блоки записываются на разные диски, причем запись нескольких блоков на различные диски происходит одновременно, что приводит к увеличению производительности в операциях записи. Нужная информация также считывается отдельными блоками одновременно с нескольких дисков, что тоже способствует росту производительности пропорционально количеству дисков в массиве.

Следует отметить, что модель с параллельным доступом реализуется только при условии, что размер запроса на запись данных больше размера самого блока. В противном случае осуществлять параллельную запись нескольких блоков практически невозможно. Представим ситуацию, когда размер отдельного блока составляет 8 Кбайт, а размер запроса на запись данных - 64 Кбайт. В этом случае исходная информация нарезается на восемь блоков по 8 Кбайт каждый. Если имеется массив из четырех дисков, то одновременно можно записать четыре блока, или 32 Кбайт, за один раз. Очевидно, что в рассмотренном примере скорость записи и скорость считывания окажутся в четыре раза выше, чем при использовании одного диска. Это справедливо лишь для идеальной ситуации, однако размер запроса далеко не всегда кратен размеру блока и количеству дисков в массиве.

Если же размер записываемых данных меньше размера блока, то реализуется принципиально иная модель - независимый доступ. Более того, эта модель может использоваться и в том случае, когда размер записываемых данных больше размера одного блока. При независимом доступе все данные отдельного запроса записываются на отдельный диск, то есть ситуация идентична работе с одним диском. Преимущество модели с независимым доступом в том, что при одновременном поступлении нескольких запросов на запись (чтение) все они будут выполняться на отдельных дисках независимо друг от друга. Подобная ситуация типична, например, для серверов.

В соответствии с различными типами доступа существуют и разные типы RAID-массивов, которые принято характеризовать уровнями RAID. Кроме типа доступа, уровни RAID различаются способом размещения и формирования избыточной информации. Избыточная информация может либо размещаться на специально выделенном диске, либо распределяться между всеми дисками.

В настоящее время существует несколько RAID-уровней, которые широко используются, - это RAID 0, RAID 1, RAID 5, RAID 6, RAID 10, RAID 50 и RAID 60. Ранее также применялись уровни RAID 2, RAID 3 и RAID 4, однако в настоящее время эти уровни RAID не используются и современные RAID-контроллеры их не поддерживают. Отметим, что все современные RAID-контроллеры поддерживают также функцию JBOD (Just a Bench Of Disks). В данном случае речь идет не о RAID-массиве, а просто о подключении отдельных дисков к RAID-контроллеру.

RAID 0

RAID 0, или страйпинг (striping), - это, строго говоря, не RAID-массив, поскольку такой массив не имеет избыточности и не обеспечивает надежности хранения данных. Однако исторически его тоже называют RAID-массивом. Массив RAID 0 (рис. 1) может строиться на двух и более дисках и используется в том случае, когда необходимо обеспечить высокую производительность дисковой подсистемы, а надежность хранения данных некритична. При создании массива RAID 0 информация разбивается на блоки (эти блоки называют страйпами (stripe)), которые одновременно записываются на отдельные диски, то есть создается система с параллельным доступом (если, конечно, позволяет размер блока). Благодаря возможности одновременного ввода­вывода с нескольких дисков, RAID 0 обеспечивает максимальную скорость передачи данных и максимальную эффективность использования дискового пространства, поскольку не требуется места для хранения контрольных сумм. Реализация этого уровня очень проста. В основном RAID 0 применяется в тех областях, где требуется быстрая передача большого объема данных.

Рис. 1. Массив RAID 0

Теоретически прирост скорости чтения и записи должен быть кратен количеству дисков в массиве.

Надежность массива RAID 0 заведомо ниже надежности любого из дисков в отдельности и снижается с увеличением количества входящих в массив дисков, так как отказ любого из них приводит к неработоспособности всего массива. Если время наработки на отказ каждого диска составляет MTTF disk , то время наработки на отказ массива RAID 0, состоящего из n дисков, равно:

MTTF RAID0 = MTTD disk /n.

Если обозначить вероятность выхода из строя за определенный промежуток времени одного диска через p , то для массива RAID 0 из n дисков вероятность того, что хотя бы один диск выйдет из строя (вероятность падения массива), составит:

Р (падение массива) = 1 – (1 – р) n .

К примеру, если вероятность выхода из строя одного диска в течение трех лет эксплуатации составляет 5%, то вероятность падения массива RAID 0 из двух дисков равна уже 9,75%, а из восьми дисков - 33,7%.

RAID 1

Массив RAID 1 (рис. 2), который также называют зеркалом (mirror), - это массив из двух дисков со 100-процентной избыточностью. То есть данные полностью дублируются (зеркалируются), за счет чего достигается очень высокий уровень надежности (как, впрочем, и стоимости). Отметим, что для реализации RAID 1 не требуется предварительно разбивать диски и данные на блоки. В простейшем случае два диска содержат одинаковую информацию и являются одним логическим диском. При выходе из строя одного диска его функции выполняет другой (что абсолютно прозрачно для пользователя). Восстановление массива выполняется простым копированием. Кроме того, теоретически в массиве RAID 1 должна удваиваться скорость считывания информации, так как эта операция может выполняться одновременно с двух дисков. Подобная схема хранения информации используется в основном в тех случаях, когда цена безопасности данных гораздо выше стоимости реализации системы хранения.

Рис. 2. Массив RAID 1

Если, как в предыдущем случае, обозначить вероятность выхода из строя за определенный промежуток времени одного диска через p , то для массива RAID 1 вероятность того, что оба диска выйдут из строя одновременно (вероятность падения массива), составит:

Р (падение массива) = р 2 .

К примеру, если вероятность выхода из строя одного диска в течение трех лет эксплуатации составляет 5%, то вероятность одновременного выхода из строя двух дисков равна уже 0,25%.

RAID 5

Массив RAID 5 (рис. 3) - это отказоустойчивый дисковый массив с распределенным хранением контрольных сумм. При записи поток данных разбивается на блоки (страйпы) на уровне байтов, которые одновременно записываются на все диски массива в циклическом порядке.

Рис. 3. Массив RAID 5

Предположим, что массив содержит n дисков, а размер страйпа - d . Для каждой порции из n –1 страйпов рассчитывается контрольная сумма p .

Cтрайп d 1 записывается на первый диск, страйп d 2 - на второй и так далее вплоть до страйпа d n –1, который записывается на (n–1)-й диск. Далее на n-й диск записывается контрольная сумма p n , и процесс циклически повторяется с первого диска, на который записывается страйп d n .

Процесс записи (n –1) страйпов и их контрольной суммы производится одновременно на все n дисков.

Для вычисления контрольной суммы используется поразрядная операция «исключающего ИЛИ» (XOR), применяемая к записываемым блокам данных. Так, если имеется n жестких дисков и d - блок данных (страйп), то контрольная сумма рассчитывается по следующей формуле:

p n = d 1 d 2 ⊕ ... d n–1 .

В случае выхода из строя любого диска данные на нем можно восстановить по контрольным данным и по данным, оставшимся на исправных дисках. Действительно, воспользовавшись тождествами (a b) A b = a и a a = 0 , получим, что:

p n ⊕ (d k p n) = d l d n ⊕ ...⊕ ...⊕ d n–l ⊕ (d k p n).

d k = d 1 d n ⊕ ...⊕ d k–1 d k+1 ⊕ ...⊕ p n .

Таким образом, если из строя вышел диск с блоком d k , то его можно восстановить по значению остальных блоков и контрольной суммы.

В случае RAID 5 все диски массива должны иметь одинаковый размер, однако общая емкость дисковой подсистемы, доступной для записи, становится меньше ровно на один диск. Например, если пять дисков имеют размер 100 Гбайт, то фактический размер массива составляет 400 Гбайт, поскольку 100 Гбайт отводится на контрольную информацию.

Массив RAID 5 может быть построен на трех и более жестких дисках. С увеличением количества жестких дисков в массиве его избыточность уменьшается. Отметим также, что массив RAID 5 может быть восстановлен при выходе из строя только одного диска. Если же одновременно выходят из строя два диска (или если второй диск выходит из строя в процессе восстановления массива), то массив не подлежит восстановлению.

RAID 6

Массив RAID 5, как было показано, может быть восстановлен при выходе из строя одного диска. Однако иногда требуется обеспечить более высокий уровень надежности, чем в массиве RAID 5. В этом случае можно использовать массив RAID 6 (рис. 4), который позволяет восстановить массив даже при выходе из строя одновременно двух дисков.

Рис. 4. Массив RAID 6

Массив RAID 6 похож на RAID 5, но в нем применяется не одна, а две контрольные суммы, которые циклически распределяются по дискам. Первая контрольная сумма p рассчитывается по тому же алгоритму, что и в массиве RAID 5, то есть это операция XOR между блоками данных, записываемыми на разные диски:

p n = d 1 d2 ⊕ ...⊕ d n–1 .

Вторая контрольная сумма рассчитывается уже по другому алгоритму. Не вдаваясь в математические подробности, скажем, что это также операция XOR между блоками данных, но каждый блок данных предварительно умножается на полиномиальный коэффициент:

q n = g 1 d 1 g 2 d 2 ⊕ ...⊕ g n–1 d n–1 .

Соответственно под контрольные суммы выделяется емкость двух дисков в массиве. Теоретически массив RAID 6 может быть создан на четырех и более дисках, однако во многих контроллерах он может быть создан минимум на пяти дисках.

Нужно иметь в виду, что производительность массива RAID 6, как правило, на 10-15% ниже производительности массива RAID 5 (при равном количестве дисков), что вызвано большим объемом расчетов, выполняемых контроллером (необходимо рассчитывать вторую контрольную сумму, а также считывать и перезаписывать больше дисковых блоков при записи каждого блока).

RAID 10

Массив RAID 10 (рис. 5) представляет собой сочетание уровней 0 и 1. Минимально для этого уровня требуются четыре диска. В массиве RAID 10 из четырех дисков они попарно объединяются в массивы RAID 1, а оба эти массива как логические диски объединяются в массив RAID 0. Возможен и другой подход: первоначально диски объединяются в массивы RAID 0, а затем логические диски на основе этих массивов - в массив RAID 1.

Рис. 5. Массив RAID 10

RAID 50

Массив RAID 50 представляет собой сочетание уровней 0 и 5 (рис. 6). Минимально для этого уровня требуется шесть дисков. В массиве RAID 50 сначала создаются два массива RAID 5 (минимум по три диска в каждом), которые потом как логические диски объединяются в массив RAID 0.

Рис. 6. Массив RAID 50

Методика тестирования контроллера LSI 3ware SAS 9750-8i

Для тестирования RAID-контроллера LSI 3ware SAS 9750-8i мы использовали специализированный тестовый пакет IOmeter 1.1.0 (версия от 2010.12.02). Тестовый стенд имел следующую конфигурацию:

  • процессор - Intel Core i7-990 (Gulftown);
  • системная плата - GIGABYTE GA-EX58-UD4;
  • память - DDR3-1066 (3 Гбайт, трехканальный режим работы);
  • системный диск - WD Caviar SE16 WD3200AAKS;
  • видеокарта - GIGABYTE GeForce GTX480 SOC;
  • RAID-контроллер - LSI 3ware SAS 9750-8i;
  • SAS-диски, подключаемые к RAID-контроллеру, - Seagate Cheetah 15K.7 ST3300657SS.

Тестирование проводилось под управлением операционной системы Microsoft Windows 7 Ultimate (32-bit).

Мы использовали Windows-драйвер RAID-контроллера версии 5.12.00.007, а также обновили прошивку контроллера до версии 5.12.00.007.

Системный диск подключался к SATA, реализованному через контроллер, интегрированный в южный мост чипсета Intel X58, a SAS-диски подключались напрямую к портам RAID-контроллера с использованием двух кабелей Mini-SAS SFF-8087 ->4 SAS.

RAID-контроллер устанавливался в разъем PCI Express x8 на системной плате.

Контроллер тестировался со следующими RAID-массивами: RAID 0, RAID 1, RAID 5, RAID 6, RAID 10 и RAID 50. Количество дисков, объединяемых в RAID-массив, варьировалось для каждого типа массива от минимального значения до восьми.

Размер страйпа на всех RAID-массивах не изменялся и составлял 256 Кбайт.

Напомним, что пакет IOmeter позволяет работать как с дисками, на которых создан логический раздел, так и с дисками без логического раздела. В случае если проводится тестирование диска без созданного на нем логического раздела, то IOmeter работает на уровне логических блоков данных, то есть вместо операционной системы передает команды контроллеру на запись или чтение LBA-блоков.

Если на диске создан логический раздел, то первоначально утилита IOmeter создает на диске файл, который по умолчанию занимает весь логический раздел (в принципе, размер этого файла можно изменять, указав его в количестве 512 байтных секторов), и далее уже работает с этим файлом, то есть считывает или записывает (перезаписывает) отдельные LBA-блоки в пределах этого файла. Но опять-таки IOmeter работает в обход операционной системы, то есть непосредственно посылает запросы контроллеру на чтение/запись данных.

Вообще, при тестировании HDD-дисков, как показывает практика, разницы между результатами тестирования диска с созданным логическим разделом и без него практически нет. В то же время мы считаем, что более корректно проводить тестирование без созданного логического раздела, поскольку в таком случае результаты тестов не зависят от используемой файловой системы (NTFA, FAT, ext и т.д.). Именно поэтому мы выполняли тестирование без создания логических разделов.

Кроме того, утилита IOmeter позволяет задавать размер блока запроса (Transfer Request Size) на запись/чтение данных, а тест можно проводить как для последовательных (Sequential) чтения и записи, когда LBA-блоки считываются и записываются последовательно друг за другом, так и для случайных (Random), когда LBA-блоки считываются и записываются в произвольном порядке. При формировании сценария нагрузки можно задавать время теста, процентное соотношение между последовательными и случайными операциями (Percent Random/Sequential Distribution), а также процентное соотношение между операциями чтения и записи (Percent Read/Write Distribution). Кроме того, утилита IOmeter позволяет автоматизировать весь процесс тестирования и сохраняет все результаты в CSV-файл, который затем легко экспортируется в таблицу Excel.

Еще одна настройка, которую позволяет делать утилита IOmeter, - это так называемое выравнивание блоков запросов на передачу данных (Align I/Os on) по границам секторов жесткого диска. По умолчанию IOmeter выравнивает блоки запросов по границам 512-байтных секторов диска, однако можно задать и произвольное выравнивание. Собственно, большинство жестких дисков имеют размер сектора 512 байт и только в последнее время стали появляться диски с размером сектора 4 Кбайт. Напомним, что в HDD-дисках сектор - это минимальный адресуемый размер данных, который можно записать или считать с диска.

При проведении тестирования необходимо устанавливать выравнивание блоков запросов на передачу данных по размеру сектора диска. Поскольку в дисках Seagate Cheetah 15K.7 ST3300657SS размер сектора составляет 512 байт, мы использовали выравнивание по границам 512-байтных секторов.

С помощью тестового пакета IOmeter мы измеряли скорость последовательного чтения и записи, а также скорость случайного чтения и записи созданного RAID-массива. Размеры блоков передаваемых данных составляли 512 байт, 1, 2, 4, 8, 16, 32, 64, 128, 256, 512 и 1024 Кбайт.

В перечисленных сценариях нагрузки время теста с каждым запросом на передачу блока данных составляло 5 мин. Также отметим, что во всех перечисленных тестах мы задавали в настройках IOmeter глубину очереди задачи (# of Outstanding I/Os) равной 4, что типично для пользовательских приложений.

Результаты тестирования

Проанализировав результаты тестирования, мы были удивлены работой RAID-контроллера LSI 3ware SAS 9750-8i. Причем настолько, что стали просматривать наши скрипты на предмет выявления в них ошибки, а потом многократно повторили тестирование с другими настройками RAID-контроллера. Мы меняли размер страйпа и режим работы кэша RAID-контроллера. Это, конечно же, отражалось на результатах, однако не меняло общего характера зависимости скорости передачи данных от размера блока данных. А эту зависимость мы как раз и не смогли объяснить. Работа данного контроллера представляется нам совершенно нелогичной. Во­первых, результаты нестабильны, то есть при каждом фиксированном размере блока данных скорость периодически изменяется и усредненный результат имеет большую погрешность. Отметим, что обычно результаты тестирования дисков и контроллеров с использованием утилиты IOmeter стабильны и различаются весьма незначительно.

Во­вторых, при увеличении размера блока скорость передачи данных должна возрастать или оставаться неизменной в режиме насыщения (когда скорость достигает своего максимального значения). Однако в случае контроллера LSI 3ware SAS 9750-8i при некоторых размерах блоков наблюдается резкое падение скорости передачи данных. Кроме того, для нас так и осталось загадкой, почему при одном и том же количестве дисков для массивов RAID 5 и RAID 6 скорость записи выше скорости чтения. Одним словом, объяснить работу контроллера LSI 3ware SAS 9750-8i мы не можем - остается лишь констатировать факты.

Результаты тестирования можно классифицировать по-разному. К примеру, по сценариям загрузки, когда для каждого типа загрузки приводятся результаты для всех возможных RAID-массивов с разным количеством подключенных дисков, или по типам RAID-массивов, когда для каждого типа RAID-массива указываются результаты с различным количеством дисков в сценариях последовательного чтения, последовательной записи, случайного чтения и случайной записи. Также можно классифицировать результаты по количеству дисков в массиве, когда для каждого количества подключенных к контроллеру дисков приводятся результаты для всех возможных (при данном количестве дисков) RAID-массивов в сценариях последовательного чтения и последовательной записи, случайного чтения и случайной записи.

Мы решили классифицировать результаты по типам массивов, поскольку, на наш взгляд, несмотря на довольно большое количество графиков, такое их представление более наглядно.

RAID 0

Массив RAID 0 можно создать с количеством дисков от двух до восьми. Результаты тестирования для массива RAID 0 представлены на рис. 7-15.

Рис. 7. Скорость последовательного чтения и записи
при восьми дисках в массиве RAID 0

Рис. 8. Скорость последовательного чтения и записи
при семи дисках в массиве RAID 0

Рис. 9. Скорость последовательного чтения
и записи при шести дисках в массиве RAID 0

Рис. 10. Скорость последовательного чтения и записи
при пяти дисках в массиве RAID 0

Рис. 11. Скорость последовательного чтения и записи
при четырех дисках в массиве RAID 0

Рис. 12. Скорость последовательного чтения и записи
при трех дисках в массиве RAID 0

Рис. 13. Скорость последовательного чтения и записи
при двух дисках в массиве RAID 0

Рис. 14. Скорость случайного чтения
в массиве RAID 0

Рис. 15. Скорость случайной записи в массиве RAID 0

Понятно, что наиболее высокая скорость последовательного чтения и записи в массиве RAID 0 достигается при восьми дисках. Стоит обратить внимание на то, что при восьми и семи дисках в массиве RAID 0 скорости последовательного чтения и записи практически совпадают друг с другом и при меньшем количестве дисков скорость последовательной записи становится выше скорости чтения.

Нельзя не отметить и характерные провалы в скорости последовательного чтения и записи при определенных размерах блоков. К примеру, при восьми и шести дисках в массиве такие провалы наблюдаются при размере блоков данных 1 и 64 Кбайт, а при семи дисках - при размере 1, 2 и 128 Кбайт. Аналогичные провалы, но при других размерах блоков данных имеются и при четырех, трех и двух дисках в массиве.

По скорости последовательного чтения и записи (как усредненной по всем размерам блоков характеристике) массив RAID 0 превосходит все остальные возможные массивы в конфигурации с восемью, семью, шестью, пятью, четырьмя, тремя и двумя дисками.

Случайный доступ в массиве RAID 0 тоже довольно интересен. Скорость случайного чтения при каждом размере блока данных пропорциональна количеству дисков в массиве, что вполне логично. Причем при размере блока 512 Кбайт при любом количестве дисков в массиве наблюдается характерный провал по скорости случайного чтения.

При случайной записи при любом количестве дисков в массиве скорость возрастает с увеличением размера блока данных и никаких провалов в скорости нет. В то же время нужно отметить, что наибольшая скорость в этом случае достигается не при восьми, а при семи дисках в массиве. Следом по скорости случайной записи идет массив из шести дисков, затем из пяти и только потом из восьми дисков. Причем по скорости случайной записи массив из восьми дисков практически идентичен массиву из четырех дисков.

По скорости случайной записи массив RAID 0 превосходит все остальные возможные массивы в конфигурациях с восемью, семью, шестью, пятью, четырьмя, тремя и двумя дисками. А вот по скорости случайного чтения в конфигурации с восемью дисками массив RAID 0 уступает массивам RAID 10 и RAID 50, но в конфигурации с меньшим количеством дисков массив RAID 0 лидирует по скорости случайного чтения.

RAID 5

Массив RAID 5 можно создать с количеством дисков от трех до восьми. Результаты тестирования для массива RAID 5 представлены на рис. 16-23.

Рис. 16. Скорость последовательного чтения и записи
при восьми дисках в массиве RAID 5

Рис. 17. Скорость последовательного чтения и записи
при семи дисках в массиве RAID 5

Рис. 18. Скорость последовательного чтения и записи
при шести дисках в массиве RAID 5

Рис. 19. Скорость последовательного чтения и записи
при пяти дисках в массиве RAID 5

Рис. 20. Скорость последовательного чтения и записи
при четырех дисках в массиве RAID 5

Рис. 21. Скорость последовательного чтения и записи
при трех дисках в массиве RAID 5

Рис. 22. Скорость случайного чтения
в массиве RAID 5

Рис. 23. Скорость случайной записи
в массиве RAID 5

Понятно, что наиболее высокая скорость чтения и записи достигается при восьми дисках. Стоит обратить внимание на то, что для массива RAID 5 скорость последовательной записи в среднем выше, чем скорость чтения. Однако при определенном размере запроса скорость последовательного чтения может превышать скорость последовательной записи.

Нельзя не отметить и характерные провалы по скорости последовательного чтения и записи при определенных размерах блоков при любом количестве дисков в массиве.

По скорости последовательного чтения и записи в конфигурации с восемью дисками массив RAID 5 уступает массивам RAID 0 и RAID 50, но превосходит массивы RAID 10 и RAID 6. В конфигурациях с семью дисками массив RAID 5 по скорости последовательного чтения и записи уступает массиву RAID 0 и превосходит массив RAID 6 (остальные типы массивов невозможны при данном количестве дисков).

В конфигурациях с шестью дисками массив RAID 5 по скорости последовательного чтения уступает массивам RAID 0 и RAID 50, а по скорости последовательной записи - только массиву RAID 0.

В конфигурациях с пятью, четырьмя и тремя дисками массив RAID 5 по скорости последовательного чтения и записи уступает лишь массиву RAID 0.

Случайный доступ в массиве RAID 5 подобен случайному доступу в массиве RAID 0. Так, скорость случайного чтения при каждом размере блока данных пропорциональна количеству дисков в массиве, а при размере блока 512 Кбайт при любом количестве дисков в массиве наблюдается характерный провал по скорости случайного чтения. Причем нужно отметить, что скорость случайного чтения слабо зависит от количества дисков в массиве, то есть для любого количества дисков она примерно одинакова.

По скорости случайного чтения массив RAID 5 в конфигурации с восемью, семью, шестью, четырьмя и тремя дисками уступает всем остальным массивам. И только в конфигурации с пятью дисками он незначительно опережает массив RAID 6.

По скорости случайной записи массив RAID 5 в конфигурации с восемью дисками уступает лишь массивам RAID 0 и RAID 50, а в конфигурации с семью и пятью, четырьмя и тремя дисками - только массиву RAID 0.

В конфигурации с шестью дисками массив RAID 5 уступает по скорости случайной записи массивам RAID 0, RAID 50 и RAID 10.

RAID 6

Контроллер LSI 3ware SAS 9750-8i позволяет создать массив RAID 6 с количеством дисков от пяти до восьми. Результаты тестирования для массива RAID 6 представлены на рис. 24-29.

Рис. 24. Скорость последовательного чтения и записи
при восьми дисках в массиве RAID 6

Рис. 25. Скорость последовательного чтения и записи
при семи дисках в массиве RAID 6

Также отметим и характерные провалы по скорости последовательного чтения и записи при определенных размерах блоков при любом количестве дисков в массиве.

По скорости последовательного чтения массив RAID 6 уступает всем остальным массивам в конфигурациях с любым (от восьми до пяти) количеством дисков.

По скорости последовательной записи ситуация несколько лучше. В конфигурации с восемью дисками RAID 6 опережает массив RAID 10, а в конфигурации с шестью дисками - и массивы RAID 10 и RAID 50. Правда, в конфигурациях с семью и пятью дисками, когда создание массивов RAID 10 и RAID 50 невозможно, этот массив оказывается на последнем месте по скорости последовательной записи.

Случайный доступ в массиве RAID 6 подобен случайному доступу в массивах RAID 0 и RAID 5. Так, скорость случайного чтения при размере блока 512 Кбайт при любом количестве дисков в массиве имеет характерный провал по скорости случайного чтения. Отметим, что максимальная скорость случайного чтения достигается при шести дисках в массиве. Ну а при семи и восьми дисках скорость случайного чтения практически одинакова.

При случайной записи при любом количестве дисков в массиве скорость возрастает с увеличением размера блока данных и никаких провалов в скорости нет. Кроме того, скорость случайной записи хотя и пропорциональна количеству дисков в массиве, но разница по скорости незначительная.

По скорости случайного чтения массив RAID 6 в конфигурации с восемью и семью дисками опережает лишь массив RAID 5 и уступает всем остальным возможным массивам.

В конфигурации с шестью дисками массив RAID 6 уступает массивам RAID 10 и RAID 50 по скорости случайного чтения, а в конфигурации с пятью дисками - массивам RAID 0 и RAID 5.

По скорости случайной записи массив RAID 6 при любом количестве подключенных дисков уступает всем остальным возможным массивам.

В целом можно констатировать, что массив RAID 6 уступает по производительности и массивам RAID 0, RAID 5, RAID 50 и RAID 10. То есть по производительности этот тип массива оказался на последнем месте.

Рис. 33. Скорость случайного чтения
в массиве RAID 10

Рис. 34. Скорость случайной записи в массиве RAID 10

Характерно, что в массивах из восьми и шести дисков скорость последовательного чтения выше скорости записи, а в массиве из четырех дисков эти скорости практически совпадают при любом размере блока данных.

Для массива RAID 10, так же как и для всех остальных рассмотренных массивов, характерно падение скорости последовательного чтения и записи при определенных размерах блоков данных при любом количестве дисков в массиве.

При случайной записи при любом количестве дисков в массиве скорость возрастает с увеличением размера блока данных и никаких провалов в скорости нет. Кроме того, скорость случайной записи пропорциональна количеству дисков в массиве.

По скорости последовательного чтения массив RAID 10 идет вслед за массивами RAID 0, RAID 50 и RAID 5 в конфигурации с восемью, шестью и четырьмя дисками, а по скорости последовательной записи он уступает даже массиву RAID 6, то есть идет вслед за массивами RAID 0, RAID 50, RAID 5 и RAID 6.

Зато по скорости случайного чтения массив RAID 10 опережает все остальные массивы в конфигурации с восемью, шестью и четырьмя дисками. А вот по скорости случайной записи этот массив проигрывает массивам RAID 0, RAID 50 и RAID 5 в конфигурации с восемью дисками, массивам RAID 0 и RAID 50 в конфигурации с шестью дисками и массивам RAID 0 и RAID 5 в конфигурации с четырьмя дисками.

RAID 50

Массив RAID 50 можно построить на шести или восьми дисках. Результаты тестирования для массива RAID 50 представлены на рис. 35-38.

В сценарии случайного чтения, как и для всех остальных рассмотренных массивов, наблюдается характерный провал производительности при размере блока 512 Кбайт.

При случайной записи при любом количестве дисков в массиве скорость возрастает с увеличением размера блока данных и никаких провалов в скорости нет. Кроме того, скорость случайной записи пропорциональна количеству дисков в массиве, однако разница по скорости незначительная и наблюдается только при большом (более 256 Кбайт) размере блока данных.

По скорости последовательного чтения массив RAID 50 уступает лишь массиву RAID 0 (в конфигурации с восемью и шестью дисками). По скорости последовательной записи массив RAID 50 также уступает лишь массиву RAID 0 в конфигурации с восемью дисками, а в конфигурации с шестью дисками он проигрывает массивам RAID 0, RAID 5 и RAID 6.

Зато по скорости случайного чтения и записи массив RAID 50 уступает лишь массиву RAID 0 и опережает все остальные возможные при восьми и шести дисках массивы.

RAID 1

Как мы уже отмечали, массив RAID 1, который может быть построен только на двух дисках, использовать на таком контроллере нецелесо-образно. Однако для полноты картины мы приводим результаты и для массива RAID 1 на двух дисках. Результаты тестирования для массива RAID 1 представлены на рис. 39 и 40.

Рис. 39. Скорость последовательной записи и чтения в массиве RAID 1

Рис. 40. Скорость случайной записи и чтения в массиве RAID 1

Для массива RAID 10, так же как и для всех остальных рассмотренных массивов, характерно падение скорости последовательного чтения и записи при определенных размерах блоков данных.

В сценарии случайного чтения, как и для прочих массивов, наблюдается характерный провал производительности при размере блока 512 Кбайт.

При случайной записи скорость возрастает с увеличением размера блока данных и никаких провалов в скорости нет.

Массив RAID 1 можно сопоставить только с массивом RAID 0 (поскольку в случае двух дисков никакие больше массивы невозможны). Нужно отметить, что массив RAID 1 проигрывает по производительности массиву RAID 0 с двумя дисками во всех сценариях нагрузки, кроме случайного чтения.

Выводы

Впечатление от тестирования контроллера LSI 3ware SAS 9750-8i в сочетании с SAS-дисками Seagate Cheetah 15K.7 ST3300657SS у нас сложилось довольно неоднозначное. С одной стороны, у него прекрасные функциональные возможности, с другой - настораживают провалы по скорости при определенных размерах блоков данных, что, безусловно, отражается на скоростных показателях RAID-массивов при их функционировании в реальной среде.

С появлением достаточного большого числа периферии Serial Attached SCSI (SAS) можно констатировать начало перехода корпоративного окружения на рельсы новой технологии. Но SAS не только является признанным преемником технологии UltraSCSI, но и реализует новые сферы использования, подняв возможности масштабирования систем прямо-таки до немыслимых высот. Мы решили продемонстрировать потенциал SAS, пристально взглянув на технологию, host-адаптеры, жёсткие диски и системы хранения.

SAS нельзя назвать полностью новой технологией: она берёт лучшее из двух миров. Первая часть SAS касается последовательной передачи данных, что требует меньше физических проводов и контактов. Переход от параллельной к последовательной передаче позволил избавиться и от шины. Хотя по текущим спецификациям SAS пропускная способность определена в 300 Мбайт/с на порт, что меньше, чем 320 Мбайт/с у UltraSCSI, замена общей шины на соединение "точка-точка" - весомое преимущество. Вторая часть SAS - это протокол SCSI, остающийся мощным и популярным.

SAS может использовать и большой набор разновидностей RAID . Такие гиганты, как Adaptec или LSI Logic, в своих продуктах предлагают расширенный набор функций для расширения, миграции, создания "гнёзд" и других возможностей, в том числе касающихся распределённых массивов RAID по нескольким контроллерам и приводам.

Наконец, большинство упомянутых действий сегодня производятся уже "на лету". Здесь нам следует отметить превосходные продукты AMCC/3Ware , Areca и Broadcom/Raidcore , позволившие перенести функции корпоративного класса на пространства SATA.

По сравнению с SATA, традиционная реализация SCSI теряет почву на всех фронтах, за исключением high-end корпоративных решений. SATA предлагает подходящие жёсткие диски , отличается хорошей ценой и широким набором решений . И не будем забывать о ещё одной "умной" возможности SAS: она легко уживается с существующими инфраструктурами SATA, поскольку host-адаптеры SAS легко работают и с дисками SATA. Но вот накопитель SAS к адаптеру SATA подключить уже не получится.


Источник: Adaptec.

Сначала, как нам кажется, следует обратиться к истории SAS. Стандарт SCSI (расшифровывается как "small computer system interface/интерфейс малых компьютерных систем") всегда рассматривался как профессиональная шина для подключения накопителей и некоторых других устройств к компьютерам. Жёсткие диски для серверов и рабочих станций по-прежнему используют технологию SCSI. В отличие от массового стандарта ATA, позволяющего подключить к одному порту только два накопителя, SCSI разрешает связывать до 15 устройств в одну шину и предлагает мощный командный протокол. Устройства должны иметь уникальный идентификатор SCSI ID, который может присваиваться как вручную, так и через протокол SCAM (SCSI Configuration Automatically). Поскольку ID устройств для шин двух или более адаптеров SCSI могут быть и не уникальными, были добавлены логические номера LUN (Logical Unit Numbers), позволяющие идентифицировать устройства в сложных SCSI-окружениях.

Аппаратное обеспечение SCSI более гибкое и надёжное по сравнению с ATA (этот стандарт ещё называют IDE, Integrated Drive Electronics). Устройства могут подсоединяться как внутри компьютера, так и снаружи, причём длина кабеля может составлять до 12 м, если только он правильно терминирован (для того, чтобы избежать отражений сигнала). По мере эволюции SCSI появились многочисленные стандарты, оговаривающие разную ширину шины, тактовую частоту, разъёмы и напряжение сигнала (Fast, Wide, Ultra, Ultra Wide, Ultra2, Ultra2 Wide, Ultra3, Ultra320 SCSI). К счастью, все они используют единый набор команд.

Любая связь SCSI организуется между инициатором (host-адаптером), отсылающим команды, и целевым приводом, отвечающим на них. Сразу же после получения набора команд целевой привод отсылает так называемый sense-код (состояние: занят, ошибка или свободен), по которому инициатор узнаёт, получит он нужный ответ или нет.

Протокол SCSI оговаривает почти 60 разных команд. Они разбиты по четырём категориям: не относящиеся к данным (non-data), двунаправленные (bi-directional), чтение данных (read data) и запись данных (write data).

Ограничения SCSI начинают проявлять себя, когда вы будете добавлять приводы на шину. Сегодня вряд ли можно найти жёсткий диск, способный полностью нагрузить пропускную способность 320 Мбайт/с у Ultra320 SCSI. Но пять или больше приводов на одной шине - совсем другое дело. Вариантом будет добавление второго host-адаптера для балансировки нагрузки, но это стоит средств. Проблема и с кабелями: скрученные 80-проводные кабели стоят очень дорого. Если же вы хотите получить ещё и "горячую замену" приводов, то есть лёгкое замещение вышедшего из строя накопителя, то требуются специальные оснастки (backplane).

Конечно, лучше всего размещать приводы в раздельные оснастки или модули, которые обычно поддерживают возможность "горячей замены" вместе с другими приятными функциями управления. В итоге на рынке присутствует больше число профессиональных SCSI-решений. Но все они стоят немало, именно поэтому стандарт SATA столь бурно развивался последние годы. И хотя SATA никогда не удовлетворит нужды high-end корпоративных систем, этот стандарт прекрасно дополняет SAS при создании новых масштабируемых решений для сетевых окружений следующего поколения.


SAS не использует общую шину для нескольких устройств. Источник: Adaptec.

SATA


Слева находится разъём SATA для передачи данных. Справа - разъём для подачи питания. Контактов достаточно для подачи напряжений 3,3 В, 5 В и 12 В на каждый привод SATA.

Стандарт SATA существует на рынке уже несколько лет, и сегодня он достиг уже второго поколения. SATA I отличался пропускной способностью 1,5 Гбит/с с двумя последовательными соединениями, использующими разностное кодирование с низким напряжением (low-voltage differential signaling). На физическом уровне применяется кодирование 8/10 бит (10 бит фактических для 8 бит данных), что объясняет максимальную пропускную способность интерфейса 150 Мбайт/с. После перехода SATA на скорость 300 Мбайт/с многие начали называть новый стандарт SATA II, хотя при стандартизации SATA-IO (International Organization) планировалось сначала добавить больше функций, а затем уже назвать SATA II. Отсюда последняя спецификация и названа SATA 2.5, она включает такие расширения SATA, как Native Command Queuing (NCQ) и eSATA (external SATA), множители портов (до четырёх приводов на порт) и т.д. Но дополнительные функции SATA опциональные как для контроллера, так и для самого жёсткого диска.

Будем надеяться, что в 2007 году SATA III на 600 Мбайт/с всё-таки выйдет.

Если кабели параллельного ATA (UltraATA) были ограничены 46 см, то кабели SATA могут иметь длину до 1 м, а для eSATA - в два раза больше. Вместо 40 или 80 проводов последовательная передача требует лишь единицы контактов. Поэтому кабели SATA очень узкие, их легко прокладывать внутри корпуса компьютера, и они не так сильно мешают воздушному потоку. На порт SATA полагается одно устройство, что позволяет отнести этот интерфейс к типу "точка-точка".


Разъёмы SATA для передачи данных и питания предусматривают отдельные вилки.

SAS


Сигнальный протокол здесь такой же, как и у SATA. Источник: Adaptec.

Приятная особенность Serial Attached SCSI заключается в том, что технология поддерживает и SCSI, и SATA, в результате чего к SAS-контроллерам можно подключать диски SAS или SATA (или сразу обоих стандартов). Впрочем, SAS-приводы не могут работать с контроллерами SATA по причине использования протокола Serial SCSI Protocol (SSP). Подобно SATA, SAS следует принципу подключения "точка-точка" для приводов (сегодня 300 Мбайт/с), а благодаря SAS-расширителям (или экспандерам, expander) можно подключить больше приводов, чем доступно SAS-портов. Жёсткие диски SAS поддерживают два порта, каждый со своим уникальным SAS ID, поэтому можно использовать два физических подключения, чтобы обеспечить избыточность, - подключить привод к двум разным host-узлам. Благодаря протоколу STP (SATA Tunneling Protocol), контроллеры SAS могут обмениваться данными с SATA-приводами, подключёнными к экспандеру.


Источник: Adaptec.



Источник: Adaptec.



Источник: Adaptec.

Конечно, единственное физическое подключение экспандера SAS к host-контроллеру можно считать "узким местом", поэтому в стандарте предусмотрены широкие (wide) порты SAS. Широкий порт группирует несколько подключений SAS в единую связь между двумя любыми устройствами SAS (обычно между host-контроллером и расширителем/экспандером). Число подключений в рамках связи можно увеличивать, всё зависит от налагаемых требований. Но избыточные подключения не поддерживаются, нельзя также допускать и любых петель или колец.


Источник: Adaptec.

В будущих реализациях SAS добавится пропускная способность 600 и 1200 Мбайт/с на порт. Конечно, производительность жёстких дисков в такой же пропорции не вырастет, зато можно будет удобнее использовать экспандеры на малом числе портов.



Устройства под названиями "Fan Out" и "Edge" являются экспандерами. Но только главный экспандер Fan Out может работать с доменом SAS (см. 4x связь в центре диаграммы). На каждый экспандер Edge дозволяется до 128 физических подключений, причём можно использовать широкие порты и/или подключать другие экспандеры/приводы. Топология может быть весьма сложной, но в то же время гибкой и мощной. Источник: Adaptec.



Источник: Adaptec.

Оснастки (backplane) - основной строительный блок любой системы хранения, которая должна поддерживать "горячее подключение". Поэтому экспандеры SAS часто подразумевают мощные оснастки (как в едином корпусе, так и нет). Обычно для подключения простой оснастки к host-адаптеру используется одна связь. Экспандеры со встроенными оснастками, конечно, полагаются на многоканальные подключения.

Для SAS разработано три типа кабелей и разъёмов. SFF-8484 - многожильный внутренний кабель, связывающий host-адаптер с оснасткой. В принципе, того же самого можно добиться, разветвив на одном конце этот кабель на несколько отдельных разъёмов SAS (см. иллюстрацию ниже). SFF-8482 - разъём, через который привод подключается к одиночному интерфейсу SAS. Наконец, SFF-8470 - внешний многожильный кабель, длиной до шести метров.


Источник: Adaptec.


Кабель SFF-8470 для внешних многоканальных SAS-подключений.


Многожильный кабель SFF-8484. Через один разъём проходят четыре канала/порта SAS.


Кабель SFF-8484, позволяющий подключить четыре накопителя SATA.

SAS как часть решений SAN

Зачем нам нужна вся эта информация? Большинство пользователей и близко не подойдут к топологии SAS, о которой мы рассказывали выше. Но SAS - это больше, нежели интерфейс следующего поколения для профессиональных жёстких дисков, хотя он идеально подходит для построения простых и сложных RAID-массивов на базе одного или нескольких RAID-контроллеров. SAS способен на большее. Перед нами последовательный интерфейс "точка-точка", который легко масштабируется по мере того, как вы добавляете число связей между двумя любыми устройствами SAS. Накопители SAS поставляются с двумя портами, так что вы можете подключить один порт через экспандер к host-системе, после чего создать резервный путь к другой host-системе (или другому экспандеру).

Связь между SAS-адаптерами и экспандерами (а также и между двумя экспандерами) может быть такой широкой, сколько доступно портов SAS. Экспандеры обычно представляют собой стоечные системы, способные вместить большое число накопителей, и возможное подключение SAS к вышестоящему устройству по иерархии (например, host-контроллеру) ограничено лишь возможностями экспандера.

Благодаря богатой и функциональной инфраструктуре, SAS позволяет создавать сложные топологии хранения, а не выделенные жёсткие диски или отдельные сетевые хранилища. В данном случае под "сложными" не следует понимать, что с такой топологией сложно работать. Конфигурации SAS состоят из простых дисковых оснасток или используют экспандеры. Любую связь SAS можно расширить или сузить, в зависимости от требований к пропускной способности. Вы можете использовать как мощные жёсткие диски SAS, так и ёмкие модели SATA. Вместе с мощными RAID-контроллерами, можно легко настраивать, расширять или переконфигурировать массивы данных - как с точки зрения уровня RAID, так и с аппаратной стороны.

Всё это становится тем более важным, если принять во внимание, насколько быстро растут корпоративные хранилища. Сегодня у всех на слуху SAN - сеть хранения данных (storage area network). Она подразумевает децентрализованную организацию подсистемы хранения данных с традиционными серверами, используя физически вынесенные хранилища. По существующим сетям гигабитного Ethernet или Fiber Channel запускается немного модифицированный протокол SCSI, инкапсулирующийся в пакеты Ethernet (iSCSI - Internet SCSI). Система, на которой работает от одного жёсткого диска до сложных гнездовых RAID-массивов, становится так называемой целью (target) и привязывается к инициатору (host-система, initiator), который рассматривает цель, как если бы она была просто физическим элементом.

iSCSI, конечно, позволяет создать стратегию развития хранилища, организации данных или управления доступом к ним. Мы получаем ещё один уровень гибкости, сняв напрямую подключённые к серверам хранилища, позволяя любой подсистеме хранения становиться целью iSCSI. Переход на вынесенные хранилища делает работу системы независимой от серверов хранения данных (опасная точка сбоя) и улучшает управляемость "железа". С программной точки зрения, хранилище по-прежнему остаётся "внутри" сервера. Цель и инициатор iSCSI могут находиться рядом, на разных этажах, в разных комнатах или зданиях - всё зависит от качества и скорости IP-соединения между ними. С этой точки зрения важно отметить, что SAN плохо подходит для требований оперативно доступных приложений вроде баз данных.

2,5" жёсткие диски SAS

2,5" жёсткие диски для профессиональной сферы по-прежнему воспринимаются новинкой. Мы уже довольно давно рассматривали первый подобный накопитель от Seagate - 2,5" Ultra320 Savvio , который оставил хорошее впечатление. Все 2,5" накопители SCSI используют скорость вращения шпинделя 10 000 об/мин, но они не дотягивают до того уровня производительности, который дают 3,5" винчестеры с такой жё скоростью вращения шпинделя. Дело в том, что внешние дорожки 3,5" моделей вращаются с большей линейной скоростью, что обеспечивает более высокую скорость передачи данных.

Преимущество маленьких жёстких дисков кроется и не в ёмкости: сегодня для них максимумом по-прежнему остаётся 73 Гбайт, в то время как у 3,5" винчестеров корпоративного класса мы получаем уже 300 Гбайт. Во многих сферах очень важно соотношение производительности на занимаемый физический объём или эффективность энергопотребления. Чем больше жёстких дисков вы будете использовать, тем большую производительность пожнёте - в паре с соответствующей инфраструктурой, конечно. При этом 2,5" винчестеры потребляют энергии почти в два раза меньше, чем 3,5" конкуренты. Если рассматривать соотношение производительности на ватт (число операций ввода/вывода на ватт), то 2,5" форм-фактор даёт очень неплохие результаты.

Если вам, прежде всего, необходима ёмкость, то 3,5" накопители на 10 000 об/мин вряд ли будут лучшим выбором. Дело в том, что 3,5" винчестеры SATA дают на 66% большую ёмкость (500 вместо 300 Гбайт на жёсткий диск), оставляя уровень производительности приемлемым. Многие производители винчестеров предлагают SATA-модели для работы в режиме 24/7, а цена накопителей снижена до минимума. Проблемы же надёжности можно решить, докупив запасные (spare) приводы для немедленной замены в массиве.

В линейке MAY представлено текущее поколение 2,5" накопителей Fujitsu для профессионального сектора. Скорость вращения составляет 10 025 об/мин, а ёмкости - 36,7 и 73,5 Гбайт. Все приводы поставляются с 8 Мбайт кэша и дают среднее время поиска чтения 4,0 мс и записи 4,5 мс. Как мы уже упоминали, приятная особенность 2,5" винчестеров - сниженное энергопотребление. Обычно один 2,5" винчестер позволяет сэкономить не менее 60% энергии по сравнению с 3,5" накопителем.

3,5" жёсткие диски SAS

Под MAX скрывается текущая линейка высокопроизводительных жёстких дисков Fujitsu со скоростью вращения 15 000 об/мин. Так что название вполне соответствует. В отличие от 2,5" накопителей, здесь мы получаем целых 16 Мбайт кэша и короткое среднее время поиска 3,3 мс для чтения и 3,8 мс для записи. Fujitsu предлагает модели на 36,7 Гбайт, 73,4 Гбайт и 146 Гбайт (с одной, двумя и четырьмя пластинами).

Гидродинамические подшипники добрались и до жёстких дисков корпоративного класса, поэтому новые модели работают существенно тише предыдущих на 15 000 об/мин. Конечно, подобные жёсткие диски следует правильно охлаждать, и оснастка это тоже обеспечивает.

Hitachi Global Storage Technologies тоже предлагает собственную линейку для высокопроизводительных решений. UltraStar 15K147 работает на скорости 15 000 об/мин и оснащён 16 Мбайт кэшем, как и приводы Fujitsu, но конфигурация пластин иная. Модель на 36,7 Гбайт использует две пластины, а не одну, а на 73,4 Гбайт - три пластины, а не две. Это указывает на меньшую плотность записи данных, но подобный дизайн, по сути, позволяет не использовать внутренние, самые медленные области пластин. В результате и головкам приходится двигаться меньше, что даёт лучшее среднее время доступа.

Hitachi также предлагает модели на 36,7 Гбайт, 73,4 Гбайт и 147 Гбайт с завяленным временем поиска (чтение) 3,7 мс.

Хотя Maxtor уже превратилась в часть Seagate, продуктовые линейки компании пока сохраняются. Производитель предлагает модели на 36, 73 и 147 Гбайт, все из которых отличаются скоростью вращения шпинделя 15 000 об/мин и 16 Мбайт кэшем. Компания заявляет среднее время поиска для чтения 3,4 мс и для записи 3,8 мс.

Cheetah уже давно ассоциируется с высокопроизводительными жёсткими дисками. Подобную ассоциацию с выпуском Barracuda Seagate смогла привить и в сегменте настольных ПК, предложив первый настольный накопитель на 7200 об/мин в 2000 году.

Доступны модели на 36,7 Гбайт, 73,4 Гбайт и 146,8 Гбайт. Все они отличаются скоростью вращения шпинделя 15 000 об/мин и кэшем 8 Мбайт. Заявлено среднее время поиска для чтения 3,5 мс и для записи 4,0 мс.

Host-адаптеры

В отличие от SATA-контроллеров, компоненты SAS можно найти только на материнских платах серверного класса или в виде карт расширения для PCI-X или PCI Express . Если сделать ещё шаг вперёд и рассмотреть RAID-контроллеры (Redundant Array of Inexpensive Drives), то они из-за своей сложности продаются, по большей части, в виде отдельных карт. Карты RAID содержат не только сам контроллер, но и чип ускорения расчётов информации избыточности (XOR-движок), а также и кэш-память. На карту иногда припаяно небольшое количество памяти (чаще всего 128 Мбайт), но некоторые карты позволяют расширять объём с помощью DIMM или SO-DIMM.

При выборе host-адаптера или RAID-контроллера следует чётко определиться, что вам нужно. Ассортимент новых устройств растёт просто на глазах. Простые многопортовые host-адаптеры обойдутся сравнительно дёшево, а на мощные RAID-карты придётся серьёзно потратиться. Подумайте, где вы будете размещать накопители: для внешних хранилищ требуется, по крайней мере, один внешний разъём. Для стоечных серверов обычно требуются карты с низким профилем.

Если вам нужен RAID, то определитесь, будете ли вы использовать аппаратное ускорение. Некоторые RAID-карты отнимают ресурсы центрального процессора на вычисления XOR для массивов RAID 5 или 6; другие используют собственный аппаратный движок XOR. Ускорение RAID рекомендуется для тех окружений, где сервер занимается не только хранением данных, например, для баз данных или web-серверов.

Все карты host-адаптеров, которые мы привели в нашей статье, поддерживают скорость 300 Мбайт/с на порт SAS и позволяют весьма гибко реализовать инфраструктуру хранения данных. Внешними портами сегодня уже мало кого удивишь, да и учтите поддержку жёстких дисков как SAS, так и SATA. Все три карты используют интерфейс PCI-X, но версии под PCI Express уже находятся в разработке.

В нашей статье мы удостоили вниманием карты на восемь портов, но этим число подключённых жёстких дисков не ограничивается. С помощью SAS-экспандера (внешнего) вы можете подключить любое хранилище. Пока четырёхканального подключения будет достаточно, вы можете увеличивать число жёстких дисков вплоть до 122. Из-за затрат производительности на вычисление информации чётности RAID 5 или RAID 6 типичные внешние хранилища RAID не смогут достаточно нагрузить пропускную способность четырёхканального подключения, даже если использовать большое количество приводов.

48300 - host-адаптер SAS, предназначенный для шины PCI-X. На серверном рынке сегодня продолжает доминировать PCI-X, хотя всё больше материнских плат оснащаются интерфейсами PCI Express.

Adaptec SAS 48300 использует интерфейс PCI-X на скорости 133 МГц, что даёт пропускную способность 1,06 Гбайт/с. Достаточно быстро, если шина PCI-X не загружена другими устройствами. Если включить в шину менее скоростное устройство, то все другие карты PCI-X снизят свою скорость до такой же. С этой целью на плату иногда устанавливают несколько контроллеров PCI-X.

Adaptec позиционирует SAS 4800 для серверов среднего и нижнего ценовых диапазонов, а также для рабочих станций. Рекомендованная розничная цена составляет $360, что вполне разумно. Поддерживается функция Adaptec HostRAID, позволяющая перейти на самые простые массивы RAID. В данном случае это RAID уровней 0, 1 и 10. Карта поддерживает внешнее четырёхканальное подключение SFF8470, а также внутренний разъём SFF8484 в паре с кабелем на четыре устройства SAS, то есть всего получаем восемь портов.

Карта умещается в стоечный сервер 2U, если установить низкопрофильную слотовую заглушку. В комплект поставки также входит CD с драйвером, руководство по быстрой установке и внутренний кабель SAS, через который к карте можно подключить до четырёх системных приводов.

Игрок на рынке SAS LSI Logic выслал нам host-адаптер SAS3442X PCI-X, прямого конкурента Adaptec SAS 48300. Он поставляется с восемью портами SAS, которые разделены между двумя четырёхканальными интерфейсами. "Сердцем" карты является чип LSI SAS1068. Один из интерфейсов предназначен для внутренних устройств, второй - для внешних DAS (Direct Attached Storage). Плата использует шинный интерфейс PCI-X 133.

Как обычно, для приводов SATA и SAS поддерживается интерфейс 300 Мбайт/с. На плате контроллера расположено 16 светодиодов. Восемь из них - простые светодиоды активности, а ещё восемь призваны сообщать о неисправности системы.

LSI SAS3442X - низкопрофильная карта, поэтому она легко умещается в любом стоечном сервере 2U.

Отметим поддержку драйверами под Linux, Netware 5.1 и 6, Windows 2000 и Server 2003 (x64), Windows XP (x64) и Solaris до 2.10. В отличие от Adaptec, LSI решила не добавлять поддержку каких-либо RAID-режимов.

RAID-адаптеры

SAS RAID4800SAS - решение Adaptec для более сложных окружений SAS, его можно использовать для серверов приложений, серверов потокового вещания и т.д. Перед нами, опять же, карта на восемь портов, с одним внешним четырёхканальным подключением SAS и двумя внутренними четырёхканальными интерфейсами. Но если используется внешнее подключение, то из внутренних остаётся только один четырёхканальный интерфейс.

Карта тоже предназначена для шины PCI-X 133, которая даёт достаточную пропускную способность даже для самых требовательных конфигураций RAID.

Что же касается режимов RAID, то здесь SAS RAID 4800 легко обгоняет "младшего брата": по умолчанию поддерживаются уровни RAID 0, 1, 10, 5, 50, если у вас есть достаточное число накопителей. В отличие от 48300, Adaptec вложила два кабеля SAS, так что вы сразу же сможете подключить к контроллеру восемь жёстких дисков. В отличие от 48300, карта требует полноразмерный слот PCI-X.

Если вы решите модернизировать карту до Adaptec Advanced Data Protection Suite , то получите возможность перейти на режимы RAID с двойной избыточностью (6, 60), а также ряд функций корпоративного класса: striped mirror drive (RAID 1E), hot spacing (RAID 5EE) и copyback hot spare. Утилита Adaptec Storage Manager отличается интерфейсом как у браузера, с её помощью можно управлять всеми адаптерами Adaptec.

Adaptec предлагает драйверы для Windows Server 2003 (и x64), Windows 2000 Server, Windows XP (x64), Novell Netware, Red Hat Enterprise Linux 3 и 4, SuSe Linux Enterprise Server 8 и 9 и FreeBSD.

Оснастки SAS

335SAS представляет собой оснастку для четырёх приводов SAS или SATA, но подключать её следует к контроллеру SAS. Благодаря 120-мм вентилятору приводы будут хорошо охлаждаться. К оснастке придётся подключить и две вилки питания Molex.

Adaptec включила в комплект поставки кабель I2C, который можно использовать для управления оснасткой через соответствующий контроллер. Но с приводами SAS так уже не получится. Дополнительный светодиодный кабель призван сигнализировать об активности приводов, но, опять же, только для накопителей SATA. В комплект поставки входит и внутренний кабель SAS на четыре привода, поэтому для подключения приводов будет достаточно внешнего четырёхканального кабеля. Если же вы захотите использовать приводы SATA, то придётся воспользоваться переходниками с SAS на SATA.

Розничную цену в $369 нельзя назвать низкой. Но вы получите солидное и надёжное решение.

Хранилища SAS

SANbloc S50 - решение корпоративного уровня на 12 накопителей. Вы получите стоечный корпус формата 2U, который подключается к контроллерам SAS. Перед нами один из лучших примеров масштабируемых решений SAS. 12 приводов могут быть как SAS, так и SATA. Либо представлять смесь обоих типов. Встроенный экспандер может использовать один или два четырёхканальных интерфейса SAS для подключения S50 к host-адаптеру или RAID-контроллеру. Поскольку перед нами явно профессиональное решение, оно оснащено двумя блоками питания (с избыточностью).

Если вы уже купили host-адаптер Adaptec SAS, его можно будет легко подключить к S50 и с помощью Adaptec Storage Manager управлять приводами. Если установить жёсткие диски SATA по 500 Гбайт, то мы получим хранилище на 6 Тбайт. Если же взять 300-Гбайт накопители SAS, то ёмкость составит 3,6 Тбайт. Поскольку экспандер связан с host-контроллером двумя четырёхканальными интерфейсами, мы получим пропускную способность 2,4 Гбайт/с, которой будет более чем достаточно для массива любого типа. Если же установить 12 накопителей в массив RAID0, то максимальная пропускная способность составит всего лишь 1,1 Гбайт/с. В середине этого года Adaptec обещает выпустить немного модифицированную версию с двумя независимыми блоками ввода/вывода SAS.

SANbloc S50 содержит функцию автоматического мониторинга и автоматического управления скоростью вращения вентилятора. Да, устройство работает слишком громко, так что мы с облегчением отдали его из лаборатории после завершения тестов. Сообщение о сбое привода отправляется контроллеру через SES-2 (SCSI Enclosure Services) или через физический интерфейс I2C.

Рабочие температуры для приводов составляют 5-55°C, а для оснастки - от 0 до 40°C.

В начале наших тестов мы получили пиковую пропускную способность всего 610 Мбайт/с. Поменяв кабель между S50 и host-контроллером Adaptec, мы всё-таки смогли достичь 760 Мбайт/с. Для нагрузки системы в режиме RAID 0 мы использовали семь жёстких дисков. Увеличение числа жёстких дисков не приводило к повышению пропускной способности.

Тестовая конфигурация

Системное аппаратное обеспечение
Процессоры 2x Intel Xeon (ядро Nocona)
3,6 ГГц, FSB800, 1 Мбайт кэша L2
Платформа Asus NCL-DS (Socket 604)
Чипсет Intel E7520, BIOS 1005
Память Corsair CM72DD512AR-400 (DDR2-400 ECC, reg.)
2x 512 Мбайт, CL3-3-3-10
Системный жёсткий диск Western Digital Caviar WD1200JB
120 Гбайт, 7200 об/мин, кэш 8 Мбайт, UltraATA/100
Контроллеры накопителей Контроллер Intel 82801EB UltraATA/100 (ICH5)

Promise SATA 300TX4
Драйвер 1.0.0.33

Adaptec AIC-7902B Ultra320
Драйвер 3.0

Adaptec 48300 8 port PCI-X SAS
Драйвер 1.1.5472

Adaptec 4800 8 port PCI-X SAS
Драйвер 5.1.0.8360
Прошивка 5.1.0.8375

LSI Logic SAS3442X 8 port PCI-X SAS
Драйвер 1.21.05
BIOS 6.01

Хранилища
Оснастка на 4 отсека для внутренней установки с горячей заменой

2U, 12-HDD SAS/SATA JBOD

Сеть Broadcom BCM5721 Gigabit Ethernet
Видеокарта Встроенная
ATi RageXL, 8 Мбайт
Тесты
Измерение производительности c"t h2benchw 3.6
Измерение производительности ввода/вывода IOMeter 2003.05.10
Fileserver-Benchmark
Webserver-Benchmark
Database-Benchmark
Workstation-Benchmark
Системное ПО и драйверы
ОС Microsoft Windows Server 2003 Enterprise Edition, Service Pack 1
Драйвер платформы Intel Chipset Installation Utility 7.0.0.1025
Графический драйвер Сценарий рабочей станции.

После изучения нескольких новых жёстких дисков SAS, трёх соответствующих контроллеров и двух оснасток стало понятно, что SAS - действительно перспективная технология. Если вы обратитесь к технической документации SAS, то поймёте, почему. Перед нами не только преемница SCSI с последовательным интерфейсом (быстрым, удобный и лёгким в использовании), но и прекрасный уровень масштабирования и наращивания инфраструктуры, по сравнению с которым решения Ultra320 SCSI кажутся каменным веком.

Да и совместимость просто великолепная. Если вы планируете закупить профессиональное оборудование SATA для вашего сервера, то стоит присмотреться к SAS. Любой SAS-контроллер или оснастка совместимы с жёсткими дисками и SAS, и SATA. Поэтому вы сможете создать как высокопроизводительное окружение SAS, так и ёмкое SATA - или оба сразу.

Удобная поддержка внешних хранилищ - ещё одно важное преимущество SAS. Если хранилища SATA используют либо какие-то собственные решения, либо одиночный канал SATA/eSATA, интерфейс хранилищ SAS позволяет наращивать пропускную способность соединения группами по четыре канала SAS. В итоге мы получаем возможность наращивать пропускную способность под нужды приложений, а не упираться в 320 Мбайт/с UltraSCSI или 300 Мбайт/с SATA. Более того, экспандеры SAS позволяют создать целую иерархию устройств SAS, так что свобода деятельности у администраторов большая.

На этом эволюция устройств SAS не закончится. Как нам кажется, интерфейс UltraSCSI можно считать устаревшим и потихоньку списывать со счетов. Вряд ли индустрия будет его совершенствовать, разве что продолжит поддерживать существующие реализации UltraSCSI. Все же новые жёсткие диски, последние модели хранилищ и оснасток, а также увеличение скорости интерфейса до 600 Мбайт/с, а потом и до 1200 Мбайт/с - всё это предназначено для SAS.

Какова же должна быть современная инфраструктура хранения? С доступностью SAS дни UltraSCSI сочтены. Последовательная версия является логичным шагом вперёд и справляется со всеми задачами лучше предшественницы. Вопрос выбора между UltraSCSI и SAS становится очевидным. Выбирать же между SAS или SATA несколько сложнее. Но если вы смотрите в перспективу, то комплектующие SAS окажутся всё же лучше. Действительно, для максимальной производительности или с точки зрения перспектив масштабируемости альтернативы SAS сегодня уже нет.

В этой статье речь пойдет о том, что позволяет подключить жесткий диск к компьютеру, а именно, об интерфейсе жесткого диска. Точнее говорить, об интерфейсах жестких дисков, потому что технологий для подключения этих устройств за все время их существования было изобретено великое множество, и обилие стандартов в данной области может привести в замешательство неискушенного пользователя. Впрочем, обо все по порядку.

Интерфейсы жестких дисков (или строго говоря, интерфейсы внешних накопителей, поскольку в их качестве могут выступать не только , но и другие типы накопителей, например, приводы для оптических дисков) предназначены для обмена информацией между этими устройствами внешней памяти и материнской платой. Интерфейсы жестких дисков, не в меньшей степени, чем физические параметры накопителей, влияют на многие рабочие характеристики накопителей и на их производительность. В частности, интерфейсы накопителей определяют такие их параметры, как скорость обмена данными между жестким диском и материнской платой, количество устройств, которые можно подключить к компьютеру, возможность создания дисковых массивов, возможность горячего подключения, поддержка технологий NCQ и AHCI, и.т.д. Также от интерфейса жесткого диска зависит, какой кабель, шнур или переходник для его подключения к материнской плате вам потребуется.

SCSI - Small Computer System Interface

Интерфейс SCSI является одним из самых старых интерфейсов, разработанных для подключения накопителей в персональных компьютерах. Появился данный стандарт еще в начале 1980-х гг. Одним из его разработчиков был Алан Шугарт, также известный, как изобретатель дисководов для гибких дисков.

Внешний вид интерфейса SCSI на плате и кабеля подключения к нему

Стандарт SCSI (традиционно данная аббревиатура читается в русской транскрипции как «скази») первоначально предназначался для использования в персональных компьютерах, о чем свидетельствует даже само название формата – Small Computer System Interface, или системный интерфейс для небольших компьютеров. Однако так получилось, что накопители данного типа применялись в основном в персональных компьютерах топ-класса, а впоследствии и в серверах. Связано это было с тем, что, несмотря на удачную архитектуру и широкий набор команд, техническая реализация интерфейса была довольно сложна, и не подходила по стоимости для массовых ПК.

Тем не менее, данный стандарт обладал рядом возможностей, недоступных для прочих типов интерфейсов. Например, шнур для подключения устройств Small Computer System Interface может иметь максимальную длину в 12 м, а скорость передачи данных – 640 МБ/c.

Как и появившийся несколько позже интерфейс IDE, интерфейс SCSI является параллельным. Это означает, что в интерфейсе применяются шины, передающие информацию по нескольким проводникам. Данная особенность являлась одним из сдерживающих факторов для развития стандарта, и поэтому в качестве его замены был разработан более совершенный, последовательный стандарт SAS (от Serial Attached SCSI).

SAS - Serial Attached SCSI

Так выглядит интерфейс SAS серверного диска

Serial Attached SCSI разрабатывался в усовершенствования достаточно старого интерфейса подключения жестких дисков Small Computers System Interface. Несмотря на то, что Serial Attached SCSI использует основные достоинства своего предшественника, тем не менее, у него есть немало преимуществ. Среди них стоит отметить следующие:

  • Использование общей шины всеми устройствами.
  • Последовательный протокол передачи данных, используемый SAS, позволяет задействовать меньшее количество сигнальных линий.
  • Отсутствует необходимость в терминации шины.
  • Практически неограниченное число подключаемых устройств.
  • Более высокая пропускная способность (до 12 Гбит/c). В будущих реализациях протокола SAS предполагается поддерживать скорость обмена данными до 24 Гбит/c.
  • Возможность подключения к контроллеру SAS накопителей с интерфейсом Serial ATA.

Как правило, системы Serial Attached SCSI строятся на основе нескольких компонентов. В число основных компонентов входят:

  • Целевые устройства. В эту категорию включают собственно накопители или дисковые массивы.
  • Инициаторы – микросхемы, предназначенные для генерации запросов к целевым устройствам.
  • Система доставки данных – кабели, соединяющие целевые устройства и инициаторы

Разъемы Serial Attached SCSI могут иметь различную форму и размер, в зависимости от типа (внешний или внутренний) и от версий SAS. Ниже представлены внутренний разъем SFF-8482 и внешний разъем SFF-8644, разработанный для SAS-3:

Слева - внутренний разъём SAS SFF-8482; Справа - внешний разъём SAS SFF-8644 с кабелем.

Несколько примеров внешнего вида шнуров и переходников SAS: шнур HD-Mini SAS и шнур-переходник SAS-Serial ATA.

Слева - шнур HD Mini SAS; Справа - переходной шнур с SAS на Serial ATA

Firewire - IEEE 1394

Сегодня достаточно часто можно встретить жесткие диски с интерфейсом Firewire. Хотя через интерфейс Firewire к компьютеру можно подключить любые типы периферийных устройств, и его нельзя назвать специализированным интерфейсом, предназначенным для подключения исключительно жестких дисков, тем не менее, Firewire имеет ряд особенностей, которые делают его чрезвычайно удобным для этой цели.

FireWire - IEEE 1394 - вид на ноутбуке

Интерфейс Firewire был разработан в середине 1990-х гг. Начало разработке положила небезызвестная фирма Apple, нуждавшаяся в собственной, отличной от USB, шине для подключения периферийного оборудования, прежде всего мультимедийного. Спецификация, описывающая работу шины Firewire, получила название IEEE 1394.

На сегодняшний день Firewire представляет собой один из наиболее часто используемых форматов высокоскоростной последовательной внешней шины. К основным особенностям стандарта можно отнести:

  • Возможность горячего подключения устройств.
  • Открытая архитектура шины.
  • Гибкая топология подключения устройств.
  • Меняющаяся в широких пределах скорость передачи данных – от 100 до 3200 Мбит/c.
  • Возможность передачи данных между устройствами без участия компьютера.
  • Возможность организации локальных сетей при помощи шины.
  • Передача питания по шине.
  • Большое количество подключаемых устройств (до 63).

Для подключения винчестеров (обычно посредством внешних корпусов для жестких дисков) через шину Firewire, как правило, используется специальный стандарт SBP-2, использующий набор команд протокола Small Computers System Interface. Существует возможность подключения устройств Firewire к обычному разъему USB, но для этого требуется специальный переходник.

IDE - Integrated Drive Electronics

Аббревиатура IDE, несомненно, известна большинству пользователей персональных компьютеров. Стандарт интерфейса для подключения жестких дисков IDE был разработан известной фирмой, производящей жесткие диски – Western Digital. Преимуществом IDE по сравнению с другими существовавшими в то время интерфейсами, в частности, интерфейсом Small Computers System Interface, а также стандартом ST-506, было отсутствие необходимости устанавливать контроллер жесткого диска на материнскую плату. Стандарт IDE подразумевал установку контроллера привода на корпус самого накопителя, а на материнской плате оставался лишь хост-адаптер интерфейса для подключения приводов IDE.

Интерфейс IDE на материнской плате

Данное нововведение позволило улучшить параметры работы накопителя IDE благодаря тому, что сократилось расстояние между контроллером и самим накопителем. Кроме того, установка контроллера IDE внутрь корпуса жесткого диска позволила несколько упростить как материнские платы, так и производство самих винчестеров, поскольку технология давала свободу производителям в плане оптимальной организации логики работы накопителя.

Новая технология первоначально получила название Integrated Drive Electronics (Встроенная в накопитель электроника). Впоследствии был разработан описывающий ее стандарт, названный ATA. Это название происходит от последней части названия семейства компьютеров PC/AT посредством добавления слова Attachment.

Для подключения жесткого диска или другого устройства, например, накопителя для оптических дисков, поддерживающего технологию Integrated Drive Electronics, к материнской плате, используется специальный кабель IDE. Поскольку ATA относится к параллельным интерфейсам (поэтому его также называют Parallel ATA или PATA), то есть, интерфейсам, предусматривающим одновременную передачу данных по нескольким линиям, то его кабель данных имеет большое количество проводников (обычно 40, а в последних версиях протокола имелась возможность использовать 80-жильный кабель). Обычный кабель данных для данного стандарта имеет плоский и широкий вид, но встречаются и кабели круглого сечения. Кабель питания для накопителей Parallel ATA имеет 4-контактный разъем и подсоединен к блоку питания компьютера.

Ниже приведены примеры кабеля IDE и круглого шнура данных PATA:

Внешний вид интерфейсного кабеля: cлева - плоский, справа в круглой оплетке - PATA или IDE.

Благодаря сравнительной дешевизне накопителей Parallel ATA, простоте реализации интерфейса на материнской плате, а также простоте установки и конфигурации устройств PATA для пользователя, накопители типа Integrated Drive Electronics на длительное время вытеснили с рынка винчестеров для персональных компьютеров бюджетного уровня устройства других типов интерфейса.

Однако стандарт PATA имеет и ряд недостатков. Прежде всего, это ограничение по длине, которую может иметь кабель данных Parallel ATA – не более 0,5 м. Кроме того, параллельная организация интерфейса накладывает ряд ограничений на максимальную скорость передачи данных. Не поддерживает стандарт PATA и многие расширенные возможности, которые имеются у других типов интерфейсов, например, горячее подключение устройств.

SATA - Serial ATA

Вид интерфейса SATA на материнской плате

Интерфейс SATA (Serial ATA), как можно догадаться из названия, является усовершенствованием ATA. Заключается это усовершенствование, прежде всего, в переделке традиционного параллельного ATA (Parallel ATA) в последовательный интерфейс. Однако этим отличия стандарта Serial ATA от традиционного не ограничиваются. Помимо изменения типа передачи данных с параллельного на последовательный, изменились также разъемы для передачи данных и электропитания.

Ниже приведен шнур данных SATA:

Шнур передачи данных для SATA интерфейса

Это позволило использовать шнур значительно большей длины и увеличить скорость передачи данных. Однако минусом стало то обстоятельство, что устройства PATA, которые до появления SATA присутствовали на рынке в огромных количествах, стало невозможно напрямую подключить в новые разъемы. Правда, большинство новых материнских плат все же имеют старые разъемы и поддерживают подключение старых устройств. Однако обратная операция – подключение накопителя нового типа к старой материнской плате обычно вызывает куда больше проблем. Для этой операции пользователю обычно требуется переходник Serial ATA to PATA. Переходник для кабеля питания обычно имеет сравнительно простую конструкцию.

Переходник питания Serial ATA to PATA:

Слева общий вид кабеля; Cправа укрупнено внешний вид коннекторов PATA и Serial ATA

Сложнее, однако, дело обстоит с таким устройством, как переходник для подключения устройства последовательного интерфейса в разъем для параллельного интерфейса. Обычно переходник такого типа выполнен в виде небольшой микросхемы.

Внешний вид универсального двунаправленного переходника между интерфейсами SATA - IDE

В настоящее время интерфейс Serial ATA практически вытеснил Parallel ATA, и накопители PATA можно встретить теперь в основном лишь в достаточно старых компьютерах. Еще одной особенностью нового стандарта, обеспечившей его широкую популярность, стала поддержка .

Вид переходника с IDE на SATA

О технологии NCQ можно рассказать чуть подробнее. Основное преимущество NCQ состоит в том, что она позволяет использовать идеи, которые давно были реализованы в протоколе SCSI. В частности, NCQ поддерживает систему упорядочивания операций чтения/записи, поступающих к нескольким накопителям, установленным в системе. Таким образом, NCQ способна значительно повысить производительность работы накопителей, в особенности массивов жестких дисков.

Вид переходника с SATA на IDE

Для использования NCQ необходима поддержка технологии со стороны жесткого диска, а также хост-адаптера материнской платы. Практически все адаптеры, поддерживающие AHCI, поддерживают и NCQ. Кроме того, NCQ поддерживают и некоторые старые проприетарные адаптеры. Также для работы NCQ требуется ее поддержка со стороны операционной системы.

eSATA - External SATA

Отдельно стоит упомянуть о казавшемся многообещающим в свое время, но так и не получившем широкого распространения формате eSATA (External SATA). Как можно догадаться из названия, eSATA представляет собой разновидность Serial ATA, предназначенную для подключения исключительно внешних накопителей. Стандарт eSATA предлагает для внешних устройств большую часть возможностей стандартного, т.е. внутреннего Serial ATA, в частности, одинаковую систему сигналов и команд и столь же высокую скорость.

Разъем eSATA на ноутбуке

Тем не менее, у eSATA есть и некоторые отличия от породившего его стандарта внутренней шины. В частности, eSATA поддерживает более длинный кабель данных (до 2 м), а также имеет более высокие требования к питанию накопителей. Кроме того, разъемы eSATA несколько отличаются от стандартных разъемов Serial ATA.

По сравнению с другими внешними шинами, такими, как USB и Firewire, eSATA, однако, имеет один существенный недостаток. Если эти шины позволяют осуществлять электропитание устройства через сам кабель шины, то накопитель eSATA требует специальные разъемы для питания. Поэтому, несмотря на сравнительно высокую скорость передачи данных, eSATA в настоящее время не пользуется большой популярностью в качестве интерфейса для подключения внешних накопителей.

Заключение

Информация, хранящаяся на жестком диске, не может стать полезной для пользователя и доступной для прикладных программ до тех пор, пока к ней не получит доступ центральный процессор компьютера. Интерфейсы жестких дисков представляют собой средство для связи между этими накопителями и материнской платой. На сегодняшний день существует немало различных типов интерфейсов жестких дисков, каждый из которых имеет свои достоинства, недостатки и характерные особенности. Надеемся, что приведенная в данной статье информация во многом окажется полезной для читателя, ведь выбор современного жесткого диска во многом определяются не только его внутренними характеристиками, такими, как емкость, объем кэш-памяти, скорость доступа и вращения, но и тем интерфейсом, для которого он был разработан.

За два года изменений накопилось немного:

  • Supermicro отказывается от проприетарного "перевернутого" форм-фактора UIO для контроллеров. Подробности будут ниже.
  • LSI 2108 (SAS2 RAID с 512МБ кэша) и LSI 2008 (SAS2 HBA с опциональной поддержкой RAID) по-прежнему в строю. Продукты на этих чипах, как производства LSI, так и от OEM партнеров, достаточно хорошо отлажены и по-прежнему актуальны.
  • Появились LSI 2208 (тот же SAS2 RAID со стеком LSI MegaRAID, только с двухъядерным процессором и 1024МБ кэша) и (усовершенствованная версия LSI 2008 с более быстрым процессором и поддержкой PCI-E 3.0).

Переход от UIO к WIO

Как вы помните, платы UIO - это обычные платы PCI-E x8, у которых вся элементная база находится с обратной стороны, т.е. при установке в левый райзер оказывается сверху. Понадобился такой форм-фактор для установки плат в самый нижний слот сервера, что позволяло разместить четыре платы в левом райзере. UIO - это не только форм-фактор плат расширения, это еще и корпуса, рассчитанные на установку райзеров, сами райзеры и материнские платы специального форм-фактора, с вырезом под нижний слот расширения и слотами для установки райзеров.
У подобного решения существовало две проблемы. Во-первых, нестандартный форм-фактор плат расширения ограничивал выбор клиента, т.к. под в UIO форм-факторе существует лишь несколько контроллеров SAS, InfiniBand и Ehternet. Во-вторых - недостаточное количество линий PCI-E в слотах под райзеры - всего 36, из них на левый райзер - всего 24 линии, что явно мало для четырех плат с PCI-E x8.
Что же такое WIO? Сначала оказалось, что существует возможность размещения четырех плат в левом райзере без необходимости "переворачивания бутерброда маслом вверх", и появились райзеры под обычные платы (RSC-R2UU-A4E8+). Затем была решена проблема нехватки линий (теперь их 80) путем использования слотов с большей плотностью контактов.
UIO райзер RSC-R2UU-UA3E8+
WIO райзер RSC-R2UW-4E8

Результаты:
  • Райзеры WIO нельзя установить в материнские платы, рассчитанные на UIO (например, X8DTU-F).
  • Райзеры UIO нельзя установить в новые платы, рассчитанные на WIO.
  • Существуют райзеры под WIO (на материнской плате), имеющие слот UIO для карточек. На тот случай, если у вас остались UIO контроллеры. Они используются в платформах под Socket B2 (6027B-URF, 1027B-URF, 6017B-URF).
  • Новых контроллеров в форм-факторе UIO появляться не будет. Например, контроллер USAS2LP-H8iR на чипе LSI 2108 будет последним, LSI 2208 под UIO не будет - только обычный MD2 с PCI-E x8.

Контроллеры PCI-E

В данный момент актуальными являются три разновидности: RAID контроллеры на базе LSI 2108/2208 и HBA на базе LSI 2308. Существует еще загадочный SAS2 HBA AOC-SAS2LP-MV8 на чипе Marvel 9480, но о нем писать из-за его экзотичности. Большинство случаев применения внутренних SAS HBA - это СХД с ZFS под FreeBSD и различными разновидностями Solaris. Благодаря отсутствию проблем с поддержкой в этих ОС выбор в 100% случаев падает на LSI 2008/2308.
LSI 2108
Помимо UIO"шного AOC-USAS2LP-H8iR , который упомянут в добавились еще два контроллера:

AOC-SAS2LP-H8iR
LSI 2108, SAS2 RAID 0/1/5/6/10/50/60, 512МБ кэш, 8 внутренних портов (2 разъема SFF-8087). Является аналогом контроллера LSI 9260-8i , но произведен Supermicro, есть мелкие различия в разводке платы, цена на $40-50 ниже LSI. Поддерживаются все дополнительные опции LSI : активация , FastPath и CacheCade 2.0, батарейная защита кэша - LSIiBBU07 и LSIiBBU08 (сейчас предпочтительнее использовать BBU08, у него расширен температурный диапазон и в комплекте идет кабель для удаленного монтажа).
Несмотря на появление более производительных контроллеров на базе LSI 2208, LSI 2108 все еще остается актуальным благодаря снижению цены. Производительности с обычными HDD хватает в любых сценариях, предел по IOPS для работы с SSD - 150000, что для большинства бюджетных решений более чем достаточно.

AOC-SAS2LP-H4iR
LSI 2108, SAS2 RAID 0/1/5/6/10/50/60, 512МБ кэш, 4 внутренних + 4 внешних порта. Является аналогом контроллера LSI 9280-4i4e . Удобен для использования в экспандерных корпусах, т.к. не придется выводить выход с экспандера наружу для подключения дополнительных JBOD"ов, или в 1U корпусах на 4 диска при необходимости обеспечить возможность наращивания числа дисков. Поддерживает те же BBU и ключи активации.
LSI 2208

AOC-S2208L-H8iR
LSI 2208, SAS2 RAID 0/1/5/6/10/50/60, 1024МБ кэш, 8 внутренних портов (2 разъема SFF-8087). Является аналогом контроллера LSI 9271-8i . LSI 2208 - это дальнейшее развитие LSI 2108. Процессор стал двухъядерным, что позволило поднять предел производительности по IOPS"ам аж до 465000. Добавилась поддержка PCI-E 3.0 и увеличился до 1ГБ кэш.
Контроллер поддерживает батарейную защиту кэша BBU09 и флеш-защиту CacheVault. Supermicro поставляет их под партномерами BTR-0022L-LSI00279 и BTR-0024L-LSI00297, но у нас проще приобрести через канал продаж LSI (вторая часть партномеров - это и есть родные партномера LSI). Ключи активации MegaRAID Advanced Software Options тоже поддерживаются, партномера: AOC-SAS2-FSPT-ESW (FastPath) и AOCCHCD-PRO2-KEY (CacheCade Pro 2.0).
LSI 2308 (HBA)

AOC-S2308L-L8i и AOC-S2308L-L8e
LSI 2308, SAS2 HBA (с IR прошивкой - RAID 0/1/1E), 8 внутренних портов (2 разъема SFF-8087). Это один и тот же контроллер, поставляется с разными прошивками. AOC-S2308L-L8e - IT firmware (чистый HBA), AOC-S2308L-L8i - IR firmware (с поддержкой RAID 0/1/1E). Разница в том, что L8i может работать с IR и IT прошивками, L8e - только с IT, прошивка в IR заблокирована. Является аналогом контроллера LSI 9207-8 i . Отличия от LSI 2008: побыстрее чип (800Мгц, как следствие - поднялся лимит по IOPS до 650тыс.), появилась поддержка PCI-E 3.0. Применение: программные RAID"ы (ZFS, например), бюджетные серверы.
На базе этого чипа не будет дешевых контроллеров с поддержкой RAID-5 (iMR стек, из готовых контроллеров - LSI 9240).

Набортные контроллеры

В последних продуктах (платах X9 и платформах с ними) Supermicro обозначает наличие SAS2 контроллера от LSI цифрой "7" в партномере, цифрой "3" - чипсетный SAS (Intel C600). Вот только не делается различий между LSI 2208 и 2308, так что будьте внимательны при выборе платы.
  • Распаянный на материнских платах контроллер на базе LSI 2208 имеет ограничение - максимум 16 дисков. При добавлении 17 он просто не определится, и в логе MSM вы увидите сообщение "PD is not supported". Компенсацией за это служит существенно более низкая цена. Например, связка "X9DRHi-F + внешний контроллер LSI 9271-8i" обойдется дороже примерно на $500, чем X9DRH-7F с LSI 2008 на борту. Обойти это ограничение перепрошивкой в LSI 9271 не получится - прошивка другого SBR блока, как в случае с LSI 2108 не помогает.
  • Еще одна особенность - отсутствие поддержки модулей CacheVault, на платах банально не хватает места под специальный разъем, так что поддерживается только BBU09. Возможность установки BBU09 зависит от используемого корпуса. Например, LSI 2208 используется в блейд-серверах 7127R-S6, разъем для подключения BBU там есть, но для монтажа самого модуля нужен дополнительный крепеж MCP-640-00068-0N Battery Holder Bracket.
  • Прошивку SAS HBA (LSI 2308) придется теперь , так как в DOS на любой из плат с LSI 2308 не запускается sas2flash.exe с ошибкой "Failed to initialize PAL".

Контроллеры в Twin и FatTwin платформах

Некоторые 2U Twin 2 платформы существуют в трех вариантах, с тремя видами контроллеров. Например:
  • 2027TR-HTRF+ - чипсетный SATA
  • 2027TR-H70RF+ - LSI 2008
  • 2027TR-H71RF+ - LSI 2108
  • 2027TR-H72RF+ - LSI 2208
Подобное многообразие обеспечивается за счет того, что контроллеры размещены на специальной объединительной плате, которая подключается в спецслот на материнской плате и в дисковый бэкплейн.
BPN-ADP-SAS2-H6IR (LSI 2108)


BPN-ADP-S2208L-H6iR (LSI 2208)

BPN-ADP-SAS2-L6i (LSI 2008)

Корпуса Supermicro xxxBE16/xxxBE26

Еще одна тема, имеющая прямое отношение к контроллерам - это модернизация корпусов с . Появились разновидности с дополнительной корзиной на два 2,5" диска, расположенной на задней панели корпуса. Назначение - выделенный диск (или зеркало) под загрузку системы. Конечно, систему можно грузить, выделив небольшой том от другой дисковой группы или с дополнительных дисков, закрепленных внутри корпуса (в 846-х корпусах можно установить дополнительный крепеж для одного 3,5" или двух 2,5" дисков), но обновленные модификации гораздо удобнее:




Причем эти дополнительные диски необязательно подключать именно к чипсетному SATA контроллеру. При помощи кабеля SFF8087->4xSATA можно подключиться к основному SAS контроллеру через выход SAS экспандера.
P.S. Надеюсь, что информация была полезной. Не забывайте, что наиболее полную информацию и техническую поддержку по продукции Supermicro, LSI, Adaptec by PMC и других вендоров вы можете получить в компании True System .