Беспрецедентная совместимость последовательных интерфейсов. Беспрецедентная совместимость последовательных интерфейсов Подключение дисков sas к контроллеру

С появлением достаточного большого числа периферии Serial Attached SCSI (SAS) можно констатировать начало перехода корпоративного окружения на рельсы новой технологии. Но SAS не только является признанным преемником технологии UltraSCSI, но и реализует новые сферы использования, подняв возможности масштабирования систем прямо-таки до немыслимых высот. Мы решили продемонстрировать потенциал SAS, пристально взглянув на технологию, host-адаптеры, жёсткие диски и системы хранения.

SAS нельзя назвать полностью новой технологией: она берёт лучшее из двух миров. Первая часть SAS касается последовательной передачи данных, что требует меньше физических проводов и контактов. Переход от параллельной к последовательной передаче позволил избавиться и от шины. Хотя по текущим спецификациям SAS пропускная способность определена в 300 Мбайт/с на порт, что меньше, чем 320 Мбайт/с у UltraSCSI, замена общей шины на соединение "точка-точка" - весомое преимущество. Вторая часть SAS - это протокол SCSI, остающийся мощным и популярным.

SAS может использовать и большой набор разновидностей RAID . Такие гиганты, как Adaptec или LSI Logic, в своих продуктах предлагают расширенный набор функций для расширения, миграции, создания "гнёзд" и других возможностей, в том числе касающихся распределённых массивов RAID по нескольким контроллерам и приводам.

Наконец, большинство упомянутых действий сегодня производятся уже "на лету". Здесь нам следует отметить превосходные продукты AMCC/3Ware , Areca и Broadcom/Raidcore , позволившие перенести функции корпоративного класса на пространства SATA.

По сравнению с SATA, традиционная реализация SCSI теряет почву на всех фронтах, за исключением high-end корпоративных решений. SATA предлагает подходящие жёсткие диски , отличается хорошей ценой и широким набором решений . И не будем забывать о ещё одной "умной" возможности SAS: она легко уживается с существующими инфраструктурами SATA, поскольку host-адаптеры SAS легко работают и с дисками SATA. Но вот накопитель SAS к адаптеру SATA подключить уже не получится.


Источник: Adaptec.

Сначала, как нам кажется, следует обратиться к истории SAS. Стандарт SCSI (расшифровывается как "small computer system interface/интерфейс малых компьютерных систем") всегда рассматривался как профессиональная шина для подключения накопителей и некоторых других устройств к компьютерам. Жёсткие диски для серверов и рабочих станций по-прежнему используют технологию SCSI. В отличие от массового стандарта ATA, позволяющего подключить к одному порту только два накопителя, SCSI разрешает связывать до 15 устройств в одну шину и предлагает мощный командный протокол. Устройства должны иметь уникальный идентификатор SCSI ID, который может присваиваться как вручную, так и через протокол SCAM (SCSI Configuration Automatically). Поскольку ID устройств для шин двух или более адаптеров SCSI могут быть и не уникальными, были добавлены логические номера LUN (Logical Unit Numbers), позволяющие идентифицировать устройства в сложных SCSI-окружениях.

Аппаратное обеспечение SCSI более гибкое и надёжное по сравнению с ATA (этот стандарт ещё называют IDE, Integrated Drive Electronics). Устройства могут подсоединяться как внутри компьютера, так и снаружи, причём длина кабеля может составлять до 12 м, если только он правильно терминирован (для того, чтобы избежать отражений сигнала). По мере эволюции SCSI появились многочисленные стандарты, оговаривающие разную ширину шины, тактовую частоту, разъёмы и напряжение сигнала (Fast, Wide, Ultra, Ultra Wide, Ultra2, Ultra2 Wide, Ultra3, Ultra320 SCSI). К счастью, все они используют единый набор команд.

Любая связь SCSI организуется между инициатором (host-адаптером), отсылающим команды, и целевым приводом, отвечающим на них. Сразу же после получения набора команд целевой привод отсылает так называемый sense-код (состояние: занят, ошибка или свободен), по которому инициатор узнаёт, получит он нужный ответ или нет.

Протокол SCSI оговаривает почти 60 разных команд. Они разбиты по четырём категориям: не относящиеся к данным (non-data), двунаправленные (bi-directional), чтение данных (read data) и запись данных (write data).

Ограничения SCSI начинают проявлять себя, когда вы будете добавлять приводы на шину. Сегодня вряд ли можно найти жёсткий диск, способный полностью нагрузить пропускную способность 320 Мбайт/с у Ultra320 SCSI. Но пять или больше приводов на одной шине - совсем другое дело. Вариантом будет добавление второго host-адаптера для балансировки нагрузки, но это стоит средств. Проблема и с кабелями: скрученные 80-проводные кабели стоят очень дорого. Если же вы хотите получить ещё и "горячую замену" приводов, то есть лёгкое замещение вышедшего из строя накопителя, то требуются специальные оснастки (backplane).

Конечно, лучше всего размещать приводы в раздельные оснастки или модули, которые обычно поддерживают возможность "горячей замены" вместе с другими приятными функциями управления. В итоге на рынке присутствует больше число профессиональных SCSI-решений. Но все они стоят немало, именно поэтому стандарт SATA столь бурно развивался последние годы. И хотя SATA никогда не удовлетворит нужды high-end корпоративных систем, этот стандарт прекрасно дополняет SAS при создании новых масштабируемых решений для сетевых окружений следующего поколения.


SAS не использует общую шину для нескольких устройств. Источник: Adaptec.

SATA


Слева находится разъём SATA для передачи данных. Справа - разъём для подачи питания. Контактов достаточно для подачи напряжений 3,3 В, 5 В и 12 В на каждый привод SATA.

Стандарт SATA существует на рынке уже несколько лет, и сегодня он достиг уже второго поколения. SATA I отличался пропускной способностью 1,5 Гбит/с с двумя последовательными соединениями, использующими разностное кодирование с низким напряжением (low-voltage differential signaling). На физическом уровне применяется кодирование 8/10 бит (10 бит фактических для 8 бит данных), что объясняет максимальную пропускную способность интерфейса 150 Мбайт/с. После перехода SATA на скорость 300 Мбайт/с многие начали называть новый стандарт SATA II, хотя при стандартизации SATA-IO (International Organization) планировалось сначала добавить больше функций, а затем уже назвать SATA II. Отсюда последняя спецификация и названа SATA 2.5, она включает такие расширения SATA, как Native Command Queuing (NCQ) и eSATA (external SATA), множители портов (до четырёх приводов на порт) и т.д. Но дополнительные функции SATA опциональные как для контроллера, так и для самого жёсткого диска.

Будем надеяться, что в 2007 году SATA III на 600 Мбайт/с всё-таки выйдет.

Если кабели параллельного ATA (UltraATA) были ограничены 46 см, то кабели SATA могут иметь длину до 1 м, а для eSATA - в два раза больше. Вместо 40 или 80 проводов последовательная передача требует лишь единицы контактов. Поэтому кабели SATA очень узкие, их легко прокладывать внутри корпуса компьютера, и они не так сильно мешают воздушному потоку. На порт SATA полагается одно устройство, что позволяет отнести этот интерфейс к типу "точка-точка".


Разъёмы SATA для передачи данных и питания предусматривают отдельные вилки.

SAS


Сигнальный протокол здесь такой же, как и у SATA. Источник: Adaptec.

Приятная особенность Serial Attached SCSI заключается в том, что технология поддерживает и SCSI, и SATA, в результате чего к SAS-контроллерам можно подключать диски SAS или SATA (или сразу обоих стандартов). Впрочем, SAS-приводы не могут работать с контроллерами SATA по причине использования протокола Serial SCSI Protocol (SSP). Подобно SATA, SAS следует принципу подключения "точка-точка" для приводов (сегодня 300 Мбайт/с), а благодаря SAS-расширителям (или экспандерам, expander) можно подключить больше приводов, чем доступно SAS-портов. Жёсткие диски SAS поддерживают два порта, каждый со своим уникальным SAS ID, поэтому можно использовать два физических подключения, чтобы обеспечить избыточность, - подключить привод к двум разным host-узлам. Благодаря протоколу STP (SATA Tunneling Protocol), контроллеры SAS могут обмениваться данными с SATA-приводами, подключёнными к экспандеру.


Источник: Adaptec.



Источник: Adaptec.



Источник: Adaptec.

Конечно, единственное физическое подключение экспандера SAS к host-контроллеру можно считать "узким местом", поэтому в стандарте предусмотрены широкие (wide) порты SAS. Широкий порт группирует несколько подключений SAS в единую связь между двумя любыми устройствами SAS (обычно между host-контроллером и расширителем/экспандером). Число подключений в рамках связи можно увеличивать, всё зависит от налагаемых требований. Но избыточные подключения не поддерживаются, нельзя также допускать и любых петель или колец.


Источник: Adaptec.

В будущих реализациях SAS добавится пропускная способность 600 и 1200 Мбайт/с на порт. Конечно, производительность жёстких дисков в такой же пропорции не вырастет, зато можно будет удобнее использовать экспандеры на малом числе портов.



Устройства под названиями "Fan Out" и "Edge" являются экспандерами. Но только главный экспандер Fan Out может работать с доменом SAS (см. 4x связь в центре диаграммы). На каждый экспандер Edge дозволяется до 128 физических подключений, причём можно использовать широкие порты и/или подключать другие экспандеры/приводы. Топология может быть весьма сложной, но в то же время гибкой и мощной. Источник: Adaptec.



Источник: Adaptec.

Оснастки (backplane) - основной строительный блок любой системы хранения, которая должна поддерживать "горячее подключение". Поэтому экспандеры SAS часто подразумевают мощные оснастки (как в едином корпусе, так и нет). Обычно для подключения простой оснастки к host-адаптеру используется одна связь. Экспандеры со встроенными оснастками, конечно, полагаются на многоканальные подключения.

Для SAS разработано три типа кабелей и разъёмов. SFF-8484 - многожильный внутренний кабель, связывающий host-адаптер с оснасткой. В принципе, того же самого можно добиться, разветвив на одном конце этот кабель на несколько отдельных разъёмов SAS (см. иллюстрацию ниже). SFF-8482 - разъём, через который привод подключается к одиночному интерфейсу SAS. Наконец, SFF-8470 - внешний многожильный кабель, длиной до шести метров.


Источник: Adaptec.


Кабель SFF-8470 для внешних многоканальных SAS-подключений.


Многожильный кабель SFF-8484. Через один разъём проходят четыре канала/порта SAS.


Кабель SFF-8484, позволяющий подключить четыре накопителя SATA.

SAS как часть решений SAN

Зачем нам нужна вся эта информация? Большинство пользователей и близко не подойдут к топологии SAS, о которой мы рассказывали выше. Но SAS - это больше, нежели интерфейс следующего поколения для профессиональных жёстких дисков, хотя он идеально подходит для построения простых и сложных RAID-массивов на базе одного или нескольких RAID-контроллеров. SAS способен на большее. Перед нами последовательный интерфейс "точка-точка", который легко масштабируется по мере того, как вы добавляете число связей между двумя любыми устройствами SAS. Накопители SAS поставляются с двумя портами, так что вы можете подключить один порт через экспандер к host-системе, после чего создать резервный путь к другой host-системе (или другому экспандеру).

Связь между SAS-адаптерами и экспандерами (а также и между двумя экспандерами) может быть такой широкой, сколько доступно портов SAS. Экспандеры обычно представляют собой стоечные системы, способные вместить большое число накопителей, и возможное подключение SAS к вышестоящему устройству по иерархии (например, host-контроллеру) ограничено лишь возможностями экспандера.

Благодаря богатой и функциональной инфраструктуре, SAS позволяет создавать сложные топологии хранения, а не выделенные жёсткие диски или отдельные сетевые хранилища. В данном случае под "сложными" не следует понимать, что с такой топологией сложно работать. Конфигурации SAS состоят из простых дисковых оснасток или используют экспандеры. Любую связь SAS можно расширить или сузить, в зависимости от требований к пропускной способности. Вы можете использовать как мощные жёсткие диски SAS, так и ёмкие модели SATA. Вместе с мощными RAID-контроллерами, можно легко настраивать, расширять или переконфигурировать массивы данных - как с точки зрения уровня RAID, так и с аппаратной стороны.

Всё это становится тем более важным, если принять во внимание, насколько быстро растут корпоративные хранилища. Сегодня у всех на слуху SAN - сеть хранения данных (storage area network). Она подразумевает децентрализованную организацию подсистемы хранения данных с традиционными серверами, используя физически вынесенные хранилища. По существующим сетям гигабитного Ethernet или Fiber Channel запускается немного модифицированный протокол SCSI, инкапсулирующийся в пакеты Ethernet (iSCSI - Internet SCSI). Система, на которой работает от одного жёсткого диска до сложных гнездовых RAID-массивов, становится так называемой целью (target) и привязывается к инициатору (host-система, initiator), который рассматривает цель, как если бы она была просто физическим элементом.

iSCSI, конечно, позволяет создать стратегию развития хранилища, организации данных или управления доступом к ним. Мы получаем ещё один уровень гибкости, сняв напрямую подключённые к серверам хранилища, позволяя любой подсистеме хранения становиться целью iSCSI. Переход на вынесенные хранилища делает работу системы независимой от серверов хранения данных (опасная точка сбоя) и улучшает управляемость "железа". С программной точки зрения, хранилище по-прежнему остаётся "внутри" сервера. Цель и инициатор iSCSI могут находиться рядом, на разных этажах, в разных комнатах или зданиях - всё зависит от качества и скорости IP-соединения между ними. С этой точки зрения важно отметить, что SAN плохо подходит для требований оперативно доступных приложений вроде баз данных.

2,5" жёсткие диски SAS

2,5" жёсткие диски для профессиональной сферы по-прежнему воспринимаются новинкой. Мы уже довольно давно рассматривали первый подобный накопитель от Seagate - 2,5" Ultra320 Savvio , который оставил хорошее впечатление. Все 2,5" накопители SCSI используют скорость вращения шпинделя 10 000 об/мин, но они не дотягивают до того уровня производительности, который дают 3,5" винчестеры с такой жё скоростью вращения шпинделя. Дело в том, что внешние дорожки 3,5" моделей вращаются с большей линейной скоростью, что обеспечивает более высокую скорость передачи данных.

Преимущество маленьких жёстких дисков кроется и не в ёмкости: сегодня для них максимумом по-прежнему остаётся 73 Гбайт, в то время как у 3,5" винчестеров корпоративного класса мы получаем уже 300 Гбайт. Во многих сферах очень важно соотношение производительности на занимаемый физический объём или эффективность энергопотребления. Чем больше жёстких дисков вы будете использовать, тем большую производительность пожнёте - в паре с соответствующей инфраструктурой, конечно. При этом 2,5" винчестеры потребляют энергии почти в два раза меньше, чем 3,5" конкуренты. Если рассматривать соотношение производительности на ватт (число операций ввода/вывода на ватт), то 2,5" форм-фактор даёт очень неплохие результаты.

Если вам, прежде всего, необходима ёмкость, то 3,5" накопители на 10 000 об/мин вряд ли будут лучшим выбором. Дело в том, что 3,5" винчестеры SATA дают на 66% большую ёмкость (500 вместо 300 Гбайт на жёсткий диск), оставляя уровень производительности приемлемым. Многие производители винчестеров предлагают SATA-модели для работы в режиме 24/7, а цена накопителей снижена до минимума. Проблемы же надёжности можно решить, докупив запасные (spare) приводы для немедленной замены в массиве.

В линейке MAY представлено текущее поколение 2,5" накопителей Fujitsu для профессионального сектора. Скорость вращения составляет 10 025 об/мин, а ёмкости - 36,7 и 73,5 Гбайт. Все приводы поставляются с 8 Мбайт кэша и дают среднее время поиска чтения 4,0 мс и записи 4,5 мс. Как мы уже упоминали, приятная особенность 2,5" винчестеров - сниженное энергопотребление. Обычно один 2,5" винчестер позволяет сэкономить не менее 60% энергии по сравнению с 3,5" накопителем.

3,5" жёсткие диски SAS

Под MAX скрывается текущая линейка высокопроизводительных жёстких дисков Fujitsu со скоростью вращения 15 000 об/мин. Так что название вполне соответствует. В отличие от 2,5" накопителей, здесь мы получаем целых 16 Мбайт кэша и короткое среднее время поиска 3,3 мс для чтения и 3,8 мс для записи. Fujitsu предлагает модели на 36,7 Гбайт, 73,4 Гбайт и 146 Гбайт (с одной, двумя и четырьмя пластинами).

Гидродинамические подшипники добрались и до жёстких дисков корпоративного класса, поэтому новые модели работают существенно тише предыдущих на 15 000 об/мин. Конечно, подобные жёсткие диски следует правильно охлаждать, и оснастка это тоже обеспечивает.

Hitachi Global Storage Technologies тоже предлагает собственную линейку для высокопроизводительных решений. UltraStar 15K147 работает на скорости 15 000 об/мин и оснащён 16 Мбайт кэшем, как и приводы Fujitsu, но конфигурация пластин иная. Модель на 36,7 Гбайт использует две пластины, а не одну, а на 73,4 Гбайт - три пластины, а не две. Это указывает на меньшую плотность записи данных, но подобный дизайн, по сути, позволяет не использовать внутренние, самые медленные области пластин. В результате и головкам приходится двигаться меньше, что даёт лучшее среднее время доступа.

Hitachi также предлагает модели на 36,7 Гбайт, 73,4 Гбайт и 147 Гбайт с завяленным временем поиска (чтение) 3,7 мс.

Хотя Maxtor уже превратилась в часть Seagate, продуктовые линейки компании пока сохраняются. Производитель предлагает модели на 36, 73 и 147 Гбайт, все из которых отличаются скоростью вращения шпинделя 15 000 об/мин и 16 Мбайт кэшем. Компания заявляет среднее время поиска для чтения 3,4 мс и для записи 3,8 мс.

Cheetah уже давно ассоциируется с высокопроизводительными жёсткими дисками. Подобную ассоциацию с выпуском Barracuda Seagate смогла привить и в сегменте настольных ПК, предложив первый настольный накопитель на 7200 об/мин в 2000 году.

Доступны модели на 36,7 Гбайт, 73,4 Гбайт и 146,8 Гбайт. Все они отличаются скоростью вращения шпинделя 15 000 об/мин и кэшем 8 Мбайт. Заявлено среднее время поиска для чтения 3,5 мс и для записи 4,0 мс.

Host-адаптеры

В отличие от SATA-контроллеров, компоненты SAS можно найти только на материнских платах серверного класса или в виде карт расширения для PCI-X или PCI Express . Если сделать ещё шаг вперёд и рассмотреть RAID-контроллеры (Redundant Array of Inexpensive Drives), то они из-за своей сложности продаются, по большей части, в виде отдельных карт. Карты RAID содержат не только сам контроллер, но и чип ускорения расчётов информации избыточности (XOR-движок), а также и кэш-память. На карту иногда припаяно небольшое количество памяти (чаще всего 128 Мбайт), но некоторые карты позволяют расширять объём с помощью DIMM или SO-DIMM.

При выборе host-адаптера или RAID-контроллера следует чётко определиться, что вам нужно. Ассортимент новых устройств растёт просто на глазах. Простые многопортовые host-адаптеры обойдутся сравнительно дёшево, а на мощные RAID-карты придётся серьёзно потратиться. Подумайте, где вы будете размещать накопители: для внешних хранилищ требуется, по крайней мере, один внешний разъём. Для стоечных серверов обычно требуются карты с низким профилем.

Если вам нужен RAID, то определитесь, будете ли вы использовать аппаратное ускорение. Некоторые RAID-карты отнимают ресурсы центрального процессора на вычисления XOR для массивов RAID 5 или 6; другие используют собственный аппаратный движок XOR. Ускорение RAID рекомендуется для тех окружений, где сервер занимается не только хранением данных, например, для баз данных или web-серверов.

Все карты host-адаптеров, которые мы привели в нашей статье, поддерживают скорость 300 Мбайт/с на порт SAS и позволяют весьма гибко реализовать инфраструктуру хранения данных. Внешними портами сегодня уже мало кого удивишь, да и учтите поддержку жёстких дисков как SAS, так и SATA. Все три карты используют интерфейс PCI-X, но версии под PCI Express уже находятся в разработке.

В нашей статье мы удостоили вниманием карты на восемь портов, но этим число подключённых жёстких дисков не ограничивается. С помощью SAS-экспандера (внешнего) вы можете подключить любое хранилище. Пока четырёхканального подключения будет достаточно, вы можете увеличивать число жёстких дисков вплоть до 122. Из-за затрат производительности на вычисление информации чётности RAID 5 или RAID 6 типичные внешние хранилища RAID не смогут достаточно нагрузить пропускную способность четырёхканального подключения, даже если использовать большое количество приводов.

48300 - host-адаптер SAS, предназначенный для шины PCI-X. На серверном рынке сегодня продолжает доминировать PCI-X, хотя всё больше материнских плат оснащаются интерфейсами PCI Express.

Adaptec SAS 48300 использует интерфейс PCI-X на скорости 133 МГц, что даёт пропускную способность 1,06 Гбайт/с. Достаточно быстро, если шина PCI-X не загружена другими устройствами. Если включить в шину менее скоростное устройство, то все другие карты PCI-X снизят свою скорость до такой же. С этой целью на плату иногда устанавливают несколько контроллеров PCI-X.

Adaptec позиционирует SAS 4800 для серверов среднего и нижнего ценовых диапазонов, а также для рабочих станций. Рекомендованная розничная цена составляет $360, что вполне разумно. Поддерживается функция Adaptec HostRAID, позволяющая перейти на самые простые массивы RAID. В данном случае это RAID уровней 0, 1 и 10. Карта поддерживает внешнее четырёхканальное подключение SFF8470, а также внутренний разъём SFF8484 в паре с кабелем на четыре устройства SAS, то есть всего получаем восемь портов.

Карта умещается в стоечный сервер 2U, если установить низкопрофильную слотовую заглушку. В комплект поставки также входит CD с драйвером, руководство по быстрой установке и внутренний кабель SAS, через который к карте можно подключить до четырёх системных приводов.

Игрок на рынке SAS LSI Logic выслал нам host-адаптер SAS3442X PCI-X, прямого конкурента Adaptec SAS 48300. Он поставляется с восемью портами SAS, которые разделены между двумя четырёхканальными интерфейсами. "Сердцем" карты является чип LSI SAS1068. Один из интерфейсов предназначен для внутренних устройств, второй - для внешних DAS (Direct Attached Storage). Плата использует шинный интерфейс PCI-X 133.

Как обычно, для приводов SATA и SAS поддерживается интерфейс 300 Мбайт/с. На плате контроллера расположено 16 светодиодов. Восемь из них - простые светодиоды активности, а ещё восемь призваны сообщать о неисправности системы.

LSI SAS3442X - низкопрофильная карта, поэтому она легко умещается в любом стоечном сервере 2U.

Отметим поддержку драйверами под Linux, Netware 5.1 и 6, Windows 2000 и Server 2003 (x64), Windows XP (x64) и Solaris до 2.10. В отличие от Adaptec, LSI решила не добавлять поддержку каких-либо RAID-режимов.

RAID-адаптеры

SAS RAID4800SAS - решение Adaptec для более сложных окружений SAS, его можно использовать для серверов приложений, серверов потокового вещания и т.д. Перед нами, опять же, карта на восемь портов, с одним внешним четырёхканальным подключением SAS и двумя внутренними четырёхканальными интерфейсами. Но если используется внешнее подключение, то из внутренних остаётся только один четырёхканальный интерфейс.

Карта тоже предназначена для шины PCI-X 133, которая даёт достаточную пропускную способность даже для самых требовательных конфигураций RAID.

Что же касается режимов RAID, то здесь SAS RAID 4800 легко обгоняет "младшего брата": по умолчанию поддерживаются уровни RAID 0, 1, 10, 5, 50, если у вас есть достаточное число накопителей. В отличие от 48300, Adaptec вложила два кабеля SAS, так что вы сразу же сможете подключить к контроллеру восемь жёстких дисков. В отличие от 48300, карта требует полноразмерный слот PCI-X.

Если вы решите модернизировать карту до Adaptec Advanced Data Protection Suite , то получите возможность перейти на режимы RAID с двойной избыточностью (6, 60), а также ряд функций корпоративного класса: striped mirror drive (RAID 1E), hot spacing (RAID 5EE) и copyback hot spare. Утилита Adaptec Storage Manager отличается интерфейсом как у браузера, с её помощью можно управлять всеми адаптерами Adaptec.

Adaptec предлагает драйверы для Windows Server 2003 (и x64), Windows 2000 Server, Windows XP (x64), Novell Netware, Red Hat Enterprise Linux 3 и 4, SuSe Linux Enterprise Server 8 и 9 и FreeBSD.

Оснастки SAS

335SAS представляет собой оснастку для четырёх приводов SAS или SATA, но подключать её следует к контроллеру SAS. Благодаря 120-мм вентилятору приводы будут хорошо охлаждаться. К оснастке придётся подключить и две вилки питания Molex.

Adaptec включила в комплект поставки кабель I2C, который можно использовать для управления оснасткой через соответствующий контроллер. Но с приводами SAS так уже не получится. Дополнительный светодиодный кабель призван сигнализировать об активности приводов, но, опять же, только для накопителей SATA. В комплект поставки входит и внутренний кабель SAS на четыре привода, поэтому для подключения приводов будет достаточно внешнего четырёхканального кабеля. Если же вы захотите использовать приводы SATA, то придётся воспользоваться переходниками с SAS на SATA.

Розничную цену в $369 нельзя назвать низкой. Но вы получите солидное и надёжное решение.

Хранилища SAS

SANbloc S50 - решение корпоративного уровня на 12 накопителей. Вы получите стоечный корпус формата 2U, который подключается к контроллерам SAS. Перед нами один из лучших примеров масштабируемых решений SAS. 12 приводов могут быть как SAS, так и SATA. Либо представлять смесь обоих типов. Встроенный экспандер может использовать один или два четырёхканальных интерфейса SAS для подключения S50 к host-адаптеру или RAID-контроллеру. Поскольку перед нами явно профессиональное решение, оно оснащено двумя блоками питания (с избыточностью).

Если вы уже купили host-адаптер Adaptec SAS, его можно будет легко подключить к S50 и с помощью Adaptec Storage Manager управлять приводами. Если установить жёсткие диски SATA по 500 Гбайт, то мы получим хранилище на 6 Тбайт. Если же взять 300-Гбайт накопители SAS, то ёмкость составит 3,6 Тбайт. Поскольку экспандер связан с host-контроллером двумя четырёхканальными интерфейсами, мы получим пропускную способность 2,4 Гбайт/с, которой будет более чем достаточно для массива любого типа. Если же установить 12 накопителей в массив RAID0, то максимальная пропускная способность составит всего лишь 1,1 Гбайт/с. В середине этого года Adaptec обещает выпустить немного модифицированную версию с двумя независимыми блоками ввода/вывода SAS.

SANbloc S50 содержит функцию автоматического мониторинга и автоматического управления скоростью вращения вентилятора. Да, устройство работает слишком громко, так что мы с облегчением отдали его из лаборатории после завершения тестов. Сообщение о сбое привода отправляется контроллеру через SES-2 (SCSI Enclosure Services) или через физический интерфейс I2C.

Рабочие температуры для приводов составляют 5-55°C, а для оснастки - от 0 до 40°C.

В начале наших тестов мы получили пиковую пропускную способность всего 610 Мбайт/с. Поменяв кабель между S50 и host-контроллером Adaptec, мы всё-таки смогли достичь 760 Мбайт/с. Для нагрузки системы в режиме RAID 0 мы использовали семь жёстких дисков. Увеличение числа жёстких дисков не приводило к повышению пропускной способности.

Тестовая конфигурация

Системное аппаратное обеспечение
Процессоры 2x Intel Xeon (ядро Nocona)
3,6 ГГц, FSB800, 1 Мбайт кэша L2
Платформа Asus NCL-DS (Socket 604)
Чипсет Intel E7520, BIOS 1005
Память Corsair CM72DD512AR-400 (DDR2-400 ECC, reg.)
2x 512 Мбайт, CL3-3-3-10
Системный жёсткий диск Western Digital Caviar WD1200JB
120 Гбайт, 7200 об/мин, кэш 8 Мбайт, UltraATA/100
Контроллеры накопителей Контроллер Intel 82801EB UltraATA/100 (ICH5)

Promise SATA 300TX4
Драйвер 1.0.0.33

Adaptec AIC-7902B Ultra320
Драйвер 3.0

Adaptec 48300 8 port PCI-X SAS
Драйвер 1.1.5472

Adaptec 4800 8 port PCI-X SAS
Драйвер 5.1.0.8360
Прошивка 5.1.0.8375

LSI Logic SAS3442X 8 port PCI-X SAS
Драйвер 1.21.05
BIOS 6.01

Хранилища
Оснастка на 4 отсека для внутренней установки с горячей заменой

2U, 12-HDD SAS/SATA JBOD

Сеть Broadcom BCM5721 Gigabit Ethernet
Видеокарта Встроенная
ATi RageXL, 8 Мбайт
Тесты
Измерение производительности c"t h2benchw 3.6
Измерение производительности ввода/вывода IOMeter 2003.05.10
Fileserver-Benchmark
Webserver-Benchmark
Database-Benchmark
Workstation-Benchmark
Системное ПО и драйверы
ОС Microsoft Windows Server 2003 Enterprise Edition, Service Pack 1
Драйвер платформы Intel Chipset Installation Utility 7.0.0.1025
Графический драйвер Сценарий рабочей станции.

После изучения нескольких новых жёстких дисков SAS, трёх соответствующих контроллеров и двух оснасток стало понятно, что SAS - действительно перспективная технология. Если вы обратитесь к технической документации SAS, то поймёте, почему. Перед нами не только преемница SCSI с последовательным интерфейсом (быстрым, удобный и лёгким в использовании), но и прекрасный уровень масштабирования и наращивания инфраструктуры, по сравнению с которым решения Ultra320 SCSI кажутся каменным веком.

Да и совместимость просто великолепная. Если вы планируете закупить профессиональное оборудование SATA для вашего сервера, то стоит присмотреться к SAS. Любой SAS-контроллер или оснастка совместимы с жёсткими дисками и SAS, и SATA. Поэтому вы сможете создать как высокопроизводительное окружение SAS, так и ёмкое SATA - или оба сразу.

Удобная поддержка внешних хранилищ - ещё одно важное преимущество SAS. Если хранилища SATA используют либо какие-то собственные решения, либо одиночный канал SATA/eSATA, интерфейс хранилищ SAS позволяет наращивать пропускную способность соединения группами по четыре канала SAS. В итоге мы получаем возможность наращивать пропускную способность под нужды приложений, а не упираться в 320 Мбайт/с UltraSCSI или 300 Мбайт/с SATA. Более того, экспандеры SAS позволяют создать целую иерархию устройств SAS, так что свобода деятельности у администраторов большая.

На этом эволюция устройств SAS не закончится. Как нам кажется, интерфейс UltraSCSI можно считать устаревшим и потихоньку списывать со счетов. Вряд ли индустрия будет его совершенствовать, разве что продолжит поддерживать существующие реализации UltraSCSI. Все же новые жёсткие диски, последние модели хранилищ и оснасток, а также увеличение скорости интерфейса до 600 Мбайт/с, а потом и до 1200 Мбайт/с - всё это предназначено для SAS.

Какова же должна быть современная инфраструктура хранения? С доступностью SAS дни UltraSCSI сочтены. Последовательная версия является логичным шагом вперёд и справляется со всеми задачами лучше предшественницы. Вопрос выбора между UltraSCSI и SAS становится очевидным. Выбирать же между SAS или SATA несколько сложнее. Но если вы смотрите в перспективу, то комплектующие SAS окажутся всё же лучше. Действительно, для максимальной производительности или с точки зрения перспектив масштабируемости альтернативы SAS сегодня уже нет.

В этой статье речь пойдет о том, что позволяет подключить жесткий диск к компьютеру, а именно, об интерфейсе жесткого диска. Точнее говорить, об интерфейсах жестких дисков, потому что технологий для подключения этих устройств за все время их существования было изобретено великое множество, и обилие стандартов в данной области может привести в замешательство неискушенного пользователя. Впрочем, обо все по порядку.

Интерфейсы жестких дисков (или строго говоря, интерфейсы внешних накопителей, поскольку в их качестве могут выступать не только , но и другие типы накопителей, например, приводы для оптических дисков) предназначены для обмена информацией между этими устройствами внешней памяти и материнской платой. Интерфейсы жестких дисков, не в меньшей степени, чем физические параметры накопителей, влияют на многие рабочие характеристики накопителей и на их производительность. В частности, интерфейсы накопителей определяют такие их параметры, как скорость обмена данными между жестким диском и материнской платой, количество устройств, которые можно подключить к компьютеру, возможность создания дисковых массивов, возможность горячего подключения, поддержка технологий NCQ и AHCI, и.т.д. Также от интерфейса жесткого диска зависит, какой кабель, шнур или переходник для его подключения к материнской плате вам потребуется.

SCSI - Small Computer System Interface

Интерфейс SCSI является одним из самых старых интерфейсов, разработанных для подключения накопителей в персональных компьютерах. Появился данный стандарт еще в начале 1980-х гг. Одним из его разработчиков был Алан Шугарт, также известный, как изобретатель дисководов для гибких дисков.

Внешний вид интерфейса SCSI на плате и кабеля подключения к нему

Стандарт SCSI (традиционно данная аббревиатура читается в русской транскрипции как «скази») первоначально предназначался для использования в персональных компьютерах, о чем свидетельствует даже само название формата – Small Computer System Interface, или системный интерфейс для небольших компьютеров. Однако так получилось, что накопители данного типа применялись в основном в персональных компьютерах топ-класса, а впоследствии и в серверах. Связано это было с тем, что, несмотря на удачную архитектуру и широкий набор команд, техническая реализация интерфейса была довольно сложна, и не подходила по стоимости для массовых ПК.

Тем не менее, данный стандарт обладал рядом возможностей, недоступных для прочих типов интерфейсов. Например, шнур для подключения устройств Small Computer System Interface может иметь максимальную длину в 12 м, а скорость передачи данных – 640 МБ/c.

Как и появившийся несколько позже интерфейс IDE, интерфейс SCSI является параллельным. Это означает, что в интерфейсе применяются шины, передающие информацию по нескольким проводникам. Данная особенность являлась одним из сдерживающих факторов для развития стандарта, и поэтому в качестве его замены был разработан более совершенный, последовательный стандарт SAS (от Serial Attached SCSI).

SAS - Serial Attached SCSI

Так выглядит интерфейс SAS серверного диска

Serial Attached SCSI разрабатывался в усовершенствования достаточно старого интерфейса подключения жестких дисков Small Computers System Interface. Несмотря на то, что Serial Attached SCSI использует основные достоинства своего предшественника, тем не менее, у него есть немало преимуществ. Среди них стоит отметить следующие:

  • Использование общей шины всеми устройствами.
  • Последовательный протокол передачи данных, используемый SAS, позволяет задействовать меньшее количество сигнальных линий.
  • Отсутствует необходимость в терминации шины.
  • Практически неограниченное число подключаемых устройств.
  • Более высокая пропускная способность (до 12 Гбит/c). В будущих реализациях протокола SAS предполагается поддерживать скорость обмена данными до 24 Гбит/c.
  • Возможность подключения к контроллеру SAS накопителей с интерфейсом Serial ATA.

Как правило, системы Serial Attached SCSI строятся на основе нескольких компонентов. В число основных компонентов входят:

  • Целевые устройства. В эту категорию включают собственно накопители или дисковые массивы.
  • Инициаторы – микросхемы, предназначенные для генерации запросов к целевым устройствам.
  • Система доставки данных – кабели, соединяющие целевые устройства и инициаторы

Разъемы Serial Attached SCSI могут иметь различную форму и размер, в зависимости от типа (внешний или внутренний) и от версий SAS. Ниже представлены внутренний разъем SFF-8482 и внешний разъем SFF-8644, разработанный для SAS-3:

Слева - внутренний разъём SAS SFF-8482; Справа - внешний разъём SAS SFF-8644 с кабелем.

Несколько примеров внешнего вида шнуров и переходников SAS: шнур HD-Mini SAS и шнур-переходник SAS-Serial ATA.

Слева - шнур HD Mini SAS; Справа - переходной шнур с SAS на Serial ATA

Firewire - IEEE 1394

Сегодня достаточно часто можно встретить жесткие диски с интерфейсом Firewire. Хотя через интерфейс Firewire к компьютеру можно подключить любые типы периферийных устройств, и его нельзя назвать специализированным интерфейсом, предназначенным для подключения исключительно жестких дисков, тем не менее, Firewire имеет ряд особенностей, которые делают его чрезвычайно удобным для этой цели.

FireWire - IEEE 1394 - вид на ноутбуке

Интерфейс Firewire был разработан в середине 1990-х гг. Начало разработке положила небезызвестная фирма Apple, нуждавшаяся в собственной, отличной от USB, шине для подключения периферийного оборудования, прежде всего мультимедийного. Спецификация, описывающая работу шины Firewire, получила название IEEE 1394.

На сегодняшний день Firewire представляет собой один из наиболее часто используемых форматов высокоскоростной последовательной внешней шины. К основным особенностям стандарта можно отнести:

  • Возможность горячего подключения устройств.
  • Открытая архитектура шины.
  • Гибкая топология подключения устройств.
  • Меняющаяся в широких пределах скорость передачи данных – от 100 до 3200 Мбит/c.
  • Возможность передачи данных между устройствами без участия компьютера.
  • Возможность организации локальных сетей при помощи шины.
  • Передача питания по шине.
  • Большое количество подключаемых устройств (до 63).

Для подключения винчестеров (обычно посредством внешних корпусов для жестких дисков) через шину Firewire, как правило, используется специальный стандарт SBP-2, использующий набор команд протокола Small Computers System Interface. Существует возможность подключения устройств Firewire к обычному разъему USB, но для этого требуется специальный переходник.

IDE - Integrated Drive Electronics

Аббревиатура IDE, несомненно, известна большинству пользователей персональных компьютеров. Стандарт интерфейса для подключения жестких дисков IDE был разработан известной фирмой, производящей жесткие диски – Western Digital. Преимуществом IDE по сравнению с другими существовавшими в то время интерфейсами, в частности, интерфейсом Small Computers System Interface, а также стандартом ST-506, было отсутствие необходимости устанавливать контроллер жесткого диска на материнскую плату. Стандарт IDE подразумевал установку контроллера привода на корпус самого накопителя, а на материнской плате оставался лишь хост-адаптер интерфейса для подключения приводов IDE.

Интерфейс IDE на материнской плате

Данное нововведение позволило улучшить параметры работы накопителя IDE благодаря тому, что сократилось расстояние между контроллером и самим накопителем. Кроме того, установка контроллера IDE внутрь корпуса жесткого диска позволила несколько упростить как материнские платы, так и производство самих винчестеров, поскольку технология давала свободу производителям в плане оптимальной организации логики работы накопителя.

Новая технология первоначально получила название Integrated Drive Electronics (Встроенная в накопитель электроника). Впоследствии был разработан описывающий ее стандарт, названный ATA. Это название происходит от последней части названия семейства компьютеров PC/AT посредством добавления слова Attachment.

Для подключения жесткого диска или другого устройства, например, накопителя для оптических дисков, поддерживающего технологию Integrated Drive Electronics, к материнской плате, используется специальный кабель IDE. Поскольку ATA относится к параллельным интерфейсам (поэтому его также называют Parallel ATA или PATA), то есть, интерфейсам, предусматривающим одновременную передачу данных по нескольким линиям, то его кабель данных имеет большое количество проводников (обычно 40, а в последних версиях протокола имелась возможность использовать 80-жильный кабель). Обычный кабель данных для данного стандарта имеет плоский и широкий вид, но встречаются и кабели круглого сечения. Кабель питания для накопителей Parallel ATA имеет 4-контактный разъем и подсоединен к блоку питания компьютера.

Ниже приведены примеры кабеля IDE и круглого шнура данных PATA:

Внешний вид интерфейсного кабеля: cлева - плоский, справа в круглой оплетке - PATA или IDE.

Благодаря сравнительной дешевизне накопителей Parallel ATA, простоте реализации интерфейса на материнской плате, а также простоте установки и конфигурации устройств PATA для пользователя, накопители типа Integrated Drive Electronics на длительное время вытеснили с рынка винчестеров для персональных компьютеров бюджетного уровня устройства других типов интерфейса.

Однако стандарт PATA имеет и ряд недостатков. Прежде всего, это ограничение по длине, которую может иметь кабель данных Parallel ATA – не более 0,5 м. Кроме того, параллельная организация интерфейса накладывает ряд ограничений на максимальную скорость передачи данных. Не поддерживает стандарт PATA и многие расширенные возможности, которые имеются у других типов интерфейсов, например, горячее подключение устройств.

SATA - Serial ATA

Вид интерфейса SATA на материнской плате

Интерфейс SATA (Serial ATA), как можно догадаться из названия, является усовершенствованием ATA. Заключается это усовершенствование, прежде всего, в переделке традиционного параллельного ATA (Parallel ATA) в последовательный интерфейс. Однако этим отличия стандарта Serial ATA от традиционного не ограничиваются. Помимо изменения типа передачи данных с параллельного на последовательный, изменились также разъемы для передачи данных и электропитания.

Ниже приведен шнур данных SATA:

Шнур передачи данных для SATA интерфейса

Это позволило использовать шнур значительно большей длины и увеличить скорость передачи данных. Однако минусом стало то обстоятельство, что устройства PATA, которые до появления SATA присутствовали на рынке в огромных количествах, стало невозможно напрямую подключить в новые разъемы. Правда, большинство новых материнских плат все же имеют старые разъемы и поддерживают подключение старых устройств. Однако обратная операция – подключение накопителя нового типа к старой материнской плате обычно вызывает куда больше проблем. Для этой операции пользователю обычно требуется переходник Serial ATA to PATA. Переходник для кабеля питания обычно имеет сравнительно простую конструкцию.

Переходник питания Serial ATA to PATA:

Слева общий вид кабеля; Cправа укрупнено внешний вид коннекторов PATA и Serial ATA

Сложнее, однако, дело обстоит с таким устройством, как переходник для подключения устройства последовательного интерфейса в разъем для параллельного интерфейса. Обычно переходник такого типа выполнен в виде небольшой микросхемы.

Внешний вид универсального двунаправленного переходника между интерфейсами SATA - IDE

В настоящее время интерфейс Serial ATA практически вытеснил Parallel ATA, и накопители PATA можно встретить теперь в основном лишь в достаточно старых компьютерах. Еще одной особенностью нового стандарта, обеспечившей его широкую популярность, стала поддержка .

Вид переходника с IDE на SATA

О технологии NCQ можно рассказать чуть подробнее. Основное преимущество NCQ состоит в том, что она позволяет использовать идеи, которые давно были реализованы в протоколе SCSI. В частности, NCQ поддерживает систему упорядочивания операций чтения/записи, поступающих к нескольким накопителям, установленным в системе. Таким образом, NCQ способна значительно повысить производительность работы накопителей, в особенности массивов жестких дисков.

Вид переходника с SATA на IDE

Для использования NCQ необходима поддержка технологии со стороны жесткого диска, а также хост-адаптера материнской платы. Практически все адаптеры, поддерживающие AHCI, поддерживают и NCQ. Кроме того, NCQ поддерживают и некоторые старые проприетарные адаптеры. Также для работы NCQ требуется ее поддержка со стороны операционной системы.

eSATA - External SATA

Отдельно стоит упомянуть о казавшемся многообещающим в свое время, но так и не получившем широкого распространения формате eSATA (External SATA). Как можно догадаться из названия, eSATA представляет собой разновидность Serial ATA, предназначенную для подключения исключительно внешних накопителей. Стандарт eSATA предлагает для внешних устройств большую часть возможностей стандартного, т.е. внутреннего Serial ATA, в частности, одинаковую систему сигналов и команд и столь же высокую скорость.

Разъем eSATA на ноутбуке

Тем не менее, у eSATA есть и некоторые отличия от породившего его стандарта внутренней шины. В частности, eSATA поддерживает более длинный кабель данных (до 2 м), а также имеет более высокие требования к питанию накопителей. Кроме того, разъемы eSATA несколько отличаются от стандартных разъемов Serial ATA.

По сравнению с другими внешними шинами, такими, как USB и Firewire, eSATA, однако, имеет один существенный недостаток. Если эти шины позволяют осуществлять электропитание устройства через сам кабель шины, то накопитель eSATA требует специальные разъемы для питания. Поэтому, несмотря на сравнительно высокую скорость передачи данных, eSATA в настоящее время не пользуется большой популярностью в качестве интерфейса для подключения внешних накопителей.

Заключение

Информация, хранящаяся на жестком диске, не может стать полезной для пользователя и доступной для прикладных программ до тех пор, пока к ней не получит доступ центральный процессор компьютера. Интерфейсы жестких дисков представляют собой средство для связи между этими накопителями и материнской платой. На сегодняшний день существует немало различных типов интерфейсов жестких дисков, каждый из которых имеет свои достоинства, недостатки и характерные особенности. Надеемся, что приведенная в данной статье информация во многом окажется полезной для читателя, ведь выбор современного жесткого диска во многом определяются не только его внутренними характеристиками, такими, как емкость, объем кэш-памяти, скорость доступа и вращения, но и тем интерфейсом, для которого он был разработан.

На протяжении более 20 лет параллельный шинный интерфейс был самым распространенным протоколом обмена данных для большинства систем хранения цифровых данных. Но с ростом потребности в пропускной способности и гибкости систем стали очевидными недостатки двух самых распространенных технологий параллельного интерфейса: SCSI и ATA. Отсутствие совместимости между параллельными интерфейсами SCSI и ATA - разные разъемы, кабели и используемые наборы команд - повышает стоимость содержания систем, научных исследований и разработок, обучения и квалификации новых продуктов.

На сегодняшний день параллельные технологии пока еще устраивают пользователей современных корпоративных систем с точки зрения производительности, но растущие потребности в более высоких скоростях, более высокой сохранности данных при передаче, уменьшении физических размеров, а также в более широкой стандартизации ставят под сомнение способность параллельного интерфейса без излишних затрат поспевать за быстро растущей производительностью ЦПУ и скоростью накопителей на жестких дисках. Кроме того, в условиях жесткой экономии, предприятиям становится все труднее изыскивать средства на разработку и содержание разнотипных разъемов задних панелей серверных корпусов и внешних дисковых массивов, проверку на совместимость разнородных интерфейсов и инвентаризацию разнородных соединений для выполнения операций «ввод/вывод».

Использование параллельных интерфейсов также связано с рядом других проблем. Параллельная передача данных по широкому шлейфовому кабелю подвержена перекрестным наводкам, которые могут создавать дополнительные помехи и приводить к ошибкам сигнала - чтобы не угодить в эту ловушку, приходится снижать скорость сигнала или ограничивать длину кабеля, или делать и то, и другое. Терминация параллельных сигналов также связана с определенными трудностями - приходится завершать каждую линию в отдельности, обычно эту операцию выполняет последний накопитель, чтобы не допустить отражения сигнала в конце кабеля. Наконец, большие кабели и разъемы, применяемые в параллельных интерфейсах, делают эти технологии малопригодными для новых компактных вычислительных систем.

Представляем SAS и SATA

Последовательные технологии, такие как Serial ATA (SATA) и Serial Attached SCSI (SAS), позволяют преодолеть архитектурные ограничения, присущие традиционным параллельным интерфейсам. Свое название эти новые технологии получили от способа передачи сигнала, когда вся информация передается последовательно (англ. serial), единым потоком, в отличие от множественных потоков, которые используются в параллельных технологиях. Главное преимущество последовательного интерфейса заключается в том, что, когда данные передаются единым потоком, они движутся гораздо быстрее, чем при использовании параллельного интерфейса.

Последовательные технологии объединяют многие биты данных в пакеты и затем передают их по кабелю со скоростью, в 30 раз превышающей скорость параллельных интерфейсов.

SATA расширяет возможности традиционной технологии ATA, обеспечивая передачу данных между дисковыми накопителями со скоростью 1,5 Гбайт в секунду и выше. Благодаря низкой стоимости в пересчете на гигабайт емкости диска SATA будет оставаться господствующим дисковым интерфейсом в настольных ПК, серверах начального уровня и сетевых системах хранения информации, где стоимость является одним из главных соображений.

Технология SAS, преемница параллельного интерфейса SCSI, опирается на проверенную временем высокую функциональность своего предшественника и обещает значительно расширить возможности современных систем хранения данных масштаба предприятия. SAS обладает целым рядом преимуществ, не доступных традиционным решениям в области хранения данных. В частности, SAS позволяет подключать к одному порту до 16 256 устройств и обеспечивает надёжное последовательное соединение «точка-точка» со скоростью до 3 Гб/с.

Кроме того, благодаря уменьшенному разъему SAS обеспечивает полное двухпортовое подключение как для 3,5-дюймовых, так и для 2,5-дюймовых дисковых накопителей (раньше эта функция была доступна только для 3,5-дюймовых дисковых накопителей с интерфейсом Fibre Channel). Это очень полезная функция в тех случаях, когда требуется разместить большое количество избыточных накопителей в компактной системе, например, в низкопрофильном блэйд-сервере.

SAS улучшает адресацию и подключение накопителей благодаря аппаратным расширителям, которые позволяют подключить большое количество накопителей к одному или нескольким хост контроллерам. Каждый расширитель обеспечивает подключение до 128 физических устройств, каковыми могут являться другие хост контроллеры, другие SAS расширители или дисковые накопители. Подобная схема хорошо масштабируется и позволяет создавать топологии масштаба предприятия, с лёгкостью поддерживающие многоузловую кластеризацию для автоматического восстановления системы в случае сбоя и для равномерного распределения нагрузки.

Одно из важнейших преимуществ новой последовательной технологии заключается в том, что интерфейс SAS будет также совместим с более экономичными накопителями SATA, что позволит проектировщикам систем использовать в одной системе накопители обоих типов, не тратя дополнительные средства на поддержку двух разных интерфейсов. Таким образом интерфейс SAS, представляя собой следующее поколение технологии SCSI, позволяет преодолеть существующие ограничения параллельных технологий в том, что касается производительности, масштабируемости и доступности данных.

Несколько уровней совместимости

Физическая совместимость

Разъем SAS является универсальным и по форм-фактору совместим с SATA. Это позволяет напрямую подключать к системе SAS как накопители SAS, так и накопители SATA и таким образом использовать систему либо для жизненно важных приложений, требующих высокой производительности и оперативного доступа к данным, либо для более экономичных приложений с более низкой стоимостью в пересчете на гигабайт.

Набор команд SATA является подмножеством набора команд SAS, что обеспечивает совместимость устройств SATA и контроллеров SAS. Однако SAS накопители не могут работать с контроллером SATA, поэтому они снабжены специальными ключами на разъёмах, чтобы исключить вероятность неверного подключения.

Кроме того, сходные физические параметры интерфейсов SAS и SATA позволяют использовать новую универсальную заднюю панель SAS, которая обеспечивает подключение как накопителей SAS, так и накопителей SATA. В результате отпадает необходимость в использовании двух разных задних панелей для накопителей SCSI и ATA. Подобная конструктивная совместимость выгодна как производителям задних панелей, так и конечным пользователям, ведь при этом снижаются затраты на оборудование и проектирование.

Совместимость на уровне протоколов

Технология SAS включает в себя три типа протоколов, каждый из которых используется для передачи данных разных типов по последовательному интерфейсу в зависимости от того, к какому устройству осуществляется доступ. Первый - это последовательный SCSI протокол (Serial SCSI Protocol SSP), передающий команды SCSI, второй - управляющий протокол SCSI (SCSI Management Protocol SMP), передающий управляющую информацию на расширители. Третий - туннельный протокол SATA (SATA Tunneled Protocol STP), устанавливает соединение, которое позволяет передавать команды SATA. Благодаря использованию этих трех протоколов интерфейс SAS полностью совместим с уже существующими SCSI приложениями, управляющим ПО и устройствами SATA.

Такая мультипротокольная архитектура, в сочетании с физической совместимостью разъемов SAS и SATA, делает технологию SAS универсальным связующим звеном между устройствами SAS и SATA.

Выгоды совместимости

Совместимость SAS и SATA дает целый ряд преимуществ проектировщикам систем, сборщикам и конечным пользователям.

Проектировщики систем могут благодаря совместимости SAS и SATA использовать одни и те же задние панели, разъемы и кабельные соединения. Модернизация системы с переходом от SATA к SAS фактически сводится замене дисковых накопителей. Напротив, для пользователей традиционных параллельных интерфейсов переход от ATA к SCSI означает замену задних панелей, разъемов, кабелей и накопителей. К числу других экономичных преимуществ совместимости последовательных технологий следует отнести упрощенную процедуру сертификации и управление материальной частью.

VAR реселлеры и сборщики систем получают возможность легко и быстро изменять конфигурацию заказных систем, просто устанавливая в систему соответствующий дисковый накопитель. Отпадает необходимость работать с несовместимыми технологиями и использовать специальные разъемы и разные кабельные соединения. Более того, дополнительная гибкость в том, что касается выбора оптимального соотношения цены и производительности, позволит VAR реселлерам и сборщикам систем лучше дифференцировать свои продукты.

Для конечных пользователей совместимость SATA и SAS означает новый уровень гибкости в том, что касается выбора оптимального соотношения цены и производительности. Накопители SATA станут наилучшим решением для недорогих серверов и систем хранения данных, в то время как накопители SAS обеспечат максимальную производительность, надежность и совместимость с управляющим ПО. Возможность модернизации с переходом от накопителей SATA к накопителям SAS без необходимости приобретать для этого новую систему значительно упрощает процесс принятия решения о покупке, защищает инвестиции в систему и снижает общую стоимость владения.

Совместная разработка протоколов SAS и SATA

20 января 2003 года Ассоциация производителей SCSI Trade Association (STA) и Рабочая группа Serial ATA (SATA) II Working Group объявили о сотрудничестве в целях обеспечения совместимости технологии SAS с дисковыми накопителями SATA на системном уровне.

Сотрудничество этих двух организаций, а также совместные усилия поставщиков систем хранения данных и комитетов по стандартам направлены на выработку еще более точных директив в области совместимости, что поможет проектировщикам систем, ИТ специалистам и конечным пользователям осуществлять еще более тонкую настройку своих систем с целью достижения оптимальной производительности и надёжности и снижения общей стоимости владения.

Спецификация SATA 1.0 была утверждена в 2001 году, и сегодня на рынке представлены продукты SATA от различных производителей. Спецификация SAS 1.0 была утверждена в начале 2003 года, а первые продукты должны появиться на рынке в первой половине 2004 года.

Коротко о современных RAID-контроллерах

В настоящее время RAID-контроллеры как отдельное решение ориентированы исключительно на специализированный серверный сегмент рынка. Действительно, все современные материнские платы для пользовательских ПК (не серверные платы) имеют интегрированные программно-аппаратные SATA RAID-контроллеры, возможностей которых с избытком хватает для пользователей ПК. Правда, нужно иметь в виду, что эти контроллеры ориентированы исключительно на использование операционной системы Windows. В операционных системах семейства Linux RAID-массивы создаются программным методом, и все расчеты переносятся с RAID-контроллера на центральный процессор.

В серверах традиционно применяются либо программно-аппаратные, либо чисто аппаратные RAID-контроллеры. Аппаратный RAID-контроллер позволяет создавать и обслуживать RAID-массив без участия операционной системы и центрального процессора. Такие RAID-массивы видятся операционной системой как один диск (SCSI-диск). При этом никакого специализированного драйвера не нужно - используется стандартный (входящий в состав операционной системы) драйвер SCSI-диска. В этом плане аппаратные контроллеры являются платформенно-независимыми, а настройка RAID-массива производится через BIOS контроллера. Аппаратный RAID-контроллер не задействует центральный процессор при расчете всех контрольных сумм и т.п., поскольку для расчетов применяет свой специализированный процессор и оперативную память.

Программно­аппаратные контроллеры требуют обязательного наличия специализированного драйвера, который подменяет собой стандартный драйвер SCSI-диска. Кроме того, программно-аппаратные контроллеры комплектуются утилитами управления. В этом плане программно-аппартные контроллеры привязаны к конкретной операционной системе. Все необходимые расчеты в этом случае также выполняются процессором самого RAID-контроллера, но использование программного драйвера и утилиты управления позволяет управлять контроллером через операционную систему, а не только через BIOS контроллера.

Учитывая тот факт, что на смену серверным SCSI-дискам уже пришли SAS-диски, все современные серверные RAID-контроллеры ориентированы на поддержку либо SAS-, либо SATA-дисков, которые также применяются в серверах.

В прошлом году на рынке начали появляться диски с новым интерфейсом SATA 3 (SATA 6 Гбит/с), который стал постепенно вытеснять интерфейс SATA 2 (SATA 3Гбит/с). Ну а на смену дискам с интерфейсом SAS (3 Гбит/с) пришли диски с интерфейсом SAS 2.0 (6 Гбит/с). Естественно, новый стандарт SAS 2.0 полностью совместим со старым стандартом.

Соответственно появились RAID-контроллеры с поддержкой стандарта SAS 2.0. Казалось бы, какой смысл переходить к стандарту SAS 2.0, если даже самые скоростные SAS-диски имеют скорость чтения и записи данных не выше 200 Мбайт/с и для них вполне достаточно пропускной способности протокола SAS (3 Гбит/с или 300 Мбайт/с)?

Действительно, когда каждый диск подключается к отдельному порту на RAID-контроллере, пропускной способности 3 Гбит/с (что в теории составляет 300 Мбайт/с) вполне достаточно. Однако к каждому порту RAID-контроллера могут подключаться не только отдельные диски, но и дисковые массивы (дисковые корзины). В этом случае один SAS-канал делят между собой сразу несколько накопителей, и пропускной способности в 3 Гбит/с будет уже недостаточно. Ну и, кроме того, нужно учитывать наличие SSD-дисков, скорость чтения и записи которых уже преодолела планку в 300 Мбайт/с. К примеру, в новом диске Intel SSD 510 скорость последовательного чтения составляет до 500 Мбайт/с, а скорость последовательной записи - до 315 Мбайт/с.

После краткого знакомства с текущей ситуацией на рынке серверных RAID-контроллеров давайте рассмотрим характеристики контроллера LSI 3ware SAS 9750-8i.

Характеристики RAID-контроллера 3ware SAS 9750-8i

Данный RAID-контроллер выполнен на базе специализированного XOR-процессора LSI SAS2108 с тактовой частотой 800 МГц и архитектурой PowerPC. Этот процессор использует 512 Мбайт оперативной памяти DDRII 800 МГц с коррекцией ошибок (ECC).

Контроллер LSI 3ware SAS 9750-8i совместим с SATA- и SAS-дисками (поддерживаются как HDD-, так и SSD-диски) и позволяет подключать до 96 устройств с помощью SAS-экспандеров. Немаловажно, что данный контроллер поддерживает диски с интерфейсом SATA 600 Мбайт/с (SATA III) и SAS 2.

Для подключения дисков на контроллере предусмотрено восемь портов, которые физически объединены в два разъема Mini-SAS SFF-8087 (по четыре порта в каждом разъеме). То есть если диски подключать напрямую к портам, то всего можно подключить к контроллеру восемь дисков, а при подключении к каждому порту дисковых корзин общий объем дисков может быть увеличен до 96. Каждый из восьми портов контроллера имеет пропускную способность 6 Гбит/с, что соответствует стандартам SAS 2 и SATA III.

Естественно, при подключении дисков или дисковых корзин к этому контроллеру потребуются специализированные кабели, которые c одного конца имеют внутренний разъем Mini-SAS SFF-8087, а на другом конце - разъем, который зависит от того, что именно подключается к контроллеру. К примеру, при подключении к контроллеру напрямую SAS-дисков необходимо использовать кабель, у которого с одной стороны разъем Mini-SAS SFF-8087, а с другой - четыре разъема SFF 8484, которые позволяют непосредственно подключать SAS-диски. Отметим, что сами кабели не входят в комплект поставки и приобретаются отдельно.

У контроллера LSI 3ware SAS 9750-8i есть интерфейс PCI Express 2.0 x8, что обеспечивает пропускную способность 64 Гбит/с (по 32 Гбит/с в каждом направлении). Понятно, что такой пропускной способности вполне достаточно для полностью загруженных восьми портов SAS с пропускной способностью 6 Гбит/с каждый. Также отметим, что на контроллере имеется специальный разъем, в который опционально можно подключить батарею резервного питания LSIiBBU07.

Немаловажно, что данный контроллер требует инсталляции драйвера, то есть является программно-аппаратным RAID-контроллером. При этом поддерживаются такие операционные системы, как Windows Vista, Windows Server 2008, Windows Server 2003 x64, Windows 7, Windows 2003 Server, MAC OS X, LinuxFedora Core 11, Red Hat Enterprise Linux 5.4, OpenSuSE 11.1, SuSE Linux Enterprise Server (SLES) 11, OpenSolaris 2009.06, VMware ESX/ESXi 4.0/4.0 update-1 и другие системы семейства Linux. В комплект поставки также входит программное обеспечение 3ware Disk Manager 2, которое позволяет управлять RAID-массивами через операционную систему.

Контроллер LSI 3ware SAS 9750-8i поддерживает стандартные типы RAID-массивов: RAID 0, 1, 5, 6, 10 и 50. Пожалуй, единственный тип массива, который не поддерживается, - RAID 60. Это связано с тем, что данный контроллер способен создать массив RAID 6 только на пяти дисках, подключаемых напрямую к каждому порту контроллера (теоретически RAID 6 может быть создан на четырех дисках). Соответственно для массива RAID 60 данному контроллеру требуется минимум десять дисков, которых просто нет.

Понятно, что поддержка массива RAID 1 неактуальна для такого контроллера, поскольку данный тип массива создается только на двух дисках, а использовать такой контроллер только для двух дисков нелогично и крайне расточительно. А вот поддержка массивов RAID 0, 5, 6, 10 и 50 весьма актуальна. Хотя, возможно, с массивом RAID 0 мы и поторопились. Всё же этот массив не обладает избыточностью, а соответственно не обеспечивает надежности хранения данных, поэтому в серверах он используется крайне редко. Однако теоретически этот массив является самым быстрым по скорости чтения и записи данных. Впрочем, давайте вспомним, чем разные типы RAID-массивов отличаются друг от друга и что они собой представляют.

Уровни RAID-массивов

Термин «RAID-массив» появился в 1987 году, когда американские исследователи Паттерсон, Гибсон и Катц из Калифорнийского университета в Беркли в своей статье «Избыточный массив недорогих дисков» (“A case for redundant arrays of inexpensive discs, RAID”) описали, каким образом можно объединить несколько дешевых жестких дисков в одно логическое устройство так, чтобы в результате повышались емкость и быстродействие системы, а отказ отдельных дисков не приводил к отказу всей системы. С момента выхода этой статьи прошло уже почти 25 лет, но технология построения RAID-массивов не утратила актуальности и сегодня. Единственное, что изменилось с тех пор, - это расшифровка аббревиатуры RAID. Дело в том, что первоначально RAID-массивы строились вовсе не на дешевых дисках, поэтому слово Inexpensive («недорогие») поменяли на Independent («независимые»), что больше соответствовало действительности.

Отказоустойчивость в RAID-массивах достигается за счет избыточности, то есть часть емкости дискового пространства отводится для служебных целей, становясь недоступной для пользователя.

Повышение производительности дисковой подсистемы обеспечивается одновременной работой нескольких дисков, и в этом смысле чем больше дисков в массиве (до определенного предела), тем лучше.

Совместную работу дисков в массиве можно организовать с помощью либо параллельного, либо независимого доступа. При параллельном доступе дисковое пространство разбивается на блоки (полоски) для записи данных. Аналогично информация, подлежащая записи на диск, разбивается на такие же блоки. При записи отдельные блоки записываются на разные диски, причем запись нескольких блоков на различные диски происходит одновременно, что приводит к увеличению производительности в операциях записи. Нужная информация также считывается отдельными блоками одновременно с нескольких дисков, что тоже способствует росту производительности пропорционально количеству дисков в массиве.

Следует отметить, что модель с параллельным доступом реализуется только при условии, что размер запроса на запись данных больше размера самого блока. В противном случае осуществлять параллельную запись нескольких блоков практически невозможно. Представим ситуацию, когда размер отдельного блока составляет 8 Кбайт, а размер запроса на запись данных - 64 Кбайт. В этом случае исходная информация нарезается на восемь блоков по 8 Кбайт каждый. Если имеется массив из четырех дисков, то одновременно можно записать четыре блока, или 32 Кбайт, за один раз. Очевидно, что в рассмотренном примере скорость записи и скорость считывания окажутся в четыре раза выше, чем при использовании одного диска. Это справедливо лишь для идеальной ситуации, однако размер запроса далеко не всегда кратен размеру блока и количеству дисков в массиве.

Если же размер записываемых данных меньше размера блока, то реализуется принципиально иная модель - независимый доступ. Более того, эта модель может использоваться и в том случае, когда размер записываемых данных больше размера одного блока. При независимом доступе все данные отдельного запроса записываются на отдельный диск, то есть ситуация идентична работе с одним диском. Преимущество модели с независимым доступом в том, что при одновременном поступлении нескольких запросов на запись (чтение) все они будут выполняться на отдельных дисках независимо друг от друга. Подобная ситуация типична, например, для серверов.

В соответствии с различными типами доступа существуют и разные типы RAID-массивов, которые принято характеризовать уровнями RAID. Кроме типа доступа, уровни RAID различаются способом размещения и формирования избыточной информации. Избыточная информация может либо размещаться на специально выделенном диске, либо распределяться между всеми дисками.

В настоящее время существует несколько RAID-уровней, которые широко используются, - это RAID 0, RAID 1, RAID 5, RAID 6, RAID 10, RAID 50 и RAID 60. Ранее также применялись уровни RAID 2, RAID 3 и RAID 4, однако в настоящее время эти уровни RAID не используются и современные RAID-контроллеры их не поддерживают. Отметим, что все современные RAID-контроллеры поддерживают также функцию JBOD (Just a Bench Of Disks). В данном случае речь идет не о RAID-массиве, а просто о подключении отдельных дисков к RAID-контроллеру.

RAID 0

RAID 0, или страйпинг (striping), - это, строго говоря, не RAID-массив, поскольку такой массив не имеет избыточности и не обеспечивает надежности хранения данных. Однако исторически его тоже называют RAID-массивом. Массив RAID 0 (рис. 1) может строиться на двух и более дисках и используется в том случае, когда необходимо обеспечить высокую производительность дисковой подсистемы, а надежность хранения данных некритична. При создании массива RAID 0 информация разбивается на блоки (эти блоки называют страйпами (stripe)), которые одновременно записываются на отдельные диски, то есть создается система с параллельным доступом (если, конечно, позволяет размер блока). Благодаря возможности одновременного ввода­вывода с нескольких дисков, RAID 0 обеспечивает максимальную скорость передачи данных и максимальную эффективность использования дискового пространства, поскольку не требуется места для хранения контрольных сумм. Реализация этого уровня очень проста. В основном RAID 0 применяется в тех областях, где требуется быстрая передача большого объема данных.

Рис. 1. Массив RAID 0

Теоретически прирост скорости чтения и записи должен быть кратен количеству дисков в массиве.

Надежность массива RAID 0 заведомо ниже надежности любого из дисков в отдельности и снижается с увеличением количества входящих в массив дисков, так как отказ любого из них приводит к неработоспособности всего массива. Если время наработки на отказ каждого диска составляет MTTF disk , то время наработки на отказ массива RAID 0, состоящего из n дисков, равно:

MTTF RAID0 = MTTD disk /n.

Если обозначить вероятность выхода из строя за определенный промежуток времени одного диска через p , то для массива RAID 0 из n дисков вероятность того, что хотя бы один диск выйдет из строя (вероятность падения массива), составит:

Р (падение массива) = 1 – (1 – р) n .

К примеру, если вероятность выхода из строя одного диска в течение трех лет эксплуатации составляет 5%, то вероятность падения массива RAID 0 из двух дисков равна уже 9,75%, а из восьми дисков - 33,7%.

RAID 1

Массив RAID 1 (рис. 2), который также называют зеркалом (mirror), - это массив из двух дисков со 100-процентной избыточностью. То есть данные полностью дублируются (зеркалируются), за счет чего достигается очень высокий уровень надежности (как, впрочем, и стоимости). Отметим, что для реализации RAID 1 не требуется предварительно разбивать диски и данные на блоки. В простейшем случае два диска содержат одинаковую информацию и являются одним логическим диском. При выходе из строя одного диска его функции выполняет другой (что абсолютно прозрачно для пользователя). Восстановление массива выполняется простым копированием. Кроме того, теоретически в массиве RAID 1 должна удваиваться скорость считывания информации, так как эта операция может выполняться одновременно с двух дисков. Подобная схема хранения информации используется в основном в тех случаях, когда цена безопасности данных гораздо выше стоимости реализации системы хранения.

Рис. 2. Массив RAID 1

Если, как в предыдущем случае, обозначить вероятность выхода из строя за определенный промежуток времени одного диска через p , то для массива RAID 1 вероятность того, что оба диска выйдут из строя одновременно (вероятность падения массива), составит:

Р (падение массива) = р 2 .

К примеру, если вероятность выхода из строя одного диска в течение трех лет эксплуатации составляет 5%, то вероятность одновременного выхода из строя двух дисков равна уже 0,25%.

RAID 5

Массив RAID 5 (рис. 3) - это отказоустойчивый дисковый массив с распределенным хранением контрольных сумм. При записи поток данных разбивается на блоки (страйпы) на уровне байтов, которые одновременно записываются на все диски массива в циклическом порядке.

Рис. 3. Массив RAID 5

Предположим, что массив содержит n дисков, а размер страйпа - d . Для каждой порции из n –1 страйпов рассчитывается контрольная сумма p .

Cтрайп d 1 записывается на первый диск, страйп d 2 - на второй и так далее вплоть до страйпа d n –1, который записывается на (n–1)-й диск. Далее на n-й диск записывается контрольная сумма p n , и процесс циклически повторяется с первого диска, на который записывается страйп d n .

Процесс записи (n –1) страйпов и их контрольной суммы производится одновременно на все n дисков.

Для вычисления контрольной суммы используется поразрядная операция «исключающего ИЛИ» (XOR), применяемая к записываемым блокам данных. Так, если имеется n жестких дисков и d - блок данных (страйп), то контрольная сумма рассчитывается по следующей формуле:

p n = d 1 d 2 ⊕ ... d n–1 .

В случае выхода из строя любого диска данные на нем можно восстановить по контрольным данным и по данным, оставшимся на исправных дисках. Действительно, воспользовавшись тождествами (a b) A b = a и a a = 0 , получим, что:

p n ⊕ (d k p n) = d l d n ⊕ ...⊕ ...⊕ d n–l ⊕ (d k p n).

d k = d 1 d n ⊕ ...⊕ d k–1 d k+1 ⊕ ...⊕ p n .

Таким образом, если из строя вышел диск с блоком d k , то его можно восстановить по значению остальных блоков и контрольной суммы.

В случае RAID 5 все диски массива должны иметь одинаковый размер, однако общая емкость дисковой подсистемы, доступной для записи, становится меньше ровно на один диск. Например, если пять дисков имеют размер 100 Гбайт, то фактический размер массива составляет 400 Гбайт, поскольку 100 Гбайт отводится на контрольную информацию.

Массив RAID 5 может быть построен на трех и более жестких дисках. С увеличением количества жестких дисков в массиве его избыточность уменьшается. Отметим также, что массив RAID 5 может быть восстановлен при выходе из строя только одного диска. Если же одновременно выходят из строя два диска (или если второй диск выходит из строя в процессе восстановления массива), то массив не подлежит восстановлению.

RAID 6

Массив RAID 5, как было показано, может быть восстановлен при выходе из строя одного диска. Однако иногда требуется обеспечить более высокий уровень надежности, чем в массиве RAID 5. В этом случае можно использовать массив RAID 6 (рис. 4), который позволяет восстановить массив даже при выходе из строя одновременно двух дисков.

Рис. 4. Массив RAID 6

Массив RAID 6 похож на RAID 5, но в нем применяется не одна, а две контрольные суммы, которые циклически распределяются по дискам. Первая контрольная сумма p рассчитывается по тому же алгоритму, что и в массиве RAID 5, то есть это операция XOR между блоками данных, записываемыми на разные диски:

p n = d 1 d2 ⊕ ...⊕ d n–1 .

Вторая контрольная сумма рассчитывается уже по другому алгоритму. Не вдаваясь в математические подробности, скажем, что это также операция XOR между блоками данных, но каждый блок данных предварительно умножается на полиномиальный коэффициент:

q n = g 1 d 1 g 2 d 2 ⊕ ...⊕ g n–1 d n–1 .

Соответственно под контрольные суммы выделяется емкость двух дисков в массиве. Теоретически массив RAID 6 может быть создан на четырех и более дисках, однако во многих контроллерах он может быть создан минимум на пяти дисках.

Нужно иметь в виду, что производительность массива RAID 6, как правило, на 10-15% ниже производительности массива RAID 5 (при равном количестве дисков), что вызвано большим объемом расчетов, выполняемых контроллером (необходимо рассчитывать вторую контрольную сумму, а также считывать и перезаписывать больше дисковых блоков при записи каждого блока).

RAID 10

Массив RAID 10 (рис. 5) представляет собой сочетание уровней 0 и 1. Минимально для этого уровня требуются четыре диска. В массиве RAID 10 из четырех дисков они попарно объединяются в массивы RAID 1, а оба эти массива как логические диски объединяются в массив RAID 0. Возможен и другой подход: первоначально диски объединяются в массивы RAID 0, а затем логические диски на основе этих массивов - в массив RAID 1.

Рис. 5. Массив RAID 10

RAID 50

Массив RAID 50 представляет собой сочетание уровней 0 и 5 (рис. 6). Минимально для этого уровня требуется шесть дисков. В массиве RAID 50 сначала создаются два массива RAID 5 (минимум по три диска в каждом), которые потом как логические диски объединяются в массив RAID 0.

Рис. 6. Массив RAID 50

Методика тестирования контроллера LSI 3ware SAS 9750-8i

Для тестирования RAID-контроллера LSI 3ware SAS 9750-8i мы использовали специализированный тестовый пакет IOmeter 1.1.0 (версия от 2010.12.02). Тестовый стенд имел следующую конфигурацию:

  • процессор - Intel Core i7-990 (Gulftown);
  • системная плата - GIGABYTE GA-EX58-UD4;
  • память - DDR3-1066 (3 Гбайт, трехканальный режим работы);
  • системный диск - WD Caviar SE16 WD3200AAKS;
  • видеокарта - GIGABYTE GeForce GTX480 SOC;
  • RAID-контроллер - LSI 3ware SAS 9750-8i;
  • SAS-диски, подключаемые к RAID-контроллеру, - Seagate Cheetah 15K.7 ST3300657SS.

Тестирование проводилось под управлением операционной системы Microsoft Windows 7 Ultimate (32-bit).

Мы использовали Windows-драйвер RAID-контроллера версии 5.12.00.007, а также обновили прошивку контроллера до версии 5.12.00.007.

Системный диск подключался к SATA, реализованному через контроллер, интегрированный в южный мост чипсета Intel X58, a SAS-диски подключались напрямую к портам RAID-контроллера с использованием двух кабелей Mini-SAS SFF-8087 ->4 SAS.

RAID-контроллер устанавливался в разъем PCI Express x8 на системной плате.

Контроллер тестировался со следующими RAID-массивами: RAID 0, RAID 1, RAID 5, RAID 6, RAID 10 и RAID 50. Количество дисков, объединяемых в RAID-массив, варьировалось для каждого типа массива от минимального значения до восьми.

Размер страйпа на всех RAID-массивах не изменялся и составлял 256 Кбайт.

Напомним, что пакет IOmeter позволяет работать как с дисками, на которых создан логический раздел, так и с дисками без логического раздела. В случае если проводится тестирование диска без созданного на нем логического раздела, то IOmeter работает на уровне логических блоков данных, то есть вместо операционной системы передает команды контроллеру на запись или чтение LBA-блоков.

Если на диске создан логический раздел, то первоначально утилита IOmeter создает на диске файл, который по умолчанию занимает весь логический раздел (в принципе, размер этого файла можно изменять, указав его в количестве 512 байтных секторов), и далее уже работает с этим файлом, то есть считывает или записывает (перезаписывает) отдельные LBA-блоки в пределах этого файла. Но опять-таки IOmeter работает в обход операционной системы, то есть непосредственно посылает запросы контроллеру на чтение/запись данных.

Вообще, при тестировании HDD-дисков, как показывает практика, разницы между результатами тестирования диска с созданным логическим разделом и без него практически нет. В то же время мы считаем, что более корректно проводить тестирование без созданного логического раздела, поскольку в таком случае результаты тестов не зависят от используемой файловой системы (NTFA, FAT, ext и т.д.). Именно поэтому мы выполняли тестирование без создания логических разделов.

Кроме того, утилита IOmeter позволяет задавать размер блока запроса (Transfer Request Size) на запись/чтение данных, а тест можно проводить как для последовательных (Sequential) чтения и записи, когда LBA-блоки считываются и записываются последовательно друг за другом, так и для случайных (Random), когда LBA-блоки считываются и записываются в произвольном порядке. При формировании сценария нагрузки можно задавать время теста, процентное соотношение между последовательными и случайными операциями (Percent Random/Sequential Distribution), а также процентное соотношение между операциями чтения и записи (Percent Read/Write Distribution). Кроме того, утилита IOmeter позволяет автоматизировать весь процесс тестирования и сохраняет все результаты в CSV-файл, который затем легко экспортируется в таблицу Excel.

Еще одна настройка, которую позволяет делать утилита IOmeter, - это так называемое выравнивание блоков запросов на передачу данных (Align I/Os on) по границам секторов жесткого диска. По умолчанию IOmeter выравнивает блоки запросов по границам 512-байтных секторов диска, однако можно задать и произвольное выравнивание. Собственно, большинство жестких дисков имеют размер сектора 512 байт и только в последнее время стали появляться диски с размером сектора 4 Кбайт. Напомним, что в HDD-дисках сектор - это минимальный адресуемый размер данных, который можно записать или считать с диска.

При проведении тестирования необходимо устанавливать выравнивание блоков запросов на передачу данных по размеру сектора диска. Поскольку в дисках Seagate Cheetah 15K.7 ST3300657SS размер сектора составляет 512 байт, мы использовали выравнивание по границам 512-байтных секторов.

С помощью тестового пакета IOmeter мы измеряли скорость последовательного чтения и записи, а также скорость случайного чтения и записи созданного RAID-массива. Размеры блоков передаваемых данных составляли 512 байт, 1, 2, 4, 8, 16, 32, 64, 128, 256, 512 и 1024 Кбайт.

В перечисленных сценариях нагрузки время теста с каждым запросом на передачу блока данных составляло 5 мин. Также отметим, что во всех перечисленных тестах мы задавали в настройках IOmeter глубину очереди задачи (# of Outstanding I/Os) равной 4, что типично для пользовательских приложений.

Результаты тестирования

Проанализировав результаты тестирования, мы были удивлены работой RAID-контроллера LSI 3ware SAS 9750-8i. Причем настолько, что стали просматривать наши скрипты на предмет выявления в них ошибки, а потом многократно повторили тестирование с другими настройками RAID-контроллера. Мы меняли размер страйпа и режим работы кэша RAID-контроллера. Это, конечно же, отражалось на результатах, однако не меняло общего характера зависимости скорости передачи данных от размера блока данных. А эту зависимость мы как раз и не смогли объяснить. Работа данного контроллера представляется нам совершенно нелогичной. Во­первых, результаты нестабильны, то есть при каждом фиксированном размере блока данных скорость периодически изменяется и усредненный результат имеет большую погрешность. Отметим, что обычно результаты тестирования дисков и контроллеров с использованием утилиты IOmeter стабильны и различаются весьма незначительно.

Во­вторых, при увеличении размера блока скорость передачи данных должна возрастать или оставаться неизменной в режиме насыщения (когда скорость достигает своего максимального значения). Однако в случае контроллера LSI 3ware SAS 9750-8i при некоторых размерах блоков наблюдается резкое падение скорости передачи данных. Кроме того, для нас так и осталось загадкой, почему при одном и том же количестве дисков для массивов RAID 5 и RAID 6 скорость записи выше скорости чтения. Одним словом, объяснить работу контроллера LSI 3ware SAS 9750-8i мы не можем - остается лишь констатировать факты.

Результаты тестирования можно классифицировать по-разному. К примеру, по сценариям загрузки, когда для каждого типа загрузки приводятся результаты для всех возможных RAID-массивов с разным количеством подключенных дисков, или по типам RAID-массивов, когда для каждого типа RAID-массива указываются результаты с различным количеством дисков в сценариях последовательного чтения, последовательной записи, случайного чтения и случайной записи. Также можно классифицировать результаты по количеству дисков в массиве, когда для каждого количества подключенных к контроллеру дисков приводятся результаты для всех возможных (при данном количестве дисков) RAID-массивов в сценариях последовательного чтения и последовательной записи, случайного чтения и случайной записи.

Мы решили классифицировать результаты по типам массивов, поскольку, на наш взгляд, несмотря на довольно большое количество графиков, такое их представление более наглядно.

RAID 0

Массив RAID 0 можно создать с количеством дисков от двух до восьми. Результаты тестирования для массива RAID 0 представлены на рис. 7-15.

Рис. 7. Скорость последовательного чтения и записи
при восьми дисках в массиве RAID 0

Рис. 8. Скорость последовательного чтения и записи
при семи дисках в массиве RAID 0

Рис. 9. Скорость последовательного чтения
и записи при шести дисках в массиве RAID 0

Рис. 10. Скорость последовательного чтения и записи
при пяти дисках в массиве RAID 0

Рис. 11. Скорость последовательного чтения и записи
при четырех дисках в массиве RAID 0

Рис. 12. Скорость последовательного чтения и записи
при трех дисках в массиве RAID 0

Рис. 13. Скорость последовательного чтения и записи
при двух дисках в массиве RAID 0

Рис. 14. Скорость случайного чтения
в массиве RAID 0

Рис. 15. Скорость случайной записи в массиве RAID 0

Понятно, что наиболее высокая скорость последовательного чтения и записи в массиве RAID 0 достигается при восьми дисках. Стоит обратить внимание на то, что при восьми и семи дисках в массиве RAID 0 скорости последовательного чтения и записи практически совпадают друг с другом и при меньшем количестве дисков скорость последовательной записи становится выше скорости чтения.

Нельзя не отметить и характерные провалы в скорости последовательного чтения и записи при определенных размерах блоков. К примеру, при восьми и шести дисках в массиве такие провалы наблюдаются при размере блоков данных 1 и 64 Кбайт, а при семи дисках - при размере 1, 2 и 128 Кбайт. Аналогичные провалы, но при других размерах блоков данных имеются и при четырех, трех и двух дисках в массиве.

По скорости последовательного чтения и записи (как усредненной по всем размерам блоков характеристике) массив RAID 0 превосходит все остальные возможные массивы в конфигурации с восемью, семью, шестью, пятью, четырьмя, тремя и двумя дисками.

Случайный доступ в массиве RAID 0 тоже довольно интересен. Скорость случайного чтения при каждом размере блока данных пропорциональна количеству дисков в массиве, что вполне логично. Причем при размере блока 512 Кбайт при любом количестве дисков в массиве наблюдается характерный провал по скорости случайного чтения.

При случайной записи при любом количестве дисков в массиве скорость возрастает с увеличением размера блока данных и никаких провалов в скорости нет. В то же время нужно отметить, что наибольшая скорость в этом случае достигается не при восьми, а при семи дисках в массиве. Следом по скорости случайной записи идет массив из шести дисков, затем из пяти и только потом из восьми дисков. Причем по скорости случайной записи массив из восьми дисков практически идентичен массиву из четырех дисков.

По скорости случайной записи массив RAID 0 превосходит все остальные возможные массивы в конфигурациях с восемью, семью, шестью, пятью, четырьмя, тремя и двумя дисками. А вот по скорости случайного чтения в конфигурации с восемью дисками массив RAID 0 уступает массивам RAID 10 и RAID 50, но в конфигурации с меньшим количеством дисков массив RAID 0 лидирует по скорости случайного чтения.

RAID 5

Массив RAID 5 можно создать с количеством дисков от трех до восьми. Результаты тестирования для массива RAID 5 представлены на рис. 16-23.

Рис. 16. Скорость последовательного чтения и записи
при восьми дисках в массиве RAID 5

Рис. 17. Скорость последовательного чтения и записи
при семи дисках в массиве RAID 5

Рис. 18. Скорость последовательного чтения и записи
при шести дисках в массиве RAID 5

Рис. 19. Скорость последовательного чтения и записи
при пяти дисках в массиве RAID 5

Рис. 20. Скорость последовательного чтения и записи
при четырех дисках в массиве RAID 5

Рис. 21. Скорость последовательного чтения и записи
при трех дисках в массиве RAID 5

Рис. 22. Скорость случайного чтения
в массиве RAID 5

Рис. 23. Скорость случайной записи
в массиве RAID 5

Понятно, что наиболее высокая скорость чтения и записи достигается при восьми дисках. Стоит обратить внимание на то, что для массива RAID 5 скорость последовательной записи в среднем выше, чем скорость чтения. Однако при определенном размере запроса скорость последовательного чтения может превышать скорость последовательной записи.

Нельзя не отметить и характерные провалы по скорости последовательного чтения и записи при определенных размерах блоков при любом количестве дисков в массиве.

По скорости последовательного чтения и записи в конфигурации с восемью дисками массив RAID 5 уступает массивам RAID 0 и RAID 50, но превосходит массивы RAID 10 и RAID 6. В конфигурациях с семью дисками массив RAID 5 по скорости последовательного чтения и записи уступает массиву RAID 0 и превосходит массив RAID 6 (остальные типы массивов невозможны при данном количестве дисков).

В конфигурациях с шестью дисками массив RAID 5 по скорости последовательного чтения уступает массивам RAID 0 и RAID 50, а по скорости последовательной записи - только массиву RAID 0.

В конфигурациях с пятью, четырьмя и тремя дисками массив RAID 5 по скорости последовательного чтения и записи уступает лишь массиву RAID 0.

Случайный доступ в массиве RAID 5 подобен случайному доступу в массиве RAID 0. Так, скорость случайного чтения при каждом размере блока данных пропорциональна количеству дисков в массиве, а при размере блока 512 Кбайт при любом количестве дисков в массиве наблюдается характерный провал по скорости случайного чтения. Причем нужно отметить, что скорость случайного чтения слабо зависит от количества дисков в массиве, то есть для любого количества дисков она примерно одинакова.

По скорости случайного чтения массив RAID 5 в конфигурации с восемью, семью, шестью, четырьмя и тремя дисками уступает всем остальным массивам. И только в конфигурации с пятью дисками он незначительно опережает массив RAID 6.

По скорости случайной записи массив RAID 5 в конфигурации с восемью дисками уступает лишь массивам RAID 0 и RAID 50, а в конфигурации с семью и пятью, четырьмя и тремя дисками - только массиву RAID 0.

В конфигурации с шестью дисками массив RAID 5 уступает по скорости случайной записи массивам RAID 0, RAID 50 и RAID 10.

RAID 6

Контроллер LSI 3ware SAS 9750-8i позволяет создать массив RAID 6 с количеством дисков от пяти до восьми. Результаты тестирования для массива RAID 6 представлены на рис. 24-29.

Рис. 24. Скорость последовательного чтения и записи
при восьми дисках в массиве RAID 6

Рис. 25. Скорость последовательного чтения и записи
при семи дисках в массиве RAID 6

Также отметим и характерные провалы по скорости последовательного чтения и записи при определенных размерах блоков при любом количестве дисков в массиве.

По скорости последовательного чтения массив RAID 6 уступает всем остальным массивам в конфигурациях с любым (от восьми до пяти) количеством дисков.

По скорости последовательной записи ситуация несколько лучше. В конфигурации с восемью дисками RAID 6 опережает массив RAID 10, а в конфигурации с шестью дисками - и массивы RAID 10 и RAID 50. Правда, в конфигурациях с семью и пятью дисками, когда создание массивов RAID 10 и RAID 50 невозможно, этот массив оказывается на последнем месте по скорости последовательной записи.

Случайный доступ в массиве RAID 6 подобен случайному доступу в массивах RAID 0 и RAID 5. Так, скорость случайного чтения при размере блока 512 Кбайт при любом количестве дисков в массиве имеет характерный провал по скорости случайного чтения. Отметим, что максимальная скорость случайного чтения достигается при шести дисках в массиве. Ну а при семи и восьми дисках скорость случайного чтения практически одинакова.

При случайной записи при любом количестве дисков в массиве скорость возрастает с увеличением размера блока данных и никаких провалов в скорости нет. Кроме того, скорость случайной записи хотя и пропорциональна количеству дисков в массиве, но разница по скорости незначительная.

По скорости случайного чтения массив RAID 6 в конфигурации с восемью и семью дисками опережает лишь массив RAID 5 и уступает всем остальным возможным массивам.

В конфигурации с шестью дисками массив RAID 6 уступает массивам RAID 10 и RAID 50 по скорости случайного чтения, а в конфигурации с пятью дисками - массивам RAID 0 и RAID 5.

По скорости случайной записи массив RAID 6 при любом количестве подключенных дисков уступает всем остальным возможным массивам.

В целом можно констатировать, что массив RAID 6 уступает по производительности и массивам RAID 0, RAID 5, RAID 50 и RAID 10. То есть по производительности этот тип массива оказался на последнем месте.

Рис. 33. Скорость случайного чтения
в массиве RAID 10

Рис. 34. Скорость случайной записи в массиве RAID 10

Характерно, что в массивах из восьми и шести дисков скорость последовательного чтения выше скорости записи, а в массиве из четырех дисков эти скорости практически совпадают при любом размере блока данных.

Для массива RAID 10, так же как и для всех остальных рассмотренных массивов, характерно падение скорости последовательного чтения и записи при определенных размерах блоков данных при любом количестве дисков в массиве.

При случайной записи при любом количестве дисков в массиве скорость возрастает с увеличением размера блока данных и никаких провалов в скорости нет. Кроме того, скорость случайной записи пропорциональна количеству дисков в массиве.

По скорости последовательного чтения массив RAID 10 идет вслед за массивами RAID 0, RAID 50 и RAID 5 в конфигурации с восемью, шестью и четырьмя дисками, а по скорости последовательной записи он уступает даже массиву RAID 6, то есть идет вслед за массивами RAID 0, RAID 50, RAID 5 и RAID 6.

Зато по скорости случайного чтения массив RAID 10 опережает все остальные массивы в конфигурации с восемью, шестью и четырьмя дисками. А вот по скорости случайной записи этот массив проигрывает массивам RAID 0, RAID 50 и RAID 5 в конфигурации с восемью дисками, массивам RAID 0 и RAID 50 в конфигурации с шестью дисками и массивам RAID 0 и RAID 5 в конфигурации с четырьмя дисками.

RAID 50

Массив RAID 50 можно построить на шести или восьми дисках. Результаты тестирования для массива RAID 50 представлены на рис. 35-38.

В сценарии случайного чтения, как и для всех остальных рассмотренных массивов, наблюдается характерный провал производительности при размере блока 512 Кбайт.

При случайной записи при любом количестве дисков в массиве скорость возрастает с увеличением размера блока данных и никаких провалов в скорости нет. Кроме того, скорость случайной записи пропорциональна количеству дисков в массиве, однако разница по скорости незначительная и наблюдается только при большом (более 256 Кбайт) размере блока данных.

По скорости последовательного чтения массив RAID 50 уступает лишь массиву RAID 0 (в конфигурации с восемью и шестью дисками). По скорости последовательной записи массив RAID 50 также уступает лишь массиву RAID 0 в конфигурации с восемью дисками, а в конфигурации с шестью дисками он проигрывает массивам RAID 0, RAID 5 и RAID 6.

Зато по скорости случайного чтения и записи массив RAID 50 уступает лишь массиву RAID 0 и опережает все остальные возможные при восьми и шести дисках массивы.

RAID 1

Как мы уже отмечали, массив RAID 1, который может быть построен только на двух дисках, использовать на таком контроллере нецелесо-образно. Однако для полноты картины мы приводим результаты и для массива RAID 1 на двух дисках. Результаты тестирования для массива RAID 1 представлены на рис. 39 и 40.

Рис. 39. Скорость последовательной записи и чтения в массиве RAID 1

Рис. 40. Скорость случайной записи и чтения в массиве RAID 1

Для массива RAID 10, так же как и для всех остальных рассмотренных массивов, характерно падение скорости последовательного чтения и записи при определенных размерах блоков данных.

В сценарии случайного чтения, как и для прочих массивов, наблюдается характерный провал производительности при размере блока 512 Кбайт.

При случайной записи скорость возрастает с увеличением размера блока данных и никаких провалов в скорости нет.

Массив RAID 1 можно сопоставить только с массивом RAID 0 (поскольку в случае двух дисков никакие больше массивы невозможны). Нужно отметить, что массив RAID 1 проигрывает по производительности массиву RAID 0 с двумя дисками во всех сценариях нагрузки, кроме случайного чтения.

Выводы

Впечатление от тестирования контроллера LSI 3ware SAS 9750-8i в сочетании с SAS-дисками Seagate Cheetah 15K.7 ST3300657SS у нас сложилось довольно неоднозначное. С одной стороны, у него прекрасные функциональные возможности, с другой - настораживают провалы по скорости при определенных размерах блоков данных, что, безусловно, отражается на скоростных показателях RAID-массивов при их функционировании в реальной среде.

Введение

Посмотрите на современные материнские платы (или даже на некоторые более старые платформы). Нужен ли для них специальный RAID-контроллер? На большинстве материнских плат есть трехгигабитные порты SATA, также как аудио-разъёмы и сетевые адаптеры. Большинство современных чипсетов, таких как AMD A75 и Intel Z68 , имеют поддержку SATA на 6 Гбит/с. При такой поддержке со стороны чипсета, мощному процессору и наличию портов ввода/вывода, нужны ли вам дополнительные карты для систем хранения и отдельный контроллер?

В большинстве случаев обычные пользователи могут создать массивы RAID 0, 1, 5 и даже 10, используя встроенные порты SATA на материнской плате и специальное ПО, при этом можно получить очень высокую производительность. Но в тех случаях, когда требуется более сложный уровень RAID – 30, 50 или 60 – более высокий уровень управления диском или масштабируемость, то контроллеры на чипсете могут не справиться с ситуацией. В таких случаях нужны решения профессионального класса.

В таких случаях вы больше не ограничены системами хранения SATA. Большое количество специальных карт обеспечивают поддержку SAS (Serial-Attached SCSI) или дисков Fibre Channel (FC), каждый из этих интерфейсов несёт с собой уникальные преимущества.

SAS и FC для профессиональных решений RAID

Каждый из трёх интерфейсов (SATA, SAS и FC) имеет свои плюсы и свои минусы, никакой из них не может быть безоговорочно назван лучшим. Сильные стороны приводов на базе SATA заключаются в высокой ёмкости и низкой цене, в сочетании с высокими скоростями передачи данных. Диски SAS славятся своей надёжностью, масштабируемостью и высокой скоростью ввода/вывода. Системы хранение FC обеспечивают постоянную и очень высокую скорость передачи данных. Некоторые компании до сих пор используют решения Ultra SCSI, хотя они могут работать не более чем с 16 устройствами (один контроллер и 15 дисков). Более того, полоса пропускания в этом случае не превышает 320 Мбайт/с (в случае Ultra-320 SCSI), что не может конкурировать с более современными решениями.

Ultra SCSI – это стандарт для профессиональных корпоративных решений систем хранения. Однако SAS приобретает всё большую популярность, поскольку предлагает не только существенно бoльшую полосу пропускания, но также и большую гибкость при работе со смешанными системами SAS/SATA, что позволяет оптимизировать издержки, производительность, готовность и ёмкость даже в одном единственном JBOD (наборе дисков). Кроме того, многие SAS-диски обладают двумя портами с целью возможности резервирования. Если одна карта контроллера выходит из строя, то переключение дисковода на другой контроллер позволяет избежать отказа всей системы. Таким образом SAS обеспечивает высокую надежность всей системы.

Более того, SAS – это не только протокол "точка-точка" для соединения контроллера и устройства хранения. Он поддерживает до 255 устройств хранения на порт SAS при использовании экспандера. Используя двухуровневую структуру экспандеров SAS, теоретически, можно присоединить к одному каналу SAS 255 x 255 (или чуть больше 65 000) устройств хранения, если конечно контроллер способен поддерживать такое большое число устройств.

Adaptec, Areca, HighPoint и LSI: тесты четырёх контроллеров SAS RAID

В этом сравнительном тесте мы исследуем производительность современных SAS RAID-контроллеров, которые представлены четырьмя продуктами: Adaptec RAID 6805, Areca ARC-1880i, HighPoint RocketRAID 2720SGL и LSI MegaRAID 9265-8i.

Почему SAS, а не FC? С одной стороны, SAS – на сегодня наиболее интересная и уместная архитектура. Она предоставляет такие возможности, как зонирование, которое очень привлекательно для профессиональных пользователей. С другой стороны, роль FC на профессиональном рынке снижается, а некоторые аналитики даже предсказывают её полный уход, основываясь на количестве поставленных жёстких дисков. По мнению экспертов IDC, будущее FC выглядит достаточно мрачным, а вот жёсткие диски SAS могут претендовать на 72% рынка корпоративных жёстких дисков в 2014 году.

Adaptec RAID 6805

Производитель чипов PMC-Sierra вывел на рынок серию "Adaptec by PMC" семейства контроллеров RAID 6 в конце 2010 г. Карты контроллера серии 6 основаны на двухъядерном контроллере ROC (RAID on Chip) SRC 8х6 Гбайт, который поддерживает кэш-память 512 Мбайт и до 6 Гбит/с на SAS-порт. Есть три низкопрофильные модели: Adaptec RAID 6405 (4 внутренних порта), Adaptec RAID 6445 (4 внутренних и 4 внешних порта) и та, что мы тестировали – Adaptec RAID 6805 с восемью внутренними портами, стоимостью около $460.

Все модели поддерживают JBOD и RAID всех уровней – 0, 1, 1E, 5, 5EE, 6, 10, 50 и 60.

Соединённый с системой через интерфейс x8 PCI Express 2.0, Adaptec RAID 6805 поддерживает до 256 устройств через SAS экспандер. В соответствии со спецификациями производителя, стабильная скорость передачи данных в систему может достигать 2 Гбайт/с, а пиковая может достигать 4.8 Гбайт/с на агрегированный SAS-порт и 4 Гбайт/с на интерфейс PCI Express – последняя цифра – максимальное теоретически возможное значение для шины PCI Express 2.0х.

ZMCP без необходимости поддержки

Наш тестовый образец пришел с Adaptec Falsh Module 600, который использует Zero Maintenance Cache Protection (ZMCP) и не использует устаревший Battery Backup Unit (BBU). Модуль ZMCP – это блок с флэш-чипом на 4 Гбайт NAND, который используется для резервного копирования кэш-памяти контроллера в случае отключения энергопитания.

Поскольку копирование из кэш-памяти во флэш-память происходит очень быстро, Adaptec использует конденсаторы для поддержки питания, а не аккумуляторы. Преимущество конденсаторов заключается в том, что они могут работать так же долго, как и сами карты, тогда как резервные аккумуляторы должны заменяться каждые несколько лет. Кроме того, однажды скопированные во флэш-память данные могут храниться там несколько лет. Для сравнения: вы обычно имеете около трёх дней для хранения данных перед тем, как кэшированная информация будет потеряна, что заставляет вас торопиться с восстановлением данных. Как и предполагает само название ZMCP, это решение, способное противостоять отказам по энергопитанию.


Производительность

Adaptec RAID 6805 в режиме RAID 0 проигрывает в наших тестах потокового чтения/записи. Кроме того RAID 0 – это не типичный случай для бизнеса, которому нужна защита данных (хотя он вполне может использоваться для рабочей станции, занимающейся рендерингом видео). Последовательное чтение идёт на скорости 640 Мбайт/с, а последовательная запись – на 680 Мбайт/с. По этим двум параметрам LSI MegaRAID 9265-8i занимает верхнюю позицию в наших тестах. Adaptec RAID 6805 работают лучше в тестах RAID 5, 6 и 10, но не является абсолютным лидером. В конфигурации только с SSD, контроллер Adaptec работает на скорости до 530 Мбайт/с, но его превосходят контроллеры Areca и LSI.

Карта Adaptec автоматически распознаёт то, что она называет конфигурацией HybridRaid, которая состоит из смеси жёстких и SSD-дисков, предлагая RAID на уровнях от 1 до 10 в такой конфигурации. Эта карта превосходит своих конкурентов благодаря специальным алгоритмам чтения/записи. Они автоматически направляют операции чтения на SSD, а операции записи и на жёсткие диски, и на SSD. Таким образом операции чтения будут работать как в системе только из SSD, а запись будет работать не хуже, чем в системе из жёстких дисков.

Однако, результаты наших тестов не отражают теоретической ситуации. За исключением бенчмарков для Web-сервера, где работает скорость передачи данных для гибридной системы, гибридная система SSD и жёстких дисков не может приблизиться к скорости работы системы только из SSD.

Контроллер Adaptec показывает себя гораздо лучше в тесте производительности ввода/вывода для жёстких дисков. Вне зависимости от типа бенчмарков (база данных, файл-сервер, Web-сервер или рабочая станция), контроллер RAID 6805 идёт нога в ногу с Areca ARC-1880i и LSI MegaRAID 9265-8i, и занимает первое или второе места. Только HighPoint RocketRAID 2720SGL лидирует в тесте ввода/вывода. Если заменить жёсткие диски на SSD, то LSI MegaRAID 9265-8i существенно обгоняет три других контроллера.

Установка ПО и настройка RAID

Adaptec и LSI обладают хорошо организованными и простыми в работе средствами для управления RAID. Инструменты управления позволяют администраторам получить удалённый доступ к контроллерам через сеть.

Установка массива

Areca ARC-188oi

Areca также выводит серию ARC-1880 в рыночный сегмент контроллеров 6 Гбит/с SAS RAID. По утверждению производителя, целевые приложения простираются от приложений NAS и серверов систем хранения до высокопроизводительных вычислений, резервирования, систем обеспечения безопасности и облачных вычислений.

Протестированные образцы ARC-1880i с восемью внешними портами SAS и восемью линиями интерфейса PCI Express 2.0 можно приобрести за $580. Низкопрофильная карта, которая является единственной картой в нашем наборе с активным кулером, построена на базе 800 МГц ROC с поддержкой кэша для данных 512 Мбайт DDR2-800. Используя SAS экспандеры, Areca ARC-1880i поддерживает до 128 систем хранения данных. Чтобы сохранить содержание кэша при отказе энергопитания, к системе опционально может быть добавлен аккумуляторный источник питания.

Кроме одиночного режима и JBOD, контроллер поддерживает уровни RAID 0, 1, 1E, 3, 5, 6, 10, 30, 50 и 60.

Производительность

Areca ARC-1880i хорошо справляется с тестами чтения/записи в RAID 0, достигая 960 Мбайт/с для чтения и 900 Мбайт/с для записи. Только LSI MegaRAID 9265-8i оказывается быстрее в этом конкретном тесте. Контроллер Areca не разочаровывает и в других бенчмарках. И в работе с жёсткими дисками, и с SSD, этот контроллер всегда активно конкурирует с победителями тестов. Хотя контроллер Areca стал лидером только в одном бенчмарке (последовательное чтение в RAID 10), он демонстрировал очень высокие результаты, например, скорость чтения в 793 Мбайт/с в то время, как самый быстрый конкурент, LSI MegaRAID 9265-8i, показал только 572 Мбайт/с.

Однако последовательная передача информации – это лишь одна из частей картины. Вторая – производительность ввода/вывода. Areca ARC-1880i и здесь выступает блистательно, на равных соперничая с Adaptec RAID 6805 и LSI MegaRAID 9265-8i. Аналогично своей победе в бенчмарке по скорости передачи данных, контроллер Areca победил и в одном из тестов ввода/вывода – бенчмарке Web-сервер. Контроллер Areca доминирует в бенчмарке Web-сервер на уровнях RAID 0, 5 и 6, а для RAID 10 вперёд вырывается Adaptec 6805, оставляя контроллер Areca на втором месте с небольшим отставанием.

Web GUI и установка параметров

Как и HighPoint RocketRAID 2720SGL, Areca ARC-1880i удобно управляется через Web-интерфейс и просто настраивается.

Установка массива

HighPoint RocketRAID 2720SGL

HighPoint RocketRAID 2720SGL – это SAS RAID-контроллер с восемь внутренними SATA/SAS-портами, каждый из которых поддерживает 6 Гбит/с. По информации производителя, эта низкопрофильная карта ориентирована на системы хранения для малого и среднего бизнеса, и на рабочие станции. Ключевой компонент карты – это RAID-контроллер Marvell 9485. Основные конкурентные преимущества – малые размеры и интерфейс PCIe 2.0 на 8 линий.

Кроме JBOD, карта поддерживает RAID 0, 1, 5, 6, 10 и 50.

Кроме той модели, что была протестирована в наших тестах, в низкопрофильной серии HighPoint 2700 есть ещё 4 модели: RocketRAID 2710, RocketRAID 2711, RocketRAID 2721 и RocketRAID 2722, которые, в основном, отличаются типами портов (внутренний/внешний) и их количеством (от 4 до 8). В наших тестах использовался самый дешёвый из этих RAID-контроллеров RocketRAID 2720SGL ($170). Все кабели к контроллеру приобретаются отдельно.

Производительность

В процессе последовательного чтения/записи в массив RAID 0, состоящий из восьми дисков Fujitsu MBA3147RC, HighPoint RocketRAID 2720SGL демонстрирует отличную скорость чтения 971 Мбайт/с, уступая только LSI MegaRAID 9265-8i. Скорость записи – 697 Мбайт/с – не так высока, но тем не менее превосходит скорость записи Adaptec RAID 6805. RocketRAID 2720SGL также демонстрирует целый спектр самых разных результатов. При работе с массивами RAID 5 и 6 он превосходит другие карты, но с RAID 10 скорость чтения падает до 485 Мбайт/с – самое низкое значение среди четырёх тестируемых образцов. Последовательная скорость записи в RAID 10 ещё хуже – всего 198 Мбайт/с.

Этот контроллер явно не создан для SSD. Скорость чтения здесь достигает 332 Мбайт/с, а скорость записи – 273 Мбайт/с. Даже Adaptec RAID 6805, который также не слишком хорош в работе с SSD, показывает в два раза лучшие результаты. Поэтому HighPoint не является конкурентом для двух карт, которые работают с SSD действительно хорошо: Areca ARC-1880i и LSI MegaRAID 9265-8i – они работают как минимум в три раза быстрее.

Всё, что мы смогли сказать хорошего о работе HighPoint в режиме ввода/вывода, мы сказали. Тем не менее RocketRAID 2720SGL занимает последнее место в наших тестах по всем четырём бенчмаркам Iometer. Контроллер HighPoint вполне конкурентоспособен другим картам при работе с бенчмарком для Web-сервера, но существенно проигрывает конкурентам по трём другим бенчмаркам. Это становится очевидным в тестах с SSD, где RocketRAID 2720SGL явно демонстрирует, что он не оптимизирован для работы с SSD. Он явно не использует все преимущества SSD по сравнению с жёсткими дисками. Например, RocketRAID 2720SGL показывает 17378 IOPs в бенчмарке баз данных, а LSI MegaRAID 9265-8i превосходит его по этому параметру в четыре раза, выдавая 75 037 IOPs.

Web GUI и установки для массива

Web-интерфейс RocketRAID 2720SGL удобен и прост в работе. Все параметры RAID устанавливаются легко.

Установка массива

LSI MegaRAID 9265-8i

LSI позиционирует MegaRAID 9265-8i, как устройство для рынка малого и среднего бизнеса. Эта карта подходит для обеспечения надёжности в облаках и других бизнес-приложений. MegaRAID 9265-8i – один из наиболее дорогих контроллеров в нашем тесте (он стоит $630), но как показывает тест, эти деньги платятся за его реальные преимущества. Перед тем, как мы представим результаты тестов, давайте обсудим технические особенности этих контроллеров и программные приложения FastPath и CacheCade.

LSI MegaRAID 9265-8i использует двухъядерный LSI SAS2208 ROC, использующий интерфейс PCIe 2.0 с восемью линиями. Число 8 в конце наименования устройства означает наличие восьми внутренних портов SATA/SAS, каждый из которых поддерживает скорость 6 Гбит/с. До 128 устройства хранения могут быть подключены к контроллеру через экспандеры SAS. Карта LSI cодержит 1 Гбайт кэша DDR3-1333 и поддерживает уровни RAID 0, 1, 5, 6, 10 и 60.

Настройка ПО и RAID, FastPath и CacheCade

LSI утверждает, что FastPath может существенно ускорить работу систем ввода/вывода при подключении SSD. По словам экспертов компании LSI, FastPath работает с любым SSD, заметно увеличивая производительность записи/чтения RAID-массива на базе SSD: в 2.5 раза при записи и в 2 раза при чтении, достигая 465 000 IOPS. Эту цифру мы не смогли проверить. Тем не менее, эта карта смогла выжать максимум из пяти SSD и без использования FastPath.

Следующее приложение для MegaRAID 9265-8i называется CacheCade. С его помощью можно использовать один SSD в качестве кэш-памяти для массива жёстких дисков. По словам экспертов LSI, это может ускорить процесс считывания раз в 50, в зависимости от размера рассматриваемых данных, приложений и метода использования. Мы попробовали работу этого приложения на массиве RAID 5, состоящем из 7 жёстких дисков и одного SSD (SSD использовался для кэша). По сравнению с системой RAID 5 из 8 жёстких дисков, стало очевидно, что CacheCade не только повышает скорость ввода/вывода, но также и общую производительность (тем больше, чем меньше объём постоянно используемых данных). Для тестирования мы использовали 25 Гбайт данных и получили 3877 IOPS на Iometer в шаблоне для Web-сервера, тогда как обычный массив жёстких дисков позволял получить только 894 IOPS.

Производительность

В конце концов оказывается, что LSI MegaRAID 9265-8i – это самый быстрый из всех SAS RAID-контроллеров в этом обзоре в операциях ввода/вывода. Однако, в процессе последовательных операций чтения/записи контроллер демонстрирует производительность среднего уровня, поскольку его производительность при последовательных действиях сильно зависит от уровня RAID, который вы используете. При тестировании жёсткого диска на уровне RAID 0 мы получаем скорость последовательно чтения 1080 Мбайт/с (что существенно превышает показатели конкурентов). Скорость последовательной записи на уровне RAID 0 идёт на уровне 927 Mбайт/с, что также выше, чем у конкурентов. А вот для RAID 5 и 6 контроллеры LSI уступают всем своим конкурентам, превосходя их только в RAID 10. В тесте SSD RAID LSI MegaRAID 9265-8i демонстрирует лучшую производительность при последовательной записи (752 Mбайт/с) и только Areca ARC-1880i превосходит его по параметрам последовательного чтения.

Если вы ищете RAID-контроллер, ориентированный на SSD с высокой производительностью ввода/вывода, то здесь лидер – контроллер LSI. За редким исключением, он занимает первое место в наших тестах ввода/вывода для файл-сервера, Web-сервера и нагрузок для рабочих станций. Когда ваш RAID-массив состоит из SSD, конкуренты LSI ничего не могут ему противопоставить. Например, в бенчмарке для рабочих станций MegaRAID 9265-8i достигает 70 172 IOPS, тогда как оказавшийся на втором месте Areca ARC-1880i, уступает ему практически в два раза - 36 975 IOPS.

ПО для RAID и установка массива

Как и в случае Adaptec, LSI имеет удобные инструменты для управления RAID-массивом через контроллер. Вот несколько скриншотов:

ПО для CacheCade

ПО для RAID

Установка массива

Сравнительная таблица и конфигурация тестового стенда

Производитель Adaptec Areca
Продукт RAID 6805 ARC-1880i
Форм-фактор Низкопрофильный MD2 Низкопрофильный MD2
Число портов SAS 8 8
6 Гбит/с (SAS 2.0) 6 Гбит/с (SAS 2.0)
Внутренние порты SAS 2хSFF-8087 2хSFF-8087
Внешние порты SAS Нет Нет
Кэш-память 512 Мбайт DDR2-667 512 Мбайт DDR2-800
Основной интерфейс PCIe 2.0 (х8) PCIe 2.0 (х8)
XOR и тактовая частота PMC-Sierra PM8013/Нет данных Нет данных/800 МГц
Поддерживаемые уровни RAID 0, 1, 1E, 5, 5EE, 6, 10, 50, 60 0, 1, 1E, 3, 5, 6, 10, 30, 50, 60
Windows 7, Windows Server 2008/2008 R2, Windows Server 2003/2003 R2, Windows Vista, VMware ESX Classic 4.x (vSphere),Red Hat Enterprise Linux (RHEL), SUSE Linux Enterprise Server (SLES), Sun Solaris 10 x86, FreeBSD, Debian Linux, Ubuntu Linux Windows 7/2008/Vista/XP/2003, Linux, FreeBSD, Solaris 10/11 x86/x86_64, Mac OS X 10.4.x/10.5.x/10.6.x, VMware 4.x
Аккумулятор Нет Опционально
Вентилятор Нет Есть

Производитель HighPoint LSI
Продукт RocketRAID 2720SGL MegaRAID 9265-8i
Форм-фактор Низкопрофильный MD2 Низкопрофильный MD2
Число портов SAS 8 8
Полоса пропускания SAS на один порт 6 Гбит/с (SAS 2.0) 6 Гбит/с (SAS 2.0)
Внутренние порты SAS 2хSFF-8087 2хSFF-8087
Внешние порты SAS Нет Нет
Кэш-память Нет данных 1 Гбайт DDR3-1333
Основной интерфейс PCIe 2.0 (х8) PCIe 2.0 (х8)
XOR и тактовая частота Marvel 9485/Нет данных LSI SAS2208/800 МГц
Поддерживаемые уровни RAID 0, 1, 5, 6, 10, 50 0, 1, 5, 6, 10, 60
Поддерживаемые операционные системы Windows 2000, XP, 2003, 2008, Vista, 7, RHEL/CentOS, SLES, OpenSuSE, Fedora Core, Debian, Ubuntu, FreeBSD bis 7.2 Microsoft Windows Vista/2008/Server 2003/2000/XP, Linux, Solaris (x86), Netware, FreeBSD, Vmware
Аккумулятор Нет Опционально
Вентилятор Нет Нет

Тестовая конфигурация

Мы соединили восемь жёстких дисков Fujitsu MBA3147RC SAS (каждый по 147 Гбайт) с RAID-контроллерами и провели бенчмарки для RAID-уровней 0, 5, 6 и 10. Тесты SSD проводились с пятью дисками Samsung SS1605.

Аппаратное обеспечение
Процессор Intel Core i7-920 (Bloomfield) 45 нм, 2.66 ГГц, 8 Мбайт общая L3 кэш-память
Материнская плата (LGA 1366) Supermicro X8SAX, Revision: 1.0, Чипсет Intel X58 + ICH10R, BIOS: 1.0B
Контроллер LSI MegaRAID 9280-24i4e
Прошивка: v12.12.0-0037
Driver: v4.32.0.64
Оперативная память 3 x 1 Гбайт DDR3-1333 Corsair CM3X1024-1333C9DHX
Жёсткий диск Seagate NL35 400 Гбайт, ST3400832NS, 7200 об/мин, SATA 1.5 Гбит/с, 8 Мбайт кэш-память
Блок питания OCZ EliteXstream 800 W, OCZ800EXS-EU
Бенчмарки
Производительность CrystalDiskMark 3
Производительность ввода/вывода Iometer 2006.07.27
File server Benchmark
Web server Benchmark
Database Benchmark
Workstation Benchmark
Streaming Reads
Streaming Writes
4k Random Reads
4k Random Writes
ПО и драйверы
Операционная система Windows 7 Ultimate

Результаты тестов

Проиводительность ввода/вывода в RAID 0 и 5

Бенчмарки в RAID 0 не показывают существенной разницы между RAID-контроллерами, за исключением HighPoint RocketRAID 2720SGL.




Бенчмарк в RAID 5 не помогает контроллеру HighPoint обрести утраченные позиции. В отличие от бенчмарка в RAID 0, все три более быстрых контроллера более отчётливо проявляют здесь свои слабые и сильные стороны.




Производительность ввода/вывода в RAID 6 и 10

LSI оптимизировала свой контроллер MegaRAID 9265 для работы с базами данных, файл-серверами и нагрузками для рабочих станций. Бенчмарк для Web-севера хорошо проходят все контроллеры, демонстрируя одинаковую производительность.




В варианте RAID 10 за первое место борются Adaptec и LSI, а HighPoint RocketRAID 2720SGL занимает последнее место.




Производительность при вводе/выводе на SSD

Здесь лидирует LSI MegaRAID 9265, которая использует все преимущества твердотельных систем хранения.




Пропускная способность в RAID 0, 5 и в деградированном режиме RAID 5

LSI MegaRAID 9265 c лёгкостью лидирует в этом бенчмарке. Adaptec RAID 6805 сильно отстаёт.


HighPoint RocketRAID 2720SGL без кэша хорошо справляется с последовательными операциями в RAID 5. Не сильно уступают ему и другие контроллеры.


Деградированный RAID 5


Пропускная способность в RAID 6, 10 и в деградированном режиме RAID 6

Как и в случае RAID 5, HighPoint RocketRAID 2720SGL демонстрирует самую высокую пропускную способность для RAID 6, оставляя второе место для Areca ARC-1880i. Впечатление такое, что LSI MegaRAID 9265-8i просто не любит RAID 6.


Деградированный RAID 6


Здесь уже LSI MeagaRAID 9265-8i показывает себя в лучшем свете, хотя и пропускает вперед Areca ARC-1880i.

LSI CacheCade




Какой же 6 Гбит/с SAS-контроллер лучший?

В общем, все четыре SAS RAID-контроллера, которые мы тестировали, продемонстрировали хорошую производительность. У всех есть вся необходимая функциональность, и все они с успехом могут используются в серверах начального и среднего уровня. Кроме выдающейся производительности, они обладают и такими важными функциями, как работа в смешанном окружении с поддержкой SAS и SATA и масштабирование через SAS-экспандеры. Все четыре контроллера поддерживают стандарт SAS 2.0, он поднимает пропускную способность с 3 Гбит/с до 6 Гбит/с на порт, а кроме этого вводит такие новые функции, как зонирование SAS, что позволяет многим контроллерам получить доступ к ресурсам хранения данных через один SAS-экспандер.

Несмотря на такие схожие черты, как низкопрофильный форм-фактор, интерфейс PCI Express на восемь линий и восемь SAS 2.0 портов, у каждого контроллера есть свои собственные сильные и слабые стороны, анализируя которые и можно выдать рекомендации по их оптимальному использованию.

Итак, самый быстрый контроллер – это LSI MegaRAID 9265-8i, особенно в отношении пропускной способности ввода/вывода. Хотя и у него есть слабые места, в частности, не слишком высокая производительность в случаях RAID 5 и 6. MegaRAID 9265-8i лидирует в большинстве бенчмарков и является прекрасным решением профессионального уровня. Стоимость этого контроллера – $630 – самая высокая, об этом тоже нельзя забывать. Но за эту высокую стоимость вы получаете прекрасный контроллер, который опережает своих конкурентов, особенно при работе с SSD. Он обладает и прекрасной производительностью, которая становится особенно ценной при подключении систем хранения большого объёма. Более того, вы можете увеличить производительность LSI MegaRAID 9265-8i, используя FastPath или CacheCade, за которые естественно надо будет заплатить дополнительно.

Контроллеры Adaptec RAID 6805 и Areca ARC-1880i демонстрируют одинаковую производительность и очень похожи по своей стоимости ($460 и $540). Оба хорошо работают, как показывают различные бенчмарки. Контроллер Adaptec показывает чуть более высокую производительность, чем контроллер Areca, он также предлагает востребованную функцию ZMCP (Zero Maintenance Cache Protection), которая заменяет обычное резервирование при отказе питания и позволяет продолжать работу.

HighPoint RocketRAID 2720SGL продаётся всего за $170, что гораздо дешевле трёх остальных протестированных контроллеров. Производительность этого контроллера вполне достаточна, если вы работаете с обычными дисками, хотя и хуже, чем у контроллеров Adaptec или Areca. И не стоит использовать этот контроллер для работы с SSD.

В продолжение темы:
Устройства

Мы с Вами познакомились с основными компьютерными терминами и определениями. Практически изучили назначение всех (почти) клавиш на клавиатуре конкретно на примерах. Не...

Новые статьи
/
Популярные