Новые дисковые системы хранения Dot Hill с хост-интерфейсом 8Gb Fibre Channel

Введение

За последнее время недорогие системы хранения данных сделали довольно заметный скачок вперед по своим возможностям и производительности. К сожалению, это привело по понятным причинам к усложнениям в их настройке и применению. Задача данной заметки — популярно объяснить ряд возможностей современных массовых систем хранения данных и научить их использовать максимально правильно и без ошибок.

Термины и определения

Мы начнем с кратких описаний основных относительно новых понятий, используемых в системах хранения данных. Без понимания таких понятий остальной материал читать нет смысла.

Member Disk — Диск-участник — Диск, входящий в группу дисков. Может быть как диском с данными, так и диском «горячего» резерва для данной дисковой группы. Диск с данными  является частью общего дискового пространства группы дисков. Группа дисков может состоять и из одного физического диска.

Disk Group (DG) — Группа дисков — под дисковой группой понимается группа из одного или несколько физических жестких дисков, на которой далее могут быть созданы логические диски. 

Logical Disk (LD) — логический диск — в терминологии систем хранения это диск, созданный с выделением пространства (места) на Disk Group (DG) (группе дисков).

Логический диск всегда занимает непрерывное, цельное пространство в  DG, которое в свою очередь всегда использует все диски группы. Довольно часто на одной дисковой группе создается один логический диск.

Логический диск может быть представлен (экспортирован) во внешний мир как физический хост-компьютеру с выделением ему LUN.

Logical Unit (LUN) — логическое устройство — в терминологии систем хранения представляет собой объект, к которому могут непосредственно адресоваться хост-компьютеры. LUN также должен и отрабатывать все SCSI команды, посылаемые  ему хост-компьютером, так как хост-компьютер рассматривает LUN как самостоятельное физическое устройство. 

Local Spare — локальный резерв — в терминологии систем хранения под Local Spare подразумевается резервный, не используемый жесткий диск, который должен заменить другой жесткий диск в конкретной DG в случае выхода того из строя. После замены диска RAID контроллер автоматически восстанавливает целостность группы дисков. На рисунке ниже иллюстрируется применение Local Spare.

Новые дисковые системы хранения Dot Hill с хост-интерфейсом 8Gb Fibre Channel
В этом примере Local Spare диск HDD4 используется для замены вышедшего из строя диска HDD1 в нулевой дисковой группе DG0

Global Spare — глобальный резерв — в терминологии систем хранения под Global Spare подразумевается резервный, не используемый жесткий диск, который должен заменить другой жесткий диск в любой DG в случае выхода того из строя. После замены RAID контроллер автоматически восстанавливает целостность группы дисков. На рисунке ниже иллюстрируется применение Global Spare.

Новые дисковые системы хранения Dot Hill с хост-интерфейсом 8Gb Fibre Channel
В этом примере Global Spare диск HDD5 может использоваться для замены вышедшего из строя  диска HDD2 в первой дисковой группе DG1 или диска HDD6 во второй дисковой группе DG2.

Если в системе есть несколько Global Spare дисков, то они используются последовательно, в порядке возрастания своего ID. 

Free Chunk — свободный  кусок — в RAID системах под  Free Chunk подразумевается свободное место, оставшееся в группе дисков (DG) после создания на ней логических дисков (LD).

  Free Chunk может появиться и после перестройки RAID массива. Если группа дисков (DG) создана, но ни одного логического диска еще нет, то вся группа дисков представляет собой  Free Chunk.

Volume — том — набор из нескольких логических дисков, расположенных внутри одной группы дисков (DG). Иными словами, в том можно включить один или более логических дисков, созданных на основе одной группы дисков с одним уровнем RAID соответственно.

LUN Mapping — отображение логического устройства — несколько утрируя, мы можем утверждать, что  LUN Mapping это варианты предъявления хост-компьютерам логических дисков и/или томов (volumes) из системы хранения данных. Например, создав логический диск, мы можем присвоить ему LUN и далее сделать его видимым только для конкретного хост-компьютера и/или конкретного канала системы хранения данных.

Delayed Write Operation — отложенная запись — некоторые RAID контроллеры умеют отвечать хост-компьютеру, что операция записи завершена, хотя на самом деле данные только записались в кэш память RAID контроллера. В этом случае говорят, что контроллер поддерживает отложенную запись.

Pre-Read Operation — предварительное чтение — некоторые RAID контроллеры умеют заранее считывать данные в кэш-память, которые, возможно, потребуются хост-компьютеру в будущем. Такие контроллеры применяют Pre-Read Operation после обнаружения запросов на последовательное чтение от хост-компьютера.

Сравнительное тестирование: 8-Гб хост-адаптеры в Fibre Channel SAN-окружении

Конфигурация ATTO Celerity FC-82EN – двухканальный адаптер • Два канала 8-Гб/сек Fibre Channel; • Два коротковолновых оптоволоконных LC SFP+ трансивера (8-Гб/сек). QLogic QLE2562 – двухканальный адаптер • Два канала 8-Гб/сек Fibre Channel; • Два коротковолновых оптоволоконных LC SFP+ трансивера (8-Гб/сек).

Конфигурация хост-компьютера • Dell Precision T5400 (IOL61), Quad Core Intel XEON, 2 ГБ RAM; • Microsoft Windows Server 2008 (64-bit).

Коммутатор и системы хранения данных • Коммутатор QLogic SANbox 5802 8-Гб; • Два дисковых массива Xyratex RS-1602-F4-SBD-1, 4-Гб интерфейс, 16 отсеков для жестких дисков, 16 жестких дисков Seagate (15000 RPM, 4-Гб) в двух массивах по 8 дисков.

Тестирующее программное обеспечение • IntelTM Iometer – программное приложение для измерения производительности ввода/вывода на серверных машинах; • Тестирование по методу стопроцентно последовательной записи и стопроцентно последовательному чтению;

• Размеры передаваемых блоков данных: 512 Б, 1 кБ, 2 кБ, 4 кБ, 8 кБ, 32 кБ, 64 кБ, 128 кБ, 256 кБ, 512 кБ, 1 МБ, 2 МБ, 4 МБ и 8 МБ.

  • Примечание: производительность тестов чрезвычайно зависит от скорости центрального процессора хост-компьютера и конфигурации PCIe-шины.
  • Основные результаты

Производительность/пропускная способность (МБ/сек): Чтение ATTO QLogic Разница, % Размер блоков МБ/сек МБ/сек 32 кБ 1,443 1,444 0% 64 кБ 1,511 1,510 0% 128 кБ 1,522 1,523 0% 1 МБ 1,510 1,543 -2%

4 МБ 1,547 1,544 0%

Запись ATTO QLogic Разница, % Размер блоков МБ/сек МБ/сек 8 кБ 928 789 15% 64 кБ 813 572 30% 128 кБ 800 546 32% 1 МБ 815 584 28%

4 МБ 791 568 28%

Обзор

Тестирование на производительность было организовано для выявления конкурентных различий между двухканальными 8-Гб Fibre Channel PCIe 2.0 хост-адаптерами ATTO Celerity FC-82EN и QLogic QLE2562 в типичном Microsoft Windows SAN-окружении.

Для измерения производительности ввода/вывода было использовано специальное программное обеспечение для серверных систем Intel Iometer. Оба хост-адаптера были протестированы в режиме 8 Гб/сек.

Хост-системой был выбран компьютер Dell Precision T5400 (IOL61) с процессором Quad Core Intel XEON, 2 ГБ RAM, операционной системой MS Windows Server 2008 и активным режимом «Fibre Channel» для PCIe 2.0 слота. Системами хранения данных послужили два SBOD-хранилища Xyratex RS-1602 с интерфейсом 4-Gb FC и 16-ю дисками Seagate (15000 RPM, 4-Гб) в каждом.

Оба хранилища подключались к хост-компьютеру через 8-Гб коммутатор QLogic SANbox 5802 (смотрите также диаграмму системы). Оба адаптера подключались 3-метровыми оптическими кабелями.

Программная или аппаратная организация RAID не использовалась. Все тесты проводились на чистых неформатированных дисках.

  1. Новые дисковые системы хранения Dot Hill с хост-интерфейсом 8Gb Fibre Channel Условия тестирования
  2. Производительность адаптеров была измерена на примере передачи больших и малых блоков данных, что моделирует типичные задачи записи/чтения информации и работу систем хранения данных. Конфигурация тестового стенда представлена ниже:
  3. 8-Гб FC-коммутатор Дисковые 4-Гб SBOD-хранилища
  4. Итоги

Хост-адаптер Celerity FC-82EN превзошел QLogic QLE2562 по производительности записи при любом размере блоков данных. FC-82EN показал превосходную скорость записи, обеспечив устойчивую пропускную способность до 928 МБ/сек, в то время как QLE2562 продемонстрировал максимальную устойчивую пропускную способность на уровне 789 МБ/сек. При размерах блоков 128 кБ и 4 МБ адаптер FC-82EN превзошел QLE2562 на 32% и 28%, соответственно. Адаптер Celerity FC-82EN также показал достойную скорость при чтении во всем диапазоне размеров передаваемых блоков данных. Производительность чтения адаптера ATTO лучше всего демонстрируется в при работе с реальными задачами и особенно в тех областях, где требуется ровный поток данных, например, в видеомонтажных приложениях.

Превосходная архитектура драйвера Celerity позволяет организовать передачу большего количества параллельных видео- и аудиопотоков.

Резюме

Высочайшая производительность адаптера ATTO Celerity FC-82EN при передаче данных на запись во всём диапазоне размеров блоков данных позволяет с уверенностью говорить о том, что скорость резервного копирования на ленту и работы с дисковыми хранилищами с их помощью будет идти быстрее, нежели чем с адаптером QLogic.

При большом размере пакетов – 1 МБ и 4 МБ (характерно, например, для видеоприложений и резервного копирования «диск-диск» или на виртуальную ленту) – адаптер FC-82EN также сохраняет свое преимущество перед QLE2562.

Использование Celerity FC-82EN для подобных задач позволит пользователям совершить резервное копирование или закончить видеомонтажный проект значительно быстрее, чем при использовании адаптера QLogic.

Заключение

Читайте также:  Недорогой фаблет с отличной селфи-камерой. обзор смартфона oppo f5

Превосходная производительность в самых различных условиях является отличительной особенностью высококлассных хост-адаптеров.

Двухканальный Fibre Channel хост-адаптер ATTO Celerity FC-82EN обеспечивает первоклассную пропускную способность при работе с транзакционными приложениями, системами резервного копирования и требовательными к полосе пропускания задачами.

Помимо этого, решение ATTO значительно превосходит адаптер QLE2562 по производительности в режиме записи по всему спектру размеров передаваемых пакетов.

  • Характеристики Celerity FC-82EN
  • Уникальная архитектура адаптера Celerity FC-82EN обеспечивает высокую производительность и может служить платформой для построения системы хранения данных. 

Особенности хост-адаптеров Celerity • Эксклюзивная технология Exclusive Advanced Data Streaming (ADS™) Technology для наиболее эффективной передачи данных. • Высокопроизводительная аппаратная архитектура со сниженным уровнем электромагнитного излучения EMI и улучшенным качеством сигнального тракта. • Низкое энергопотребление. • Драйвер позволяет адаптеру выступать в качестве целевого или инициирующего устройства. • Поддержка промышленных стандартов SNIA для программного интерфейса хост-адаптеров. • Протестированная совместимость с широким спектром приложений и аппаратных средств. • Наличие сертификатов совместимости с лидирующими программными и аппаратными решениями.

• Полная поддержка 64-битных операционных систем Linux, Windows и Mac OS X (включая Mac Intel).

Молниеносная производительность адаптера FC-82EN позволяет пользователям развить высочайшую пропускную способность интерфейса ввода/вывода для ресурсоёмких видеоприложений, систем резервного копирования и высоконагруженных баз данных. Простая инсталляция «в один клик» упрощает процесс интеграции адаптера в систему.

Ровный поток данных, достигнутый с использованием эксклюзивной технологии ATTO ADS Technology, минимизирует задержки и максимизирует скорость передачи информации. При выборе интерфейсных решений для систем хранения данных хост-адаптеры Celerity стоят особняком, так как их надежность, высочайшая производительность и расширяемость не сравнима с каким-либо другим подобным продуктом на рынке.

Хост-адаптеры Celerity – идеальный выбор для рабочих станций и серверных систем.

Обзор и тест Huawei Dorado 5000 V6 — All Flash СХД для крупных предприятий

Серия Dorado V6 — это All-Flash СХД для таких крупных предприятий, как банки, транспортные компании, аналитические центры и ЦОДы.

Такому заказчику Huawei готова предложить масштабирование СХД до 16 контроллеров, использование шины 100G RDMA для подключения дисковых полок, накопители с интерфейсом PCI Express, постоянную дедупликацию, предиктивный анализ выхода из строя компонентов, RAID массив с тройной чётностью и до 20 миллионов IOPS на всю СХД.

Рассматривая пришедшую к нам на тестирование «голову» Dorado 5000 V6, я всё время ловил себя на мысли, что в реальных условиях предприятие будет устанавливать сразу несколько таких устройств, создавая одну общую отказоустойчивую экосистему данных, которую в дальнейшем можно будет как расширять горизонтально, так и модифицировать, делая апгрейд без остановки сервисов, плавно перетекая со старого контроллера на новый, ведь в мире высоких скоростей и больших объёмов даже секундный простой СХД недопустим.

Конечно, кому-то трудно осознавать, что сегодня СХД на 1600 накопителей с 16 контроллерами — это эдакий «средний класс», а 100G Ethernet Front-End — это данность, присутствующая на складе поставщика.

Да, мир меняется, требования растут, и СХД стараются предложить вам больше: не только больше железа, но и больше софта и сервиса за те же деньги.

Поэтому в данном тестировании вам важно не только оборудование, из которого Huawei сковал свою СХД, но и основные функции и опции, которые компания предлагает конечному заказчику.

СХД на базе ARM-процессоров Kunpeng

Мне хотелось бы начать с рассмотрения архитектуры Dorado 5000 V6. Эта СХД создана на базе двух 64-ядерных ARM-процессоров Kunpeng, разработанных самой Huawei и выведенных на рынок в прошлом году.

Мы уже подробно рассматривали серию Kunpeng 920 в обзоре сервера Huawei Taishan 2280 V2, и рекомендуем вам прочитать эту статью, чтобы иметь представление о возможностях этих процессоров.

С технической точки зрения это решения с производительностью уровня AMD EPYC, а с политической точки зрения — это огромная победа Huawei, позволившая компании слезть с иглы «x86-платформы», ведь раньше компания использовала преимущественно процессоры Intel в своих системах хранения данных.

Таким образом, Huawei может использоваться там, где из-за геополитических рисков компании не могут устанавливать x86 процессоры, либо же снижают их процент в общем серверном парке (читайте статью диверсификация поставщика CPU). Ну и кроме того, для заказчика с высочайшими требованиями безопасности, компания Huawei является чем-то вроде «службы одного окна»: единый вендор, отвечающий за отсутствие закладок во всём: начиная от процессора и заканчивая прошивкой устройства.

Но политическая составляющая — далеко не главное, из-за чего Huawei перешла на Kunpeng в своих СХД, обратите внимание насколько прогрессивная архитектура контроллеров здесь используется: два 64-ядерных процессора Kunpeng 920 позволяют задействовать дедупликацию одновременно в режимах Inline и Background, возможность которая в данной СХД включена по умолчанию. В каждом контроллере по установлено 128 ГБ кэш памяти, а при необходимости этот объём можно увеличить вдвое до 256 ГБ. Итого, с точки зрения платформы, каждое головное устройство Dorado 5000 V6 представляет собой мощный вычислительный модуль, сравнимый по производительности с топовыми серверами для Cloud-приложений.

Кстати, при заказе лучше рассмотрите сразу вариант с максимальным объёмом памяти, потому что Huawei OceanStor Dorado 5000 V6 использует технологию общего кэша на уровне головной СХД: каждый из контроллеров всегда участвует в дисковых операциях, а кэш записи постоянно синхронизируется между контроллерами в пределах одного ГУ и не суммируется. Для старших систем, например Dorado 18000 v6, возможен режим работы с тройным зеркалированием содержимого кэша записи, позволяющий добиться отказоустойчивости даже при одновременном выходе 2х контроллеров из строя. Кроме того, традиционной привязки «LUN-контроллер» здесь вообще нет, поэтому вылет одного из контроллеров на скорости не сказывается. Здесь каждый пул всегда привязан ко всем контроллерам, между которыми постоянно осуществляется балансировка нагрузки. И это — одна из причин, по которой OceanStor Dorado V6 показывают сумасшедшую надёжность: в системе может вылететь N-1 контроллеров, и последний продолжит тянуть на себе все дисковые массивы.

Мы провели тест, измеряя среднее время доступа в момент отключения контроллера, и результаты — на диаграмме выше. Попробуйте догадаться, в какой период времени был отключен контроллер, а чтобы узнать ответ, выделите текст в скобках: [40-60 секунд].

Разумеется, Huawei, как разработчик чипов для искусственного интеллекта серии Ascend (читайте наш обзор Ascend), не мог не наделить свои СХД расширенными функциями, реализуемыми средствами процессора Ascend 310. В частности, «умным» кэшем, представляющим собой Ai-надстройку над традиционными средствами кэшеирования в память.

Да, это именно то, что вы подумали: искусственный интеллект анализирует ваши паттерны доступа к дискам и исходя из этого, реализует механизмы включения и вытеснения из кэша. Правда, в серии Dorado 5000 V6 для применения данного функционала необходимо докупить и установить AI-плату, которой в нашем тестовом образце не было.

Технологии хранения данных

Применительно к OceanStor 5000 V6 можно сказать, что здесь и RAID не RAID, и LUN не LUN, потому что в основе СХД лежит патентованная технология блочной виртуализации, которую мы очень подробно рассматривали блочную виртуализацию в нашем обзоре Huawei OceanStor Dorado 2800 V3.

В рамках этой статьи лишь напомним вам, что вместо реальных SSD дисков в RAID-массивах участвуют «чанки» — нарезки дискового пространства с каждого SSD.

Благодаря такой конструкции, СХД не привязана ни к объёму ни к числу накопителей, и если например, вы создали RAID 5 из 8 SSD, то в этом массиве последовательно могут отказать до 5 накопителей: каждый раз СХД будет восстанавливать массив, используя свободный объём на дисках, оставляя массив в рабочем состоянии. Главное условие — чтобы в процессе массового вылета накопители давали время на восстановление и данных было не больше чем имеется свободного объёма.

Кстати, улучшения по сравнению с гибридными OceanStor здесь состоят в том, что LUN-ы и дисковые пулы (RAID-массивы) создаются моментально, а в полках расширения пулами заведуют собственные процессоры, так что «голова» лишь даёт команду полке: «починить RAID» и больше в процессе не участвует, высвобождая ресурсы процессоров под другие задачи.

Тест: скорость восстановления массива RAID 5, 8 SSD x 7.68 Tb
Вылет первого диска 48 минут
Вылет второго диска 1 час 57 минут
Вылет третьего диска 24 минуты
Возвращение диска в массив, ребилд до изначального состояния мгновенно
Читайте также:  Как купить игру мечты до её выхода. самые интересные игровые проекты на kickstarter

Для массива, имеющего изначально 8 накопителей по 7.68 Тб каждый, ребилд в течение часа-двух — это очень хороший показатель.

На вылете третьего SSD закончилось свободное место на пуле, ребилд длился всего 24 минуты, после чего СХД честно предупредила, что отключения ещё одного SSD массив не выдержит, поэтому испытание было решено проводить.

Обратите внимание, что при установке обратно вылетевших дисков, перестройка массива фактически не производится: весь объём становится доступен сразу.

Это не единственный плюс технологии блочной виртуализации. Компании Huawei удалось снизить износ SSD за счёт адаптации механизмов сборки мусора (Garbage Collection): контроллер распределяет данные по спискам блокам флэш-накопителя в зависимости от частоты их изменения.

Сортируя данные по типу на часто изменяемые и редко изменяемые, контроллеру удается снизить время выполнения сборки мусора, подсовывая алгоритму именно те области, где обычно хранятся «горячие» данные.

Это помогает снизить эффект Write Amplification (WA) на 60% по сравнению с обычным использованием SSD в массиве.

Кроме того, за счёт использования аггрегации операций ввода/вывода на уровне контроллера (происходит запись так называемых полных страйпов — Full Stripe), удалось сократить количество дополнительных операций чтения/записи, присущих традиционным RAID-массивам.

Таким образом, эффект Raid Penalty (о котором вы можете прочитать здесь) в Huawei Dorado 5000 V6 нивелируется полностью.

Кроме того, в СХД имеется технология глобального выравнивания износа SSD, а для дополнительной надёжности предлагается массив RAID-TP, выдерживающий вылет до 3 дисков с сохранением первоначального объёма. Так что, можно сказать, что вопросу жизнестойкости SSD здесь уделено повышенное внимание.

В то же время, в нашем тестировании примерно за неделю SSD диски объёмом 7.68 Тб показали износ на уровне 0.1%, что я считаю слишком большим показателем для такого объёма.

Адаптивная дедупликация

В начале статьи мы упомянули, что высочайшая вычислительная мощность позволяет задействовать дедупликацию на лету, но Huawei использует другую, более быструю схему.

Да, по опыту ZFS мы знаем, что даже на самых быстрых CPU дедупликация крадёт производительность, и чтобы обеспечивать максимальную скорость, некоторые вендоры, в том числе Microsoft в файловой системе ReFS предлагают производить процесс поиска одинаковых экстентов в фоне или по расписанию. И то и другое — ущербные компромиссы, и кажется Huawei нашёл баланс.

При записи каждого экстента СХД сверяет его хэш с существующей таблицей дубликатов. Если данный элемент уже в ней присутствует (фактически является копией того, что уже записано на диск), реальная запись не производится, а лишь обновляется таблица с дубликатами.

Если же элементы не присутствуют в списке дублей, они пишутся на диск, но не в явном виде, а в сжатом виде, причём степень компрессии подбирается в зависимости от загруженности СХД.

Впоследствии в фоновом режиме между блоками новых данных уже производится поиск и устранение дублей с занесением информации в таблицу дублирующихся экстентов.

СХД предоставлена компанией ELKO (https://www.elko.ru/):
ELKO Group – международный дистрибьютор ИТ-продукции и бытовой техники. Российское представительство ELKO Group ведет деятельность с 1995 года. Штаб-квартира представительства находится в Москве, региональные офисы в Санкт-Петербурге и Красноярске, логистические центры в Москве и Санкт- Петербурге. Интересы группы в России представляют компании ELKO Russia (ИТ-продукция) и Торговый Дом «Абсолют» (бытовая техника). Свыше 500 сотрудников представительства обеспечивают работу более чем с 10 000 клиентами и партнерами компании.

В отличии от той же ZFS или ReFS, где длина экстентов при дедупликации фиксированная, у Huawei на может меняться, что позволяет вычитать повторяющиеся данные даже при различном их расположении в файлах. Такое решение очень хорошо показывает себя при резервном копировании, в частности, виртуальных машин, а так же при использовании объектного доступа с версионированием.

К сожалению, о существовании дедупликации известно только из документации к Dorado 5000 V6: никаких настроек или отчётов, связанных с ней, в системе не имеется.

В процессе тестирования я многократно записывал один и тот же 8-гигабайтный файл на LUN-ы, презентованные через ESXi виртуальной машине под Windows.

Единственная метрика, по которой можно ориентироваться в вопросах дедупликации — это указатель эффективности в закладке информации о томе.

Процесс фонового поиска дублирующихся экстентов потребляет примерно 2-3% процессорных ресурсов каждого из контроллеров (получаются задействованы все 4 процессора). К сожалению, никакой другой более подробной статистики СХД не выдаёт.

SSD и карты расширения

Huawei Dorado 5000 V6 использует накопители с интерфейсом PCI Express собственной разработки Huawei. Эти накопители имеют немного иной тип корпуса толщиной всего 9.5 мм, что позволило разместить на фронтальной панели рекордные 36 накопителей с горячей заменой, в полтора раза больше чем в стандартных корпусах высотой 2U под 2.5-дюймовые SSD!

Во-вторых, Huawei применил в этих дисках собственный контроллер, оптимизированный для минимальной задержки. В итоге типичное время доступа СХД в операциях чтения/записи составляет 0.1 мс! Да, речь идёт о всей СХД и доступу от Front-End интерфейса до диска, установленного в полке расширения.

Huawei называет эти диски Palm SSD, и толщина — не единственный их плюс: каждый накопитель имеет два физических порта для подключения к бэкплейну вместо одного большого порта у SAS дисков.

Это позволило установить сами Backplane горизонтально, параллельно материнской плате, что улучшило вентиляцию и теплоотвод.

На момент подготовки обзора, максимальный объём одного Palm SSD составлял внушительные 15.36 Тб.

Для защиты содержимого кэша используются мощный литий-ионные аккумуляторы, в которые как картриджи устанавливаются блоки питания. Следует иметь ввиду, что замена аккумуляторов возможна только при отключении соответствующего блока питания, что никак не сказывается на работоспособности СХД.

Интерфейсные карты остались без изменений с прошлых поколений Dorado, и в общем-то, здесь ничего особенного: каждый контроллер поддерживает установку шести интерфейсных плат для Front-End подключений. Сегодня это могут быть:

DSCon представляет новые дисковые массивы AXUS с хост-интерфейсом 8Gb Fibre Channel

Компания DSCon, дистрибьютор решений, оборудования и ПО для хранения, обработки и защиты данных, представляет на рынке новые высокопроизводительные дисковые системы хранения данных AXUS Yotta B с хост-интерфейсом 8Gb Fibre Channel, поддерживающие 12, 16 или 24 жестких диска SAS/SATA II и возможность расширения с помощью SAS JBOD до 128 дисков.

Оснащенная двумя портами 8Gb Fibre Channel для подключения к хостам система, в зависимости от модели, поддерживает до 12, 16 или 24 жестких дисков SAS/SATA II и имеет один порт MiniSAS 4 x для расширения. При использовании модулей расширения, одного или более SAS JBODs, система способна поддерживать до 128 дисков.

Высокопроизводительная архитектура систем хранения данных Yotta B Series основана на мощном модуле ввода-вывода Intel® IOP341. Он обеспечивает аппаратное ускорение RAID 5 и RAID 6, обладает встроенной памятью 1MB SRAM, поддерживает шины PCI-X и восьмиполосную PCI-Express, кэш – до 2GB с использованием 64-разрядной 533MHz ECC DDR2 SDRAM и внутреннюю пропускную способность более 12GB/s.

Хранилище построено на основе SAS интерфейса, что позволяет предоставить более высокую производительность и доступность данных, а также упрощает архитектуру системы. Интерфейс SAS поддерживает как SAS, так и SATA II диски.

Вы можете заполнить все отсеки массива SATA или SAS накопителями самым оптимальным, для вашей системы и решаемых ею задач, образом.

Например, вы можете использовать диски SAS для обслуживания интенсивно работающих с данными приложений, а недорогие Serial ATA (SATA) диски для хранения больших объемов вспомогательной информации.

Чрезвычайно важным преимуществом семейства Yotta является отличная совместимость этих массивов с новейшими жесткими дисками от ведущих производителей. Такая совместимость, традиционно обеспечиваемая компанией AXUS, предоставляя возможность выбора наиболее оптимального решения.

  • Редактор раздела: Юрий Мальцев (maltsev@mskit.ru)
  • Рубрики: Оборудование
  • Ключевые слова: системы хранения данных, сервер хранения данных

30.06.2022 Борьба с международной киберпреступностью требует сотрудничества. А с этим есть проблемы

Ваша корзина пуста

©STSS    

Москва, Бережковская набережная, дом 20, строение 8. Тел./факс: +7 (495) 737-55-77 (многоканальный).  

Производство и продажа высокотехнологичной компьютерной продукции. Серверы, терминальные системы, кластеры, системы хранения данных, видеорегистраторы, профессиональные графические и рабочие станции.

  

Производство и продажа серверов — основное направление деятельности компании STSS. Мы предлагаем не просто купить сервер STSS Flagman, HP ProLiant или IBM System X на базе процессоров Intel или AMD.

Читайте также:  Лучший из недорогих смартфонов xiaomi? обзор xiaomi redmi 5 plus

Наши эксперты предлагают квалифицированные консультации и осуществляют подбор оптимальной конфигурации сервера для решения конкретно Ваших задач.

На нашем сайте Вашему вниманию предлагаются уникальные онлайновые конфигураторы серверов STSS Flagman, HP ProLiant DL, HP ProLiant ML, IBM System X, и систем хранения данных (DAS, NAS, SAN) HP StorageWorks, IBM System Storage, Hitachi Data Systems.

Для тех, кто хочет самостоятельно сконфигурировать сервер и узнать цену, предлагается подбор конфигурации сервера по параметрам: на базе платформы Intel, AMD, NVIDIA, Supermicro, ASUS, TYAN; процессор Intel Xeon, AMD Opteron; память DDR3 или DDR2, Unbuffered или Registered, с ECC; жёсткие диски 2.5″ SFF или 3.5″ LFF, SATA или SAS, fixed или hot-swap HDD; RAID-контроллеры уровня 0, 1, 3, 5, 6, 10, 50, 60; слоты PCI-X, PCI-Express; контроллеры Gigabit Ethernet, Fibre Channel; корпус Tower или Rackmount 1U, 2U, 3U, 4U, 5U.

Мы предлагаем не просто купить сервер, у нас Вы приобретаете лучшее решение для Вашей задачи по адекватной цене. Купить сервер легко!

Intel, логотип Intel, Celeron, Celeron Inside, Centrino, Centrino Inside, Core Inside, Intel Atom, Intel Atom Inside, Intel Core, Intel Inside, логотип Intel Inside, Intel SpeedStep, Intel vPro, Itanium, Itanium Inside, Pentium, Pentium Inside, Ultrabook, vPro Inside, Xeon, Xeon Inside, являются товарными знаками корпорации Intel в США и/или других странах. NVIDIA, логотип NVIDIA, Quadro, логотип Quadro, CUDA и Built for Professionals являются товарными знаками или зарегистрированными товарными знаками корпорации NVIDIA в США и/или других странах. Microsoft, Windows и логотип Windows являются товарными знаками или зарегистрированными товарными знаками корпорации Microsoft в США и/или других странах.

Другие названия компаний и продуктов могут являться товарными знаками соответствующих владельцев.

Купить систему хранения данных ReShield Terra NX8224

Серия ReShield Terra 8000 предназначена для заказчиков, которые ожидают от системы хранения данных функционал Enterprise класса за доступную стоимость. Серия ReShield Terra 8000 построена на базе процессора Intel Xeon E5-2600, оптимизированного для производительных систем хранения и облачных решений, и поддерживает интерфейс 12Gb SAS 3.0.

Инновационный дизайн включает в себя поддержку двух карт расширения для связи с хостами, 2 порта 10GBase-T, флеш модуль М.2 и конденсатор для защиты кеша, а также поддержку технологии Wake-on-SAS.

Система масштабируется по емкости за счет подключения дополнительных полок расширения StorePro и по производительности за счет добавления второго контроллера и карт расширения интерфейсов.

Ядром семейства Terra является операционная система SANOS 4.0 с поддержкой технологий QCache (SSD кеширование) и QTiering (Auto Tiering) для полной утилизации возможностей твердотельных дисков. Серия ReShield Terra 8000 также обладает функционалом предупреждения о возможной потере данных.

Благодаря новейшей платформе, серия ReShield Terra 8000 обладает великолепным функционалом и обеспечивает сверхвысокою производительность как в плане пропускной способности, так и в плане IOPS. Все это позволяет рекомендовать эти системы для таких приложений, как:

  • Базы данных, в том числе уровня mission critical (Exchange, SQL, RDBMS, D2B), OLTP
  • Системы виртуализации (VMware, Hyper-V, Citrix)
  • Системы резервного копирования (Symantec, Commavault, Veeam, Acronis)
  • Системы работы с медиа контентом: 2К/4К/8К видеомонтаж, вещание и архивирование
  • Системы масштабного видеонаблюдения: торговые центры, транспорт, системы безопасности масштаба города
  • Научные вычисления и НРС
  • Корпоративные системы документооборота

Серия ReShield Terra 8000 предназначена для критичных приложений, требующих высокой доступности, надежности, безопасности, производительности и масштабируемости.

Высокая доступность для бизнес задач

Надежность и доступность – главные требования, которые предъявляют к системе хранения. Серия ReShield Terra 8000 имеет два активных контроллера и сверхнадежную аппаратную составляющую. Контроллеры работают параллельно.

Если один из них выйдет из строя, второй продолжит работу со всеми сервисами, которые были на первом. Помимо этого, все аппаратные модули задублированы и имеют «горячую» замену для простоты в обслуживании.

У ReShield Terra 8000 можно обновлять встроенное ПО без перерыва в работе, поскольку контроллеры обновляются поочередно, а обслуживание не прервется благодаря наличию нескольких путей.

  • RAID контроллеры, работающие в режиме Active-Active с зеркалированием кеша
  • Поддержка ALUA и automatic failover
  • Полное дублирование компонент с возможностью «горячей» замены
  • Поддержка multiple path и load balancing
  • Automatic failover для порта управления
  • Обновление встроенного ПО без остановки сервисов
  • Отсутствие единой точки отказа для доступности в течение 99.999% времени

Дополнительные карты расширения интерфейсов для масштабирования и гибкости

Каждый контроллер СХД имеет два слота для карт расширения, которые увеличивают количество портов для подключения. У вас есть возможность выбрать карты из трех вариантов, исходя из возможностей вашей инфраструктуры: 4 порта 16Gb Fibre Channel, 4 порта 10GbE iSCSI и 4 порта 1GbE iSCSI.

Вы можете совместить интерфейсы Fibre Channel и iSCSI в рамках одной системы. В двухконтроллерной СХД может быть до 20 портов 10GbE iSCSI или до 16 портов 16Gb FC. В результате можно подключить множество хостов к системе без использования коммутаторов.

Для небольших компаний такой вариант позволит значительно сэкономить на оборудовании, не потеряв при этом гибкости.

Эффективная защита кеша системы хранения

Для случаев внезапного отключения электроэнергии необходимо обеспечивать надежную защиту кеша системы хранения, чтобы предотвратить потерю данных. Серия ReShield Terra 8000 поддерживает технологию cache-to-flashe при помощи модулей питания и M.2.

Когда питание системы внезапно прекратиться, данные из кеша будут записаны в память М.2 модуля. Питание для этого процесса обеспечивается двумя способами: традиционной батареей ВВМ или конденсатором. Конденсатор представляет собой необслуживаемый модуль и полностью не зависим от температурных показателей.

Все эти модули поддерживают «горячую» замену и обеспечивают нулевое время простоя.

Высокая производительность и возможность расширения

Расширения дискового пространства легко производится через 2 порта 12Gb mini SAS HD (SFF-8644), расположенных на каждом контроллере, к которым подключаются полки XD5300. Поддерживается до 446 дисков.

Итоговая производительность может достигать до 12000 МБ/с на чтение и до 8000 МБ/с на запись, а также свыше 1,5 миллионов IOPS при транзакционных нагрузках.

Благодаря впечатляющему расширению емкости, ReShield Terra 8000 будет прекрасным выбором для систем резервного копирования и архивирования, приложений big data, видеомонтажа 2К/4К, видеонаблюдения.

Система хранения с оптимизацией для использования SSD

Enterprise приложения становятся все более требовательными. Рост частных облаков и систем виртуализации предъявляет дополнительные требования к системам хранения. Однако не все приложения требуют постоянного использования SSD.

Технология QCache (SSD кеширование) объединяет достоинства как SSD, так и SAS/SATA дисков для получения максимально эффективного по соотношению цена/производительность/емкость решения. Она ускоряет работу приложений за счет увеличения кеша самой СХД при помощи SSD, куда копируются наиболее часто востребованные данные («горячие» данные).

Сами же данные («холодные») расположены на обычных дисках.это может увеличить производительность до 18 раз.

При помощи технологии QTiering (Auto Tiering) ReShield Terra 8000 может разместить нужные данные в нужном месте для достижения максимальной производительности, снижая при этом итоговую стоимость хранения.

Интеллектуальный режим QTiering в фоновом режиме мониторит активность и переносит данные между различными уровнями. 5 уровней хранения обеспечивают достаточную гибкость в планировании хранения.

Наиболее востребованные для этой технологии приложения должны оперировать различными данными в разное время.

Наивысший уровень безопасности

Несмотря на то, что обычно СХД расположена во внутренней части сети, удаленная репликация с использованием iSCSI  по-прежнему уязвима перед Интернет атаками, особенно вида DDoS. Серия ReShield Terra 8000 успешно прошла все тесты на отражение различных сетевых атак при помощи решения от Spirent. Terra iSCSI Force Field позволяет надежно защитить соединение iSCSI от внешних вторжений.

Согласно исследованиям Gartner в ближайшем будущем все диски будут иметь аппаратное шифрование. Серия ReShield Terra 8000 поддерживает такие диски (SED) уже сейчас. Использование SED дисков позволит защититься от потери или кражи самих дисков.

Работа с такими дисками не снижает общей производительности системы, а расположенные на них данные можно удалить гораздо быстрее, нежели традиционными программными средствами.

Любое несанкционированное вмешательство в систему сделает данные, расположенные на дисках SED нечитаемыми.

Интеграция с системами виртуализации

Серия ReShield Terra 8000 глубоко интегрируется с наиболее популярными системами виртуализации. Она сертифицирована для работы с VMware vSphere и поддерживает механизм VAAI. Также имеется полная совместимость с Windows Server 2012R2 с поддержкой ODX. Все это делает ReShield Terra 8000 идеальным кандидатом для построения виртуального датацентра.

 

Ссылка на основную публикацию
Adblock
detector