Вначале было слово и слово было Welcome.
Приветственные доклады слились в одну сумбурную презентацию миллионов IOPS и тысяч снапшотов в новой архитектуре Data Fabric, представляющую собой концепцию управления гибридными массивами и AFF (All-Flash-FAS) из одного управляющего интерфейса. Осталось непонятным, зачем столько снапшотов и клонов, и что всё-таки есть Data Fabric — программный инструмент управления или архитектура. Или концепция.
Зато лишний раз довелось убедиться, насколько живее, динамичнее и «заводнее» выступают европейские спикеры вендорских конференций.
После кофебрейка пошли технические доклады.
Фабрика нового поколения для FlexPod (Cisco)
Для начала, FlexPod — это протестированный комплекс оборудования двух вендоров: NetApp (хранилище), Cisco Nexus (коммутаторы), Cisco UCS (серверы). То, что называется конвергентным или даже гиперконвергентным решением. Минимум заморочек с масштабированием, с поддержкой (весь комплекс поддерживается одним вендором) и интеграцией. Но, понятно, недёшево.
Специально для этого комплекса Cisco разработала новую концепцию сетевой архитектуры: Application Centric Infrastructure (ACI). То есть инфраструктура, «ориентированная вокруг приложений». Звучит громко, а по сути — нечто вроде Ethernet Fabric от Brocade, которая в свою очередь берёт начало в SAN Fabric. То есть коммутаторы просто соединяются друг с другом, а доступ на сетевом уровне определяется специальными профилями доступа «от кого — куда — +какие сервисы (FW, LB)». Похоже на зоны в SAN, только в реализации Cisco управлением профилями занимаются специально выделенные три сервера на базе UCS — Application Policy Infrastructure Controllers (APIC).
На картинке ниже ACI-фабрика. Большие коммутаторы — Spine Nodes, маленькие — Leaf Nodes. И те и другие на базе Nexus 9000.
Конфиги профилей при этом хранятся на каждой ноде, так что выход из строя или недоступность серверов APIC приведёт только к невозможности их изменения, а на текущей работе не отразится.
Хотя само наличие этих серверов, как лишняя сущность, кажется недостатком в сравнении с Brocade Ethernet Fabric, где всё в коммутаторах, и VMware NSX, в которой такие серверы хоть и есть, но они виртуальные.
VMware + NetApp: интеграция и совместные решения (VMware)
Одна из первых реализаций MetroCluster (и точно более доступная, чем альтернатива от EMC), EVO:RAIL и бесплатный плагин NetApp Virtual Storage для vCenter. Всё остальное можно свести к «а ещё наши продукты могут работать на хранилищах NetApp».
Очень поверхностная презентация.
Veeam + NetApp (Veeam)
Как работает бэкап Veeam: создаётся снапшот виртуальной машины, vmdk бэкапится Veeam’ом, снапшот удаляется.
Как работает бэкап Veeam с интеграцией с NetApp: создаётся снапшот виртуальной машины, создаётся снапшот NetApp, удаляется снапшот виртуальной машины, vmdk бэкапится из снапшота NetApp. Преимущество: снапшот ВМ хранится 5-10 сек, не успевает разрастись, удаляется быстрее.
Прочие бонусы:
- Veeam может после бэкапа слать снапшоты NetApp на SnapVault/SnapMirror;
- Backup IO Control (похоже на SIOC по смыслу, контролирует нагрузку процесса бэкапа на массив);
- возможность бэкапа не с оригинального расположения виртуальных машин, а с массива SnapMirror/SnapVault, что может разгрузить исходную СХД;
- бэкап/репликация в облако с сохранением сети;
- SnapShure — автоматическая проверка бэкапов на запускаемость и доступность приложений в изолированной среде.
Последние два пункта, как я понимаю, не привязаны к NetApp.
NetApp OnCommand Insight (Айтеко)
Это программный продукт, обеспечивающий мониторинг и аналитику storage-подключений. Ключевые фичи:
- безагентское решение;
- выявление рисков (например, отсутствие отказоустойчивости, несовпадение путей на разных фабриках);
- определение «потерянных» ресурсов (не подключенные LUN, неиспользуемые ВМ);
- быстрое обнаружение виновника высокой загрузки — при общем скачке нагрузки на SAN или массив, может определить, кто именно эту нагрузку вызвал;
- построение трендов использования ресурсов и планирование на будущее.
Вообще презентация более познавательной была в плане мастерства выступления. В ключе «как делать не надо». Нагрузив слайды текстом, спикер читал с монитора, слегка перефразируя содержимое. При этом текст неповоротливый, тяжёлый для восприятия («Освобождение ценных квалифицированных специалистов от низкопроизводительных задач»).
All-Flash-FAS (NetApp)
В рамках данной презентации NetApp побеждает.. самого себя. Ну то есть насколько позитивно новая версия управляющего софта скажется на работе оборудования. И это классный формат выступления — от докладов на тему «Мы, вендор А, лучше чем ведор Б потому что у нас есть… <набор уникальных фич вендора А, игнорирование фич вендора Б, сравнение несравнимого, победа>» уже мутит.
Итак, у NetApp появились All-Flash массивы. И Data OnTAP 8.3.1 заточили под работу с SSD. Детали:
v8.3
- IO чтения минует уровень WAFL (читается поямо с RAID).
- Zero deduplication — если блок состоит из нулей, то он не пишется на диски
v8.3.1
- IO чтения минует уровень WAFL и RAID (читается прямо с дисков, если совпала чётность. Если не совпала — читается с RAID).
- Параллельные запросы и команды (для SSD не нужно нацеливаться на последовательную запись/чтение, а значит не нужна конкатенация комапнд и запросов).
- Adaptive compression (Inline) — сжатие 8 кБ IO-блоков в 4 кБ WAFL-блоки.
- AlwaysOn deduplication — к сожалению, всё ещё не Inline, просто процесс запускается раз в минуту.
Заявлено, что изменения за счёт убирания лишних уровней чтения и оптимизации драйвера сократили время одного обращения на 0,3 мс.
Возможно создание гибридных кластеров (2AFF+2FAS) и перемещение данных между контроллерами.
Рекомендации для AFF:
- 1 LUN — 1 том.
- 8+ томов на контроллер.
- Не менее 3-4 хостов.
- Queue Depth — 128+
Metrocluster (NetApp)
Ещё один образец «как не надо делать презентацию». На слайдах куча текста, докладчик читает его, стоя боком к аудитории, приэтом читает не всё. Получается, что он просто бормочет себе под нос куски предложений и фраз, как бы подавая пример аудитории — читаем сами. Или просто размышляет вслух фоном. В общем, суть доклада прошла мимо понимания. Всё что зафиксировалось:
- максимум для метрокластера: 10 полок в стеке или 48 SSD на стек.
- минимум: 4 полки на площадку.
- и если в первой своей реализации метрокластер представлял собой растянутую HA-пару, то сейчас — кластер из одной или двух нод на каждой стороне. Трудно уловить разницу не знакомым с NetApp, но она есть.
Заключение
Не все доклады одинаково хорошо задались, но в целом конференция NetApp оказалась самой познавательной и технологичной из всех посещённых за последний месяц. А побывать ещё довелось на EMC Forum 2015 и VMware Tour Russia 2015. Но с последних, кроме красивых девушек и совсем провальных докладов, никаких впечатлений не осталось.