Конспект с конференции NetApp Innovation 2015 (10 ноября)

Оставьте комментарий
ИТ

Вначале было слово и слово было Welcome.

Приветственные доклады слились в одну сумбурную презентацию миллионов IOPS и тысяч снапшотов в новой архитектуре Data Fabric, представляющую собой концепцию управления гибридными массивами и AFF (All-Flash-FAS) из одного управляющего интерфейса. Осталось непонятным, зачем столько снапшотов и клонов, и что всё-таки есть Data Fabric — программный инструмент управления или архитектура. Или концепция.

Зато лишний раз довелось убедиться, насколько живее, динамичнее и «заводнее» выступают европейские спикеры вендорских конференций.

После кофебрейка пошли технические доклады.

Фабрика нового поколения для FlexPod (Cisco)

Для начала, FlexPod — это протестированный комплекс оборудования двух вендоров: NetApp (хранилище), Cisco Nexus (коммутаторы), Cisco UCS (серверы). То, что называется конвергентным или даже гиперконвергентным решением. Минимум заморочек с масштабированием, с поддержкой (весь комплекс поддерживается одним вендором) и интеграцией. Но, понятно, недёшево.

Специально для этого комплекса Cisco разработала новую концепцию сетевой архитектуры: Application Centric Infrastructure (ACI). То есть инфраструктура, «ориентированная вокруг приложений». Звучит громко, а по сути — нечто вроде Ethernet Fabric от Brocade, которая в свою очередь берёт начало в SAN Fabric. То есть коммутаторы просто соединяются друг с другом, а доступ на сетевом уровне определяется специальными профилями доступа «от кого — куда — +какие сервисы (FW, LB)». Похоже на зоны в SAN, только в реализации Cisco управлением профилями занимаются специально выделенные три сервера на базе UCS — Application Policy Infrastructure Controllers (APIC).

На картинке ниже ACI-фабрика. Большие коммутаторы — Spine Nodes, маленькие — Leaf Nodes. И те и другие на базе Nexus 9000.

cisco_aci01

Конфиги профилей при этом хранятся на каждой ноде, так что выход из строя или недоступность серверов APIC приведёт только к невозможности их изменения, а на текущей работе не отразится.

Хотя само наличие этих серверов, как лишняя сущность, кажется недостатком в сравнении с Brocade Ethernet Fabric, где всё в коммутаторах, и VMware NSX, в которой такие серверы хоть и есть, но они виртуальные.

VMware + NetApp: интеграция и совместные решения (VMware)

Одна из первых реализаций MetroCluster (и точно более доступная, чем альтернатива от EMC), EVO:RAIL и бесплатный плагин NetApp Virtual Storage для vCenter. Всё остальное можно свести к «а ещё наши продукты могут работать на хранилищах NetApp».

Очень поверхностная презентация.

Veeam + NetApp (Veeam)

Как работает бэкап Veeam: создаётся снапшот виртуальной машины, vmdk бэкапится Veeam’ом, снапшот удаляется.

Как работает бэкап Veeam с интеграцией с NetApp: создаётся снапшот виртуальной машины, создаётся снапшот NetApp, удаляется снапшот виртуальной машины, vmdk бэкапится из снапшота NetApp. Преимущество: снапшот ВМ хранится 5-10 сек, не успевает разрастись, удаляется быстрее.

Прочие бонусы:

  • Veeam может после бэкапа слать снапшоты NetApp на SnapVault/SnapMirror;
  • Backup IO Control (похоже на SIOC по смыслу, контролирует нагрузку процесса бэкапа на массив);
  • возможность бэкапа не с оригинального расположения виртуальных машин, а с массива SnapMirror/SnapVault, что может разгрузить исходную СХД;
  • бэкап/репликация в облако с сохранением сети;
  • SnapShure — автоматическая проверка бэкапов на запускаемость и доступность приложений в изолированной среде.

Последние два пункта, как я понимаю, не привязаны к NetApp.

NetApp OnCommand Insight (Айтеко)

Это программный продукт, обеспечивающий мониторинг и аналитику storage-подключений. Ключевые фичи:

  • безагентское решение;
  • выявление рисков (например, отсутствие отказоустойчивости, несовпадение путей на разных фабриках);
  • определение «потерянных» ресурсов (не подключенные LUN, неиспользуемые ВМ);
  • быстрое обнаружение виновника высокой загрузки — при общем скачке нагрузки на SAN или массив, может определить, кто именно эту нагрузку вызвал;
  • построение трендов использования ресурсов и планирование на будущее.

Вообще презентация более познавательной была в плане мастерства выступления. В ключе «как делать не надо». Нагрузив слайды текстом, спикер читал с монитора, слегка перефразируя содержимое. При этом текст неповоротливый, тяжёлый для восприятия («Освобождение ценных квалифицированных специалистов от низкопроизводительных задач»).

All-Flash-FAS (NetApp)

В рамках данной презентации NetApp побеждает.. самого себя. Ну то есть насколько позитивно новая версия управляющего софта скажется на работе оборудования. И это классный формат выступления — от докладов на тему «Мы, вендор А, лучше чем ведор Б потому что у нас есть… <набор уникальных фич вендора А, игнорирование фич вендора Б, сравнение несравнимого, победа>» уже мутит.

Итак, у NetApp появились All-Flash массивы. И Data OnTAP 8.3.1 заточили под работу с SSD. Детали:

v8.3

  • IO чтения минует уровень WAFL (читается поямо с RAID).
  • Zero deduplication — если блок состоит из нулей, то он не пишется на диски

v8.3.1

  • IO чтения минует уровень WAFL и RAID (читается прямо с дисков, если совпала чётность. Если не совпала — читается с RAID).
  • Параллельные запросы и команды (для SSD не нужно нацеливаться на последовательную запись/чтение, а значит не нужна конкатенация комапнд и запросов).
  • Adaptive compression (Inline) — сжатие 8 кБ IO-блоков в 4 кБ WAFL-блоки.
  • AlwaysOn deduplication — к сожалению, всё ещё не Inline, просто процесс запускается раз в минуту.

Заявлено, что изменения за счёт убирания лишних уровней чтения и оптимизации драйвера сократили время одного обращения на 0,3 мс.

Возможно создание гибридных кластеров (2AFF+2FAS) и перемещение данных между контроллерами.

Рекомендации для AFF:

  • 1 LUN — 1 том.
  • 8+ томов на контроллер.
  • Не менее 3-4 хостов.
  • Queue Depth — 128+

Metrocluster (NetApp)

Ещё один образец «как не надо делать презентацию». На слайдах куча текста, докладчик читает его, стоя боком к аудитории, приэтом читает не всё. Получается, что он просто бормочет себе под нос куски предложений и фраз, как бы подавая пример аудитории — читаем сами. Или просто размышляет вслух фоном. В общем, суть доклада прошла мимо понимания. Всё что зафиксировалось:

  • максимум для метрокластера: 10 полок в стеке или 48 SSD на стек.
  • минимум: 4 полки на площадку.
  • и если в первой своей реализации метрокластер представлял собой растянутую HA-пару, то сейчас — кластер из одной или двух нод на каждой стороне. Трудно уловить разницу не знакомым с NetApp, но она есть.

Заключение

Не все доклады одинаково хорошо задались, но в целом конференция NetApp оказалась самой познавательной и технологичной из всех посещённых за последний месяц. А побывать ещё довелось на EMC Forum 2015 и VMware Tour Russia 2015. Но с последних, кроме красивых девушек и совсем провальных докладов, никаких впечатлений не осталось.

wpid-img_20151112_09332301.jpg.jpeg

Добавить комментарий

Заполните поля или щелкните по значку, чтобы оставить свой комментарий:

Логотип WordPress.com

Для комментария используется ваша учётная запись WordPress.com. Выход / Изменить )

Фотография Twitter

Для комментария используется ваша учётная запись Twitter. Выход / Изменить )

Фотография Facebook

Для комментария используется ваша учётная запись Facebook. Выход / Изменить )

Google+ photo

Для комментария используется ваша учётная запись Google+. Выход / Изменить )

Connecting to %s