No Image

Hyper v кластер windows server 2012 r2

СОДЕРЖАНИЕ
564 просмотров
10 марта 2020

вторник, 10 декабря 2013 г.

Создание и конфигурирование HA кластера Hyper-V 2012 R2

В данном случае будем строить кластер состоящий из двух нод (NODE1 и NODE2)
1. Предварительные условия:
1)В качестве "железа" можно использовать любые "вменяемые" сервера или даже "системники", главное чтобы памяти хватало под задачи которые будут возлагаться на виртуальные машины
2) Рекомендуется установить на каждую из нод кластера по 2 сетевые карты (условие не обязательное).

  • Первый сетевой интерфейс, для сети хранения данных (установить ей самый высокий приоритет(Network and Sharing Center->Change Adapter Settings, нажать Alt, в появившемся меню выбрать Advanced -> Advanced Settings и переместить сетевой
    интерфейс для сети хранения данных на самый верх)), шлюз по умолчанию не указываем
  • Второй сетевой интерфейс для управления, для связи хостов друг с другом, и для взаимодействия с диском свидетелем (quorum disk).

3) Хосты должны быть введены в домен, иметь прямые и обратные записи в DNS, т.е. резолвиться по имени и по айпишнику

2. Добавим роль Failover-Clustering на каждом хосте:

  • используем PowerShell console запущенную из под администратора:

4. Теперь, когда служба Failover Clustering включена на каждом сервере, откроем Failover Cluster Manager на любом из хостов, и первое, что сделаем – это запустим "Validate Configuration", чтобы мы могли идентифицировать любые потенциальные проблемы прежде чем перейти непосредственно к созданию, а в последствии и к конфигурированию нашего кластера. Нажмите на "Validate Configuration"

попадаем в визард и отвечаем на логичные вопросы, нужно выбрать членов нашего кластера, все остальные шаги оставляем по дефолту, после того как мастер соберет все сведения о готовности инфраструктуры к разворачиванию сервиса, он выдаст заключение, которое можно развернуто посмотреть, нажав на View Report.
Если есть какие-то ошибки и ворнинги исправляем их, благо в репорте помимо описания самих ошибок и предупреждений , есть рекомендации по их исправлению, если все OK, то.

5. Переходим непосредственно к созданию кластера:

  • используем PowerShell console запущенную из под администратора:

(вновь созданный кластер получит виртуальный IP адрес по DHCP, который потом можно будет поменять в Failover Cluster Manager (Консоль Failover Cluster, кликаете в левой панели на имя кластера, в средней отобразится поле Cluster Core Resources, раскрываете, правой кнопкой IP address – свойства)), так же необходимо проверить создалась ли A запись в прямой и обратной зоне DNS, если нет, создадим ее руками!

  • используем Failover Cluster Manager, нажмем Create Cluster. как-нить интуитивно понятно обзовём его и выдадим ему IP адрес. На экране "Сonfirmation" мы видим имя и IP-адрес, который мы выбрали для нашего кластера. Также там есть опция ”Add all eligible storage to the cluster” типа добавить все подходящие для кластера диски,
    по умолчанию она задействована, вот надо убрать галочку, потому как мы сами решим какие диски добавлять , займемся этим позже

6. Создадим папку или диск для "quorum disk" (для диска свидетеля подойдет лун, размером 1G) и ресурс (папку или диск) для хранения виртуальных машин, который в последствии используем для Cluster Shared Volume (CSV)

    как известно, начиная с hyper-v 2012 в качестве общего хранилища и диска свидетеля можно использовать шары SMB3, на отдельно стоящей доменной машине под управлением win 2012 или win 2012 r2 с "приличным" объемом свободного дискового пространства, создадим 2 папки и назовем их например:
    HVCVMWitness – это для кворум диска, расшарим ее на запись для всех , и дадим полный доступ на уровне секурити для кластера

HVCVMStorage – это для хранения виртуальных машин, расшарим ее на запись для всех, и дадим полный доступ на уровне секурити для членов кластера!

. здесь хочу заметить, что решение с файловой шарой для хранения VM подходит исключительно в тестовом режиме, да и то весьма и весьма сомнительно, хотя как quorum disk вполне себя оправдывает.

Лучше использовать внешнее файловое хранилище, например SYNOLOGY DS, или софтверное решение FreeNAS или OpenFiler и подключить выделенный LUN по iscsi:

1) Shutdown NODE2
2) На NODE1 запустим iSCSI initiator из Administrative tools или из командной строк: iscsicpl

  • в выпавшем информационном окне нажмем Yes для того чтобы автоматически запускать службу iSCSI initiator
  • выберем Discovery
  • нажмем Discover Portal
  • введем IP Address нашего сетевого дискового хранилища, где опубликован LUN и нажмем OK
  • выберем Targets
  • выберем по очереди каждый target и нажмем Connect

3) Откроем Disk Management tool и сконфигурим наши только что добавленные диски, т.е. сделаем каждый из них online, инициализируем их, присвоим интуитивно понятные имена и буквы (меньший диск назовем quorum и дадим букву Q, большому – VM и букву V )ну и отформатируем под NTFS
4) Shutdown NODE1
5) Старт NODE2
Повторим для ноды шаги 2 и 3 (ну только форматировать не надо)
6) Старт NODE1

7. Добавим наши примапленный iscsi диск из оснастки Failover Cluster Manager

8. После того как кластер создался, у нас будет предупреждение, что "хорошо не обнаружен диск свидетель и хорошо бы его все таки сконфигурить".

. ну так в общем то займемся этим, используем для этой цели созданный на шаге 6 диск или smb шару:

  • используем PowerShell console запущенную из под администратора:

  • на любой из нод кластера зайдем в наш шаред волум, который находится в C:ClusteredStorageVolumeX и руками создадим папку по имени виртуальной машины ну например vmClusterTest (в эту папку мы перенесем хранилище из локального)

  • перед переносом нужно убедиться что на виртуальной машине нет примапленных исошников иначе "фокус не удастся"
  • в Failover Cluster Manager выделим виртуалку и в правой панели нажмем Move->Virtual Machine Storage

  • в открывшемся окне методом драг энд дроп перетянем нашу виртуалку из верхнего окна в правое нижнее

нажмем старт, машина перенесется и станет HA.
После этого управление VM производится из консоли Failover Cluster Manager

Ну вот как то так!
Удачи и помните:"Все в Ваших руках, если есть "Руки""

В данной статье будет показано, как построить отказоустойчивый кластер Server 2012 с двумя узлами. Сначала я перечислю обязательные условия и представлю обзор настроек аппаратной среды, сети и хранилища данных. Затем будет подробно описано, как дополнить Server 2012 функциями отказоустойчивой кластеризации и использовать диспетчер отказоустойчивого кластера для настройки кластера с двумя узлами

Читайте также:  Intel core 2 duo e8500 разгон

В Windows Server 2012 появилось так много новшеств, что за всеми уследить трудно. Часть наиболее важных строительных блоков новой ИТ-инфраструктуры связана с улучшениями в отказоустойчивой кластеризации. Отказоустойчивая кластеризация зародилась как технология для защиты важнейших приложений, необходимых для производственной деятельности, таких как Microsoft SQL Server и Microsoft Exchange. Но впоследствии отказоустойчивая кластеризация превратилась в платформу высокой доступности для ряда служб и приложений Windows. Отказоустойчивая кластеризация — часть фундамента Dynamic Datacenter и таких технологий, как динамическая миграция. Благодаря Server 2012 и усовершенствованиям нового протокола Server Message Block (SMB) 3.0 область действия отказоустойчивой кластеризации стала увеличиваться, обеспечивая непрерывно доступные файловые ресурсы с общим доступом. Обзор функциональности отказоустойчивой кластеризации в Server 2012 приведен в опубликованной в этом же номере журнала статье «Новые возможности отказоустойчивой кластеризации Windows Server 2012».

Обязательные условия отказоустойчивой кластеризации

Для построения двухузлового отказоустойчивого кластера Server 2012 необходимы два компьютера, работающие с версиями Server 2012 Datacenter или Standard. Это могут быть физические компьютеры или виртуальные машины. Кластеры с виртуальными узлами можно построить с помощью Microsoft Hyper-V или VMware vSphere. В данной статье используются два физических сервера, но этапы настройки кластера для физических и виртуальных узлов одни и те же. Ключевая особенность заключается в том, что узлы должны быть настроены одинаково, чтобы резервный узел мог выполнять рабочие нагрузки в случае аварийного переключения или динамической миграции. Компоненты, использованные в тестовом отказоустойчивом кластере Server 2012 представлены на рисунке.

Рисунок. Просмотр компонентов кластера

Для отказоустойчивого кластера Server 2012 необходимо общее хранилище данных типа iSCSI, Serially Attached SCSI или Fibre Channel SAN. В нашем примере используется iSCSI SAN. Следует помнить о следующих особенностях хранилищ этого типа.

  • Каждый сервер должен располагать по крайней мере тремя сетевыми адаптерами: одним для подключения хранилища iSCSI, одним для связи с узлом кластера и одним для связи с внешней сетью. Если предполагается задействовать кластер для динамической миграции, то полезно иметь четвертый сетевой адаптер. Однако динамическую миграцию можно выполнить и через внешнее сетевое соединение — она просто будет выполняться медленнее. Если серверы используются для виртуализации на основе Hyper-V и консолидации серверов, то нужны дополнительные сетевые адаптеры для передачи сетевого трафика виртуальных машин.
  • В быстрых сетях работать всегда лучше, поэтому быстродействие канала связи iSCSI должно быть не менее 1 ГГц.
  • Цель iSCSI должна соответствовать спецификации iSCSI-3, в частности обеспечивать постоянное резервирование. Это обязательное требование динамической миграции. Оборудование почти всех поставщиков систем хранения данных соответствует стандарту iSCSI 3. Если нужно организовать кластер в лабораторной среде с небольшими затратами, обязательно убедитесь, что программное обеспечение цели iSCSI соответствует iSCSI 3 и требованиям постоянного резервирования. Старые версии Openfiler не поддерживают этот стандарт, в отличие от новой версии Openfiler с модулем Advanced iSCSI Target Plugin (http://www.openfiler.com/products/advanced-iscsi-plugin). Кроме того, бесплатная версия StarWind iSCSI SAN Free Edition компании StarWind Software (http://www.starwindsoftware.com/starwind-free) полностью совместима с Hyper-V и динамической миграцией. Некоторые версии Microsoft Windows Server также могут функционировать в качестве цели iSCSI, совместимой со стандартами iSCSI 3. В состав Server 2012 входит цель iSCSI. Windows Storage Server 2008 R2 поддерживает программное обеспечение цели iSCSI. Кроме того, можно загрузить программу Microsoft iSCSI Software Target 3.3 (http://www.microsoft.com/en-us/download/details.aspx? > Дополнительные сведения о настройке хранилища iSCSI для отказоустойчивого кластера приведены во врезке «Пример настройки хранилища iSCSI». Более подробно о требованиях к отказоустойчивой кластеризации рассказано в статье «Failover Clustering Hardware Requirements and Storage Options» (http://technet.microsoft.com/en-us/library/jj612869.aspx).

Добавление функций отказоустойчивой кластеризации

Первый шаг к созданию двухузлового отказоустойчивого кластера Server 2012 — добавление компонента отказоустойчивого кластера с использованием диспетчера сервера. Диспетчер сервера автоматически открывается при регистрации в Server 2012. Чтобы добавить компонент отказоустойчивого кластера, выберите Local Server («Локальный сервер») и прокрутите список вниз до раздела ROLES AND FEATURES. Из раскрывающегося списка TASKS выберите Add Roles and Features, как показано на экране 1. В результате будет запущен мастер добавления ролей и компонентов.

Экран 1. Запуск мастера добавления ролей и компонентов

Первой после запуска мастера откроется страница приветствия Before you begin. Нажмите кнопку Next для перехода к странице выбора типа установки, на которой задается вопрос, нужно ли установить компонент на локальном компьютере или в службе Remote Desktop. Для данного примера выберите вариант Role-based or feature-based installation и нажмите кнопку Next.

На странице Select destination server выберите сервер, на котором следует установить функции отказоустойчивого кластера. В моем случае это локальный сервер с именем WS2012-N1. Выбрав локальный сервер, нажмите кнопку Next, чтобы перейти к странице Select server roles. В данном примере роль сервера не устанавливается, поэтому нажмите кнопку Next. Или можно щелкнуть ссылку Features в левом меню.

На странице Select features прокрутите список компонентов до пункта Failover Clustering. Щелкните в поле перед Failover Clustering и увидите диалоговое окно со списком различных компонентов, которые будут установлены как части этого компонента. Как показано на экране 2, по умолчанию мастер установит средства управления отказоустойчивыми кластерами и модуль отказоустойчивого кластера для Windows PowerShell. Нажмите кнопку Add Features, чтобы вернуться на страницу выбора компонентов. Щелкните Next.

Экран 2. Добавление средства отказоустойчивого кластера и инструментов

На странице Confirm installation selections будет показана функция отказоустойчивого кластера наряду с инструментами управления и модулем PowerShell. С этой страницы можно вернуться и внести любые изменения. При нажатии кнопки Install начнется собственно установка компонентов. После завершения установки работа мастера будет завершена и функция отказоустойчивого кластера появится в разделе ROLES AND FEATURES диспетчера сервера. Этот процесс необходимо выполнить на обоих узлах.

Проверка отказоустойчивого кластера

Следующий шаг после добавления функции отказоустойчивого кластера — проверка настроек среды, в которой создан кластер. Здесь можно воспользоваться мастером проверки настроек в диспетчере отказоустойчивого кластера. Этот мастер проверяет параметры аппаратных средств и программного обеспечения всех узлов кластера и сообщает обо всех проблемах, которые могут помешать организации кластера.

Читайте также:  Сколько стоит honor 7 x

Чтобы открыть диспетчер отказоустойчивого кластера, выберите параметр Failover Cluster Manager в меню Tools в диспетчере сервера. В области Management щелкните ссылку Validate Configuration, как показано на экране 3, чтобы запустить мастер проверки настроек.

Экран 3. Запуск мастера проверки конфигурации

Сначала выводится страница приветствия мастера. Нажмите кнопку Next, чтобы перейти к выбору серверов или странице Cluster. На этой странице введите имена узлов кластера, который необходимо проверить. Я указал WS2012-N1 и WS2012-N2. Нажмите кнопку Next, чтобы показать страницу Testing Options, на которой можно выбрать конкретные наборы тестов или запустить все тесты. По крайней мере в первый раз я рекомендую запустить все тесты. Нажмите кнопку Next, чтобы перейти на страницу подтверждения, на которой показаны выполняемые тесты. Нажмите кнопку Next, чтобы начать процесс тестирования кластера. В ходе тестирования проверяется версия операционной системы, настройки сети и хранилища всех узлов кластера. Сводка результатов отображается после завершения теста.

Если тесты проверки выполнены успешно, можно создать кластер. На экране 4 показан экран сводки для успешно проверенного кластера. Если при проверке обнаружены ошибки, то отчет будет отмечен желтым треугольником (предупреждения) или красным значком "X" в случае серьезных ошибок. С предупреждениями следует ознакомиться, но их можно игнорировать. Серьезные ошибки необходимо исправить перед созданием кластера.

Экран 4. Просмотр отчета о проверке

Создание отказоустойчивого кластера

На данном этапе можно создать кластер, начиная с любого узла кластера. Я организовал кластер, начав на первом узле (WS2012-N1).

Чтобы создать новый кластер, выберите ссылку Create Cluster на панели Management или панели Actions, как показано на экране 5.

Экран 5. Запуск мастера создания кластера

В результате будет запущен мастер создания кластера, работа которого начинается со страницы приветствия. Нажмите кнопку Next, чтобы перейти на страницу выбора серверов, показанную на экране 6. На этой странице введите имена всех узлов кластера, затем нажмите кнопку Next.

Экран 6. Выбор серверов для кластера

На странице Access Point for Administering the Cluster следует указать имя и IP-адрес кластера, которые должны быть уникальными в сети. На экране 7 видно, что имя моего кластера WS2012-CL01, а IP-адрес — 192.168.100.200. При использовании Server 2012 IP-адрес кластера может быть назначен через DHCP, но я предпочитаю для своих серверов статически назначаемый IP-адрес.

Экран 7. Настройка точки доступа кластера

После ввода имени и IP-адреса нажмите кнопку Next, чтобы увидеть страницу подтверждения (экран 8). На этой странице можно проверить настройки, сделанные при создании кластера. При необходимости можно вернуться и внести изменения.

Экран 8. Подтверждение параметров, выбранных при создании кластера

После нажатия кнопки Next на странице подтверждения формируется кластер на всех выбранных узлах. На странице хода выполнения показаны шаги мастера в процессе создания нового кластера. По завершении мастер покажет страницу сводки с настройками нового кластера.

Мастер создания кластера автоматически выбирает хранилище для кворума, но часто он выбирает не тот диск кворума, который хотелось бы администратору. Чтобы проверить, какой диск используется для кворума, откройте диспетчер отказоустойчивого кластера и разверните кластер. Затем откройте узел Storage и щелкните узел Disks. Диски, доступные в кластере, будут показаны на панели Disks. Диск, выбранный мастером для кворума кластера, будет указан в разделе Disk Witness in Quorum.

В данном примере для кворума был использован Cluster Disk 4. Его размер 520 Мбайт, чуть больше минимального значения для кворума 512 Мбайт. Если нужно использовать другой диск для кворума кластера, можно изменить настройки кластера, щелкнув правой кнопкой мыши имя кластера в диспетчере отказоустойчивого кластера, выбрав пункт More Actions и Configure Cluster Quorum Settings. В результате появится мастер выбора конфигурации кворума, с помощью которого можно изменить параметры кворума кластера.

Настройка общих томов кластера и роли виртуальных машин

Оба узла в моем кластере имеют роль Hyper-V, так как кластер предназначен для виртуальных машин с высокой доступностью, обеспечивающих динамическую миграцию. Чтобы упростить динамическую миграцию, далее требуется настроить общие тома кластера Cluster Shared Volumes (CSV). В отличие от Server 2008 R2, в Server 2012 общие тома кластера включены по умолчанию. Однако все же требуется указать, какое хранилище следует использовать для общих томов кластера. Чтобы включить CSV на доступном диске, разверните узел Storage и выберите узел Disks. Затем выберите диск кластера, который нужно использовать как CSV, и щелкните ссылку Add to Cluster Shared Volumes на панели Actions диспетчера отказоустойчивого кластера (экран 9). Поле Assigned To этого диска кластера изменится с Available Storage на Cluster Shared Volume (общий том кластера), как показано на экране 9.

Экран 9. Добавление CSV

В это время диспетчер отказоустойчивого кластера настраивает хранилище диска кластера для CSV, в частности добавляет точку подключения в системном диске. В данном примере общие тома кластера включаются как на Cluster Disk 1, так и на Cluster Disk 3 с добавлением следующих точек подключения:

На данном этапе построен двухузловой кластер Server 2012 и включены общие тома кластера. Затем можно установить кластеризованные приложения или добавить в кластер роли. В данном случае кластер создан для виртуализации, поэтому добавляем роль виртуальной машины в кластер.

Чтобы добавить новую роль, выберите имя кластера на панели навигации диспетчера отказоустойчивого кластера и щелкните ссылку Configure Roles на панели Actions, чтобы запустить мастер высокой готовности. Нажмите кнопку Next на странице приветствия, чтобы перейти на страницу выбора роли. Прокрутите список ролей, пока не увидите роль виртуальной машины, как показано на экране 10. Выберите роль и нажмите кнопку Next.

Экран 10. Добавление роли виртуальной машины

На странице выбора виртуальной машины будут перечислены все VM на всех узлах кластера, как показано на экране 11. Прокрутите список и выберите виртуальные машины, которым необходимо обеспечить высокую готовность. Нажмите кнопку Next. Подтвердив свой выбор, нажмите Next, чтобы добавить роли виртуальной машины в диспетчер отказоустойчивого кластера.

Читайте также:  Где находится администрирование в windows 10
Экран 11. Выбор виртуальных машин, которым необходимо обеспечить высокую надежность

Пример настройки хранилища iSCSI

Для отказоустойчивого кластера Windows Server 2012 требуется общее хранилище, которое может быть типа iSCSI, Serially Attached SCSI или Fibre Channel SAN. В данном отказоустойчивом кластере используется Channel SAN.

Сначала в сети iSCSI SAN были созданы три логических устройства LUN. Один LUN был создан для диска кворума кластера (520 Мбайт). Другой LUN предназначен для 10 виртуальных машин и имеет размер 375 Гбайт. Третий LUN выделен для небольшой тестовой виртуальной машины. Все три LUN представлены в формате NTFS.

После того, как были созданы LUN, была выполнена настройка iSCSI Initiator на обоих узлах Server 2012. Чтобы добавить цели iSCSI, был выбран iSCSI Initiator в меню Tools в диспетчере сервера. На вкладке Discovery я нажал кнопку Discover Portal. В результате появилось диалоговое окно Discover Portal, куда были введены IP-адрес (192.168.0.1) и порт iSCSI (3260) сети SAN.

Затем я перешел на вкладку Targets и нажал кнопку Connect. В диалоговом окне Connect To Target («Подключение к целевому серверу») я ввел целевое имя iSCSI SAN. Оно было получено из свойств SAN. Имя зависит от поставщика SAN, имени домена и имен созданных LUN. Помимо целевого имени я установил режим Add this connection to the list of Favorite Targets.

По завершении настройки iSCSI эти LUN появились на вкладке Targets iSCSI Initiator. Чтобы автоматически подключать LUN при запуске Server 2012, я убедился, что они перечислены на вкладке Favorite Targets, как показано на экране A.

Экран A. Настройка iSCSI Initiator

Наконец, были назначены буквенные обозначения устройствам LUN с помощью оснастки Disk Management консоли управления Microsoft (MMC). Я выбрал Q для диска кворума и W для диска, используемого для виртуальных машин и общих томов кластера (CSV). При назначении буквенных обозначений необходимо сначала назначить их на одном узле. Затем нужно перевести диски в автономный режим и сделать аналогичные назначения на втором узле. Результаты назначения букв дискам для одного узла приведены на экране B. При создании кластера диски будут показаны как доступное хранилище.

Сразу отмечу, что многие, кто сталкивался с виртуализацией от Microsoft, ничего нового для себя не найдут — это небольшой гайд по созданию кластера на базе Hyper-V 2012 с некоторыми тонкостями, касающихся конкретной конфигурации.
Итак, что мы имеем:

  • Два сервера с внешним SAS портом и 4-х портовой сетевой картой
  • Дисковое хранилище HP P2000 G3 SAS
  • Коммутатор, а лучше два в стеке, с поддержкой LACP, в моем случае — это стек из двух Cisco 2960S

По заверениям MS, желательно иметь одинаковые контроллеры SAS, с одинаковыми драйверами и прошивками, на всех узлах кластера.

Так же нам потребуется:

  • Домен AD
  • Компьютер или ноутбук в домене с установленной ОС Windows 8 или 8.1, для управления
  • Средства удаленного администрирования сервера — RSAT для windows 8 или 8.1

Важно отметить, что для управляющего ПК, windows 7 не подойдет, т.к. некоторый функционал RSAT для win 7 не работает с серверами семейства 2012.

Скачиваем Hyper-V Server 2012, потребуется бесплатная регистрация, и любым, удобным для вас способом, ставим его на два наших сервера. Напомню, что мы используем Core версию, т.к. GUI нам на сервере не нужен.

Настраиваем сеть
В консоли сервера переходим в командную строку и далее в Powershell, одноименной командой, объединим все 4 интерфейса в один логический и зададим режим объединения LACP:
New-NetLbfoTeam –Name Team –TeamMembers “ethernet 2”,“ethernet 3”,“ethernet 4”,“ethernet 5”
Set-NetLbfoTeam -Name Team –TeamingMode LACP
На коммутаторах так же объединим нужные порты в Port-Channel c поддержкой LACP и включим на нем trunk:
Switch(config-if)#switchport mode trunk
Switch(config-if)#channel-group 1 mode active
После этого в списке сетевых адаптеров на сервере будет виден наш новый интерфейс Team в статусе Up:

И статус тиминга:

Дальше через псевдо-графическое меню можно присвоить настройки IP, включить удаленное управление, ввести в домен. После перезагрузки, можно будет воспользоваться удобным рабочим местом и все делать удаленно с помощью нашего ПК/ноутбука с Win 8/8.1 на борту.
Устанавливаем RSAT по ссылка выше, включаем компонент Hyper-V в панели управления — программы и можем уже управлять гипервизором, но нам нужен кластер.

Создаем кластер
Из оснастки диспетчер серверов, добавим наши сервера, и можем смотреть всю информацию по ним, от туда же подключаемся powershell’ом к серверу и добавляем компонент отказоустойчивого кластера:
Install-WindowsFeature Failover-Clustering
Install-WindowsFeature RSAT-Clustering-PowerShell
После этого уже из оснастки диспетчера отказоустойчивости создаем кластер через GUI либо через PS:
New-Cluster –Name HV-Cluster –Node Srv01,Srv02 –StaticAddress 192.168.10.5

Настраиваем общее хранилище
На хранилище выделяем два LUNa, один под виртуальные машины, второй под кворум (1Гб)
Инициализируем эти два диска на серверах через диспетчер дисков, преобразовываем их в GPT и форматируем, буквы можно не присваивать.
Чтобы кластерный тест принял эти диски необходимо поменять тип шины с RAID на SAS, (Источник HP) необходимо в реестре поменять параметр BusType с 8 на А по пути HKEY_LOCAL_MACHINESYSTEMCurrentControlSetServiceshpcisss2Parameters
Так же необходимо установить MPIO от Microsoft:
Install-WindowsFeature Multipath-IO
Добавляем поддержку SAS в оснастке mpiocpl и после перезагрузки в диспетчере дисков LUNы не будут двоиться если сервер подключен двумя SAS кабелями.
После данных манипуляций можно добавлять диски в оснастке диспетчера отказоустойчивости, там же делаем кворум из добавленного диска.

Создаем виртуальный коммутатор
Через оснастку Hyper-V создаем внешний виртуальный свич и ставим галку «Разрешить управляющей ОС предоставлять доступ к адаптеру», Vlan не ставим. Тоже самое через PS:
New-VMSwitch “Lan” –NetAdapterName “Team” –AllowManagementOS:$True
В самих виртуальных машинах, сможем добавлять несколько сетевых адаптеров с одинаковым виртуальным коммутатором но с разными Vlan.

На этом собственно все, дальше можно создавать виртуальные машины и помещать их на разделяемом хранилище, напомню, что общий диск монтируется в папку C:ClusterStorageVolume1

Комментировать
564 просмотров
Комментариев нет, будьте первым кто его оставит

Это интересно
Adblock
detector