VMware ESXi 7. 0 и неподдерживаемое оборудование
VMware ESXi 7.0 и неподдерживаемое оборудование
Disclamer: все дальнейшие рассуждения и действия не соответствуют политике технической поддержки VMware. Любое использование оборудования вне VMware HCL может быть использовано только на свой страх и риск. В статье рассматривается только то оборудование, на котором возможен технический запуск ESXi 6.7U3.
В связи с выходом платформы VMware vSphere 7.0 виртуальные системные администраторы стали анализировать возможность обновления либо внедрения данного продукта.
Если проблемы с vCenter 7.0 вполне решаемы и описаны в нашей статье Обновление VMware vCenter с версии 6.7 до 7.0, то с ESXi 7.0 всё не так просто.
Для «упрощения» работы администраторов VMware расширила функциональность Update Manager (VUM) полуавтоматическим анализом оборудования: сверкой моделей серверов с HCL, проверкой версий прошивок и драйверов компонентов. Данная функциональность уже была частично представлена в VSAN [Skyline] Health Hardware compatibility для дисковой подсистемы. Новая версия VUM стала называться vSphere Lifecycle Manager (vLCM). Для загрузки HCL следует в административном интерфейсе нажать ACTIONS->Sync HCL.
Мои ожидания от vLCM были примерно такие — запускаю на хосте Updates -> Hardware Compatibility и система пишет, что оборудование не в HCL, такие-то компоненты не имеют драйверов и не будут работать. В реальности, если сервер не в HCL, то на этом проверка останавливается:
Host model is not compatible with ESXi 7.0
Skipped checking host devices.
Что как бы нас совершенно не устраивает, так как наша цель — запуститься вне HCL, и хотелось бы понимать какие компоненты не имеют драйверов и поддержки.
Поэтому с компонентами придётся разбираться самостоятельно.
Во-первых, следует проверить процессор, так как без него дальнейшие шаги просто бесполезны. Мы писали ранее о процессорах, исключенных из поддержки в статьях: Прекращение поддержки процессоров в VMware vSphere 6.7 и Чего не будет в VMware vSphere 7.0? — то есть, если ваш процессор старее Intel Xeon E5-26xx v1, то можете выкинуть данный серверный хлам. Но! Для Westmere-EP (очень популярных Xeon _56xx) и Westmere-EX есть чит, который позволяет запускать ESXi 7.0 — Allow unsupported CPUs when upgrading to ESXi 7.0.
Во-вторых, критическими компонентами являются сетевые карты, FC-HBA и RAID/HBA-контроллеры. Без обнаружения сетевой карты установщик ESXi прекращает свою работу. Проблема в том, что для старых компонентов драйверов для ESXi 7.0 нет — количество драйверных пакетов уменьшено с 144 до 75.
Почему же в ESXi 7.0 произошла жёсткая отсечка старого оборудования? Для понимания оглянемся назад на 6-7 лет — в 2013-2014 годы. В платформе vSphere 5.5 компания VMware объявила о новой модели Native Device Driver вместо портированных с Linux-драйверов, работающих через посредника API vmklinux. Почитать о NDD можно в статьях William’a Lam’a: ESXi 5.5 introduces a new Native Device Driver Architecture Part 1(по-русски), Part 2.
Если раньше для решения проблем приходилось отключать новые драйверы, например, Отключение VMware ESXi Native Driver, то в семёрке убрали vmklinux.
Для тестов мы запустили скрипт на стенде со старыми серверами IBM (процессоры Xeon x56xx, E5-26xx v1):
Теперь наша задача — понять, насколько критичны данные компоненты для функционирования, есть ли для них драйверы в формате Native Device Driver.
Для понимания общей картины прекращения поддержки устройств следует ознакомиться с КБшечкой и приложениями:
- Devices deprecated and unsupported in ESXi 7.0 (77304)
https://kb.vmware.com/s/article/77304?lang=en_US
https://kb.vmware.com/sfc/servlet.shepherd/version/download/0685G00000SsY5UQAV
Один из серверов нашего стенда — IBM BladeCenter HS23, в отличие от HS22v и x3650 M2, имеется в VMware HCL (уже убрали )! А это значит, что мы можем воспользоваться вышеупомянутым функционалом vLCM проверки хостов черех Updates -> Hardware Compatibility:
Результат удовлетворительный — система на HS23 рабочая для тестовых нужд, но без RAID, который имеет старый тип драйвера. Кусочек успешной проверки на совместимость RAID с ESXi 6.7U3:
Мы у себя не используем локальные диски серверов, а устанавливаем ESXi на USB-накопители/SD-карты. В ESXi 7.0 требования к загрузочным накопителям и раскладка томов изменились, советую ознакомиться со следующей документацией:
В итоге, мы можем использовать IBM BC HS23 в качестве стенда для ESXi 7.0, а вот серверы на процессорах Intel Xeon _56xx пора списывать — их время ушло.
P.S. Для Intel Xeon _56xx остаётся чит, но это сильно на любителя, также без правки конфигурационных файлов он работает только до перезагрузки сервера. Скорее всего будут проблемы и с драйверами.
Update 03082020. Проверка совместимости с помощью образа ESXi 7.0
Для определения Device ID неподдерживаемых устройств в vCenter 7.0 vLCM добавляем ISO с ESXi 7.0, делаем ATTACH Baseline с образом, запускаем CHECK COMPLIANCE, смотрим на ошибки и варианты решения:
- The upgrade has VIBs that are missing dependencies: перечисление VIB’ов
- Взять Custom-образ от производителя
- или собрать свой Custom-образ,
- или удалить VIB (если это не драйверы сетевых карт) и заново запустить обновление.
- The boot disk has a size of 1024MB, the minimum requirement of the upgrade image is 3814MB.
- Заменить загрузочный диск на большего размера — не менее 8 ГБ ( 4 ГБ можно использовать только при обновлении с 6.7, в данном случае проще поставить ESXi 7.0 с нуля, а это потребует 8 ГБ).
- Unsupported devices [перечисление Device ID] found on the host.
- Необходимо понять сможете ли жить без этого контроллера — устройство по идентификатору, обычно, легко ищется. Например, если итак RAID не используется, то теперь его не будет в ОС совсем. Некоторые контроллеры имеют неподдерживаемые драйверы, проверяйте, что они в модели NDD.
Update 04082020. Поддержка гигабитных карт Intel типа NE1000
1-гигабитные карты Intel c драйвером NE1000 перестали поддерживаться VMware в официальном канале и ушли на поддержку в community. Драйвер можно взять по ссылке из статьи Enhancements to the community ne1000 VIB for Intel NUC 10, а инструкция по установке приведена в How to patch Intel NUC 10 with latest ESXi 7.0 update?
VMware Esxi – виртуализация уровня предприятия
Сколько же версий у такого продукта как Esxi? Существует две версии Esxi:
- Esxi embedded – поставляется на CompactFlash с серверами HP, IBM, DELL.
- Esxi installable – тот же Esxi, единственное отличие, как видно из названия, – его можно установить самому.
Какая разница между Esx и Esxi?
Главное отличие Esx от Esxi – это наличие сервисной консоли, которая имеет размер около 2 Гб, сам же гипервизор VMkernel очень маленький. Сервисная консоль для Esx строится на базе RedHat, видимо, поэтому многие думают, что Esx это разновидность Linux. Esxi cостоит из очень маленького по размеру Linux и гипервизора. Для простоты установки и администрирования из него было вырезано все от «старшего брата». Без большой составляющей Linux-консоли он занимает 32 Мб. Подробнее обо всех отличиях Esx и Esxi можно узнать из официальной документации [1].
Функционал бесплатной версии
Опишу, какие технологии все-таки поддерживает Free License Esxi:
- VMFS – файловая система, разработанная компанией VMware специально для работы виртуальных машин. Подробнее об этой файловой системе можно прочитать в официальной документации [2].
- Virtual SMP – обеспечивает поддержку многопроцессорности в виртуальных машинах.
- Core hypervisor functionality – собственно сам гипервизор.
Перейдем к установке Esxi. Для этого нам понадобится установочный дистрибутив, его можно найти по ссылке [3]. Регистрация на сайте бесплатная. После регистрации и загрузки Esxi на регистрационный адрес будет автоматически доставлена ссылка на ключ, который в дальнейшем понадобится. Записываем образ на диск, вставляем в CD/DVD-привод и загружаем сервер. Полный список поддерживаемого оборудования можно найти по ссылке [4].
После загрузки и инициализации оборудования получаем простенькое меню – понятно, что о красивой графике речь не идет. Начнем установку, нажав клавишу <Enter>.
Читаем условия лицензии и подтверждаем, нажав клавишу <F11>. Далее нам предлагают выбрать жесткий диск, на который мы можем установить Esxi.
Выбираем диск, нажимаем <F11> для установки. Вся инсталляция по времени не занимает и 5 минут; после установки необходимо перезагрузить сервер.
Сервер загрузился, необходимо произвести минимальные настройки (см. рис. 1). Установим пароль суперпользователя root и настроим сеть управления: configure root password и configure management network соответственно. Производим настройки IP, шлюз, имя хоста и DNS.
Рисунок 1. Меню настроек
После настройки сервер предложит перезапустить management network для применения настроек. После перезапуска мы с помощью браузера можем перейти по ссылке http://имя_или_адрес_нашего_Esxi.
Устанавливаем клиент, настраиваем сервер
В отличие от старшего брата, у Esxi нет консоли управления через web. Для управления сервером нам необходимо установить клиент VMware Infrastructure Client, ссылка на который находится на странице приглашения.
После установки клиента запускаем приложение и входим под учетной записью root, используя пароль, который мы вводили на этапе конфигурирования (см. рис. 2).
Рисунок 2. VMware Infrastructure Client
Мы попадаем в консоль управления Esxi. Первое, что мы сделаем, это введем наш лицензионный ключ: как вы видите, без ключа у нас есть всего 60 дней на использование продукта.
Переходим на вкладку Configuration, выбираем «License Source – Edit…» Переходим по ссылке, которую мы получили на этапе загрузки инсталляционного дистрибутива, и вводим полученный ключ (см. рис. 3).
Рисунок 3. Настройка лицензий
После этой операции мы получаем лицензионный Free License Esxi, не ограниченный по времени использования. На закладке Configuration размещаются настройки сети, хранилищ, SAN-адаптеров, времени и лицензирования. На закладке Virtual Machines мы можем посмотреть статус виртуальных машин, количество оперативной памяти, которые они потребляют, а также загрузку процессора. Загрузку Esxi-сервера по памяти, процессору, диску, сети можно посмотреть на закладке Performance.
У меня на сервере, как и на большинстве серверов, имеются две сетевые карты. Настроим их, как показано на рис. 4. Одна сетевая карта необходима только для конфигурирования Esxi (Management Network), вторая будет использоваться виртуальными машинами (VM Network).
Рисунок 4. Схема сети
Переходим на следующую закладку: Configuration, раздел Network, добавляем сеть – Add Network. В мастере выбираем Virtual Machine, указываем сетевую карту, которая будет отвечать за VM Network.
Сохраняем настройки. Теперь необходимо удалить существующую VM Network. Для этого в Properties первой сетевой карты выполним Remove VM Network.
После всех настроек должна получиться конфигурация, показанная на рис. 5.
Рисунок 5. VM Network и Mananagement Network
Создаем виртуальные машины
Esxi, как и Esx, обеспечивает виртуализацию всех массовых операционных систем, таких как: Windows 2008, 2003, Vista, XP, 2000, NT 4.0, Linux, Solaris, Netware. Полный список поддерживаемых операционных систем можно узнать по ссылке [5].
Приступим к установке гостевой операционной системы. Для этого необходимо создать виртуальную машину. На закладке Getting Started нажимаем на ссылку Create a new virtual machine, запустится мастер, который поможет нам создать первую виртуальную машину. Мы будем использовать стандартные настройки, введем имя виртуальной машины, укажем, где будут храниться ее диски и настройки: какая гостевая операционная система у нас будет установлена (в моем случае Windows 2003 Server), количество процессоров и памяти; сетевая карта VM Network, объем жесткого диска виртуальной машины. Все настройки зависят только от аппаратного обеспечения сервера.
В настройках виртуальной машины мы можем указать, с какого CD/DVD-привода источника начать инсталляцию. Это может быть CD/DVD-ROM клиента VMware Infrastructure, сервера, хранилище ISO-образов.
Включаем виртуальную машину и монтируем нужный нам CD/DVD-ROM либо образ ISO. Переходим на закладку Console и начинаем устанавливать операционную систему (см. рис. 6).
Рисунок 6. Запуск первой виртуальной машины
После установки виртуальной машины нам необходимо установить VMware tools. Все работает и без них, но VMware tools содержат дополнительные драйверы и компоненты, поэтому хуже не будет. Для установки нажимаем правой клавишей мыши на нашу виртуальную машину второй кнопкой и выбираем меню Install/Upgrade VMware tools, на гостевой операционной системе запустится инсталляция. Если у вас на гостевой операционной системе по умолчанию выключен автозапуск, необходимо перейти на CD/DVD-ROM и вручную запустить Setup.exe. Если в качестве гостевой операционной системы выступает Linux, монтируем CD/DVD-ROM и запускаем RPM или распаковываем и компилируем tar.gz. Запускаем скрипт конфигурирования vmware-config-tools. Для конфигурации могут понадобиться gcc и исходники ядра.
Теперь машина полностью готова к работе.
Полный контроль? Unsupported
Данный режим не поддерживается официально, но все же бывают случаи, когда необходимо получить доступ на сервер по SSH и исправить настройки, например для драйверов. Также только из консоли можно создавать thin-диски для виртуальных машин с помощью vmkfstools (такие диски увеличиваются в объеме только с наполнением данных, по умолчанию диск занимает все место, отведенное под него). Возможно, в следующей версии это будет реализовано в клиенте VMware Infrastructure.
После загрузки Esxi нажимаем <ALT> + <F1> и набираем в консоли unsupported (символов не видно), вводим пароль root и попадаем в консоль. Теперь нам необходимо сделать доступ через ssh, для этого редактируем файл /etc/inetd.conf:
Раскомментируем строку c SSH, сохраняем файл и выходим. Перезапускаем inetd:
#ps –aux | grep inetd
#kill «имя полученного процесса»
Теперь мы можем заходить на наш сервер любым клиентом SSH, но нас будут предупреждать, что данный режим не поддерживается.
Бэкап Esxi – это сомнительное мероприятие: установка 5 минут и настройка 10, все машины лежат на диске. Делать или не делать бэкап? Выбор за вами. Если не хотите в критический момент заниматься настройкой сети и устанавливать пароли, то создаем бэкап. Для этого нам понадобится VMware Infrastructure Remote CLI, найти его можно по ссылке [6]. Качаем и устанавливаем. Далее запускаем скрипт, который по умолчанию находится по адресу C : Program Files VMware VMware VI Remote CLI bin :
vicfg-cfgbackup.pl —server <server_name> -s <backup_file_name> для создания бэкапа
vicfg-cfgbackup.pl —server <server_name> -l <backup_file_name> для восстановления
После восстановления необходимо перезагрузить сервер.
Мы рассмотрели основные настройки Esxi, использование которого даст вам возможность виртуализации уровня предприятия. В следующей статье рассмотрим, как на основе Esxi построить отказоустойчивый кластер.
Первоначальное развертывание vCenter на ESXi
Первым делом скачиваем VMware vCenter.
Для этого заходим на my.vmware.com и заходим под своим e-mail, зарегистрированным в момент покупки vSphere или запроса trial.
Настройка кластера VMware High Availability (HA) под ключ | ESXi |
Установка vCenter
Выбираем редакцию vSphere, которую мы приобрели.
В нашем случае, это vSphere Enterprise Plus 6 .
Выбираем версию, актуальную на сегодня. Для нас — это 6.7
Выбираем для скачивания и установки VMware vCenter Server Appliance
VMware vCenter
И скачиваем VMware vCenter.
После скачивания iso с vCenter у нас как минимум 2 варианта: примонтировать .iso через ESXi к машине администратора или с помощью архиватора извлечь содержимое .iso файла в соседнюю папку.
Мы извлекаем файлы с помощью архиватора.
Запускаем installer.exe.
Указываем адрес хоста ESXi, логин и пароль для доступа к нему.
Указываем название виртуальной машины и root пароль для доступа к консоли этой машины.
Сейчас он нам не понадобится, но потом, может.
В зависимости от количества ESXi хостов и количества виртуальных машин выбираем размер vCenter.
Дальше нам понадобится внутренний FQDN для vCenter.
Смотрим, какой установлен DNS у рабочей станции, с которой мы запустили процесс установки.
Так получилось, что у нас доменная машина, поэтому заходим на домен контроллер и добавляем DNS запись для vCenter: vcenter- 67-31032020 .vgrade-dc.local и ip адрес 192.168.0.108 .
Далее указываем созданный ранее FQDN, ip, шлюз и DNS .
И запускаем установку.
После того, как установка закончилась, переходим к конфигурированию vCenter.
Конфигурирование vCenter
Адрес ниже позволит в любой момент изменить конфигурацию vCenter, но сейчас он нам не понадобится.
Выбираем синхронизацию времени через ESXi.
И вообще, можно задуматься о том, чтобы все виртуальные машины на хостах ESXi синхронизировались через VM tools c хостами, а хосты синхронизировались, например, с домен контроллером.
SSH доступ сейчас не понадобится, а включить его мы всегда сможем.
Single Sign-On domain name ставим vsphere-<номер версии>.local.
Мы не рекомендуем использовать vsphere.local (в одной из более ранних версий vCenter были некоторые проблемы с доменом vsphere.local, с тех пор мы не проверяли, как себя ведет это предлагаемое название, вероятно, уже все давно хорошо, но предпочитаем что-то немного отличающееся).
Установка закончена. Заходим по указанному адресу.
Вводим учетные данные, которые мы указывали на этапе конфигурирования.
Первым делом добавим лицензии, если они есть. Выбираем Manage your licences вверху.
Лицензии можно найти в личном кабинете по адресу my.vmware.com
После того, как мы ввели лицензию, ее надо применить.
Для этого меню Assets → Assign License и выбираем vCenter, к которому нужно применить лицензию.
И какую какую лицензию применить.
Далее переходим в Menu → Hosts and Clusters
В Actions выбираем New Datacenter. В этот датацентр будут позже добавлены ESXi.
Называем его как-нибудь, например, по адресу дата центра.
Переходим в этот дата центр и в Actions выбираем Add Host. Тут добавим ESXi.
Указываем ip адрес хоста ESXi
Учетные данные хоста ESXi
После этого ESXi добавится в vCenter.
Можно повторить операцию добавления ESXi хостов для всех имеющихся ESXi и управлять ими из единого интерфейса vCenter.
VMware ESXi
VMware ESXi — это специализированный аппаратный гипервизор. ESXi устанавливается непосредственно на физический сервер и разделяет его на несколько логических серверов, которые называются виртуальными машинами.
Заказчики могут использовать продукт ESXi бесплатно вместе с бесплатной версией VMware vSphere Hypervisor или приобрести его в составе платной редакции vSphere
Содержание
Возможности
Повышенная надежность и безопасность. Средства управления аппаратным гипервизором ESXi встроены в ядро VMkernel, благодаря чему объем необходимого дискового пространства сокращается до 150 Мбайт. Это значительно снижает уязвимость гипервизора к атакам вредоносного ПО и сетевым угрозам и, как следствие, делает его более надежным и безопасным.
Оптимизация развертывания и настройки. Архитектура ESXi имеет меньше параметров настройки и более удобна в развертывании, поэтому виртуальную инфраструктуру на ее основе легче обслуживать.
Снижение расходов на управление. Для мониторинга оборудования и управления системой vSphere ESXi использует модель интеграции партнерских API-интерфейсов без агентов. Задачи управления выполняются через интерфейс командной строки vSphere Command Line Interface (vCLI) и интерфейс PowerCLI, который использует командлеты Windows PowerShell и сценарии для автоматизации управления.
Упрощенная установка исправлений и обновлений гипервизора. Меньше исправлений — меньше длительность и число окон планового обслуживания.
Технические сведения
Повышение безопасности. Оптимизация доступа на основе ролей и средств контроля исключает зависимость от общей учетной записи привилегированного пользователя. Пользователям и группам можно назначить полные права администрирования. Для выполнения административных задач нет необходимости иметь общий доступ или стандартную учетную запись суперпользователя.
Расширенные возможности ведения журналов и аудита. VMware vSphere ESXi ведет журналы всей активности пользователей через оболочку и интерфейс прямой консоли. Ведение журналов обеспечивает учет пользователей и упрощает аудит активности пользователей.
vMotion. VMware vSphere обеспечивает перенос работающих виртуальных машин целиком с одного физического сервера на другой без простоя. Поддерживается перенос работающих виртуальных машин по кластерам, распределенным коммутаторам и серверам vCenter, а также на большие расстояния (время на передачу и подтверждение до 100 мс).
Возможности виртуальных машин
Виртуальные машины, работающие на основе vSphere ESXi, предоставляют следующие возможности:
- Поддержка до 128 виртуальных ЦП на виртуальной машине.
- Поддержка до 4 Тбайт ОЗУ.
- Поддержка устройств USB 3.0 новым контроллером хHCI.
- Поддержка до 120 устройств на виртуальную машину благодаря новому интерфейсу Advanced Host Controller Interface.
- Максимальный объем VMDK-диска — 62 Тбайт.
- Возврат дискового пространства в пул ресурсов при освобождении хранилища гостевой ОС.
Улучшенная технология виртуализации ЦП подразумевает передачу виртуальной машине более подробных данных об архитектуре ЦП узла. Это предоставляет более широкие возможности для отладки, регулирования и устранения неисправностей операционных систем и приложений на этой виртуальной машине. Увеличение эффективности ЦП за счет поддержки технологии Large Receive Offload, которая объединяет входящие TCP-пакеты в один крупный пакет.
Интеграция с Active Directory. Узлы vSphere ESXi можно подключить к домену Active Directory. После этого Active Directory сможет выполнять проверку подлинности пользователей и устранит необходимость в создании локальных пользовательских учетных записей на каждом узле.
Централизованное управление образами узлов и настройка через Auto Deploy. Сочетание в VMware vSphere Auto Deploy возможностей профилей узлов, Image Builder и среды PXE упрощает установку и обновление серверов. В библиотеке Auto Deploy централизованно хранятся образы узлов vSphere. Администраторы имеют возможность автоматически инициализировать новые узлы на базе определенных пользователем правил, и процесс перестройки узла происходит так же быстро, как и обычная перезагрузка.
Брандмауэр без сохранения состояния. vSphere ESXi представляет собой ориентированный на службы брандмауэр без сохранения состояния, который настраивается с помощью клиента vSphere или через командную строку ESXCLI. Модуль брандмауэра использует наборы правил портов, определяемых администраторами для каждой службы. Дополнительно можно задать диапазоны или отдельные IP-адреса, которым разрешен доступ к службам узла.
Управление
Для управления VMware ESXi используются API-интерфейсы. Таким образом обеспечивается мониторинг оборудования и управление системой без установки агентов. Кроме того, предоставляются интерфейсы удаленных командных строк, такие как vSphere Command Line Interface (vCLI) и PowerCLI, что обеспечивает более надежный контроль выполнения сценариев и команд. Такие наборы удаленных командных строк содержат разнообразные команды для настройки, диагностики и устранения неполадок. Для низкоуровневой диагностики и начальной настройки можно применять командную строку или меню, доступные в локальной консоли сервера.
При установке исправлений и обновлений для узлов VMware vSphere, на которых работает ESXi, обеспечиваются гибкость и контроль. В ходе установки исправлений обновляются и изменяются только определенные модули, что дает администраторам возможность сохранить все предыдущие обновления других компонентов. Независимо от своего расположения (на диске или во встроенной флэш-памяти), гипервизор ESXi применяет подход, задействующий как обновленный, так и исходный образы. При установке исправления новый образ копируется на узел, а загрузчик изменяется таким образом, чтобы этот образ можно было использовать. При возникновении проблем в ходе установки обновления или необходимости возврата к предыдущему образу администратору достаточно начать перезагрузку узла, а затем прервать ее, одновременно удерживая клавиши Shift и R. В этом случае узел будет использовать исходный образ.
Развертывание
Поддерживаются различные методики развертывания: с помощью программы установки ESXi, с использованием сценариев и сетевая установка с использованием среды PXE. Эти сценарии запускаются локально на узле vSphere, и их можно использовать для выполнения различных задач, например для настройки виртуальной сети узла и подключения к серверу VMware vCenter.
vSphere ESXi поддерживает установку на такие носители, как локальные жесткие диски, логические тома FC, iSCSI или FCoE LUN, USB-накопители, SD-карты, а также сетевую загрузку через среду PXE.
Мониторинг оборудования (В том числе SNMP)
Модель CIM — это открытый стандарт, определяющий характеристики платформы мониторинга аппаратных ресурсов узлов vSphere, на которых развертывается архитектура ESXi. Особенностями такой платформы являются отсутствие агентов и использование стандартов в качестве основы. В состав этой платформы входит диспетчер объектов CIM, который также называют брокером CIM, и набор подключаемых модулей — поставщиков CIM.
Доступ для управления драйверами устройств и соответствующим оборудованием реализован с помощью поставщиков услуг управления облачной инфраструктурой (CIM). Поставщики оборудования, в том числе производители серверов и специализированных устройств, могут регистрировать таких поставщиков для мониторинга и администрирования собственных устройств.
Это относится и к компании VMware, которая разрабатывает модули для мониторинга инфраструктуры серверного аппаратного хранилища и ресурсов, используемых для виртуализации. Эти модули работают на узле vSphere, поэтому они занимают очень мало места и применяются для выполнения конкретных задач в области управления. Брокер CIM собирает данные всех поставщиков CIM и выводит их во внешнюю инфраструктуру с использованием стандартных API-интерфейсов, таких как WS-MAN и CIM-XML. Любое программное средство, которое поддерживает один из этих API-интерфейсов, например HP SIM или Dell OpenManage, может считывать эту информацию и, соответственно, выполнять мониторинг оборудования узла vSphere.
Одной из точек обработки данных CIM является сервер VMware vCenter. В клиенте или веб-клиенте vSphere можно в любой момент просмотреть состояние оборудования любого узла vSphere в среде. Таким образом формируется единое представление показателей работоспособности физических и виртуальных компонентов системы. Можно также настроить сервер vCenter для отправки оповещений, чтобы своевременно узнавать о таких событиях в физической инфраструктуре, как изменение температуры или отключение электричества, а также о серьезных отклонениях от заданных параметров. Кроме того, решение vSphere использует стандарт SNMP для передачи данных о состоянии оборудования другим средствам управления, которые применяют этот же стандарт. Доступ к ловушкам SNMP возможен как с узла vSphere, так и с сервера vCenter.
Управление системами и резервное копирование
Интеграция продуктов управления системами и резервным копированием с платформой vSphere осуществляется через API-интерфейсы vSphere. Партнерская модель интеграции на основе API-интерфейсов значительно сокращает расходы на управление за счет исключения необходимости в установке и администрировании агентов операционной системы консоли.
Компания VMware тесно сотрудничала с экосистемой партнеров, чтобы реализовать поддержку модели интеграции на базе API-интерфейсов (используемую для гипервизора ESXi) во всех партнерских продуктах. В результате на сегодняшний день большинство решений по управлению системами и резервному копированию, поставляемых партнерами из экосистемы VMware, поддерживают ESXi.
Ведение журналов
Ведение журналов необходимо для устранения неполадок и для обеспечения соответствия нормативным требованиям. Решение vSphere объединяет журналы всех системных компонентов, используя стандартный отраслевой формат syslog, и может отправлять их на центральный сервер ведения журналов. Постоянная запись информации в файл, который находится в доступном локальном хранилище данных, связанном с узлом vSphere, выполняется автоматически.
Для обеспечения точности данных в журнале и соответствия нормативным требованиям важно, чтобы узел vSphere был постоянно синхронизирован с источником точного времени. Это также важно в случае, если узел используется для поддержания точного времени на гостевых виртуальных машинах. Узлы vSphere имеют встроенные средства для синхронизации с серверами времени NTP.
Проверка подлинности пользователей
Несмотря на то что для запуска всех повседневных процессов достаточно сервера vCenter, выполнение некоторых задач (например, резервного копирования конфигураций и доступа к файлам журналов) невозможно без непосредственного доступа к узлу vSphere. Для управления доступом можно настроить узлы vSphere таким образом, чтобы они подключались к домену Active Directory, а подлинность всех пользователей при получении доступа к узлу автоматически проверялась по централизованному каталогу. Кроме того, с помощью клиента vSphere или интерфейсов командной строки vCLI и PowerCLI на каждом узле можно создавать и настраивать локальные учетные записи пользователей. Второй вариант можно использовать как вместо интеграции с Active Directory, так и вместе с ней.
Можно также создавать локальные роли, аналогичные ролям vCenter, которые будут определять права пользователей для этого узла. Например, пользователю может быть предоставлен доступ в режиме «только для чтения» (то есть разрешение просматривать информацию узла) или права администратора, с которыми можно не только просматривать, но и изменять конфигурацию узла. Если узел интегрируется с доменом Active Directory, локальные роли могут предоставляться также пользователям и группам AD.
По умолчанию в системе определен только привилегированный пользователь. Начальный пароль привилегированного пользователя устанавливается интерактивно через пользовательский интерфейс прямой консоли (DCUI) или задается автоматически в ходе установки. Затем его можно изменить с помощью клиента vSphere или интерфейсов командной строки vCLI и PowerCLI.
При использовании платформы vSphere пользователи могут получить права администратора, которые автоматически предоставляют доступ ко всей оболочке. С такими правами они не обязаны регистрироваться как привилегированный пользователь с помощью команды su, чтобы выполнять команды соответствующего уровня.
Платформа vSphere поддерживает запись всех действий, выполненных на узле через оболочку или интерфейс DCUI, в журнал под учетной записью текущего пользователя. Таким образом обеспечивается учет пользователей и упрощается мониторинг и аудит активности на узле.
Диагностика
Пользовательский интерфейс прямой консоли (DCUI). DCUI — это интерфейс на основе меню, доступный в консоли физического сервера с установленным или встроенным гипервизором ESXi. Он используется в первую очередь для первоначальной настройки узла (IP-адреса, имени узла, пароля привилегированного пользователя) и диагностики. В интерфейсе DCUI предусмотрено несколько элементов меню, которые используются для диагностики и предоставляют администратору следующие возможности.
- Перезапуск всех агентов управления, в том числе:
- hostd
- vpxa
- vpxa
- Исправление неверных параметров vSphere Distributed Switch
- Сброс всех параметров до значений по умолчанию
- Локальный доступ (на консоли узла)
- Удаленный доступ (на основе протокола SSH)
Интерфейс командной строки vSphere
Интерфейс командной строки vCLI содержит множество команд для устранения неполадок, в том числе следующие.
- esxcli
- vmkfstools
- vmware-cmd
- resxtop
- Оболочка ESXi
Оболочка ESXi — это локальная консоль для предоставления расширенной технической поддержки. Доступ к оболочке можно получить как через локальную консоль узла, так и удаленно, по протоколу SSH. Управление доступом к оболочке ESXi осуществляется следующими способами.