Ayaklimat.ru

Климатическая техника
1 просмотров
Рейтинг статьи
1 звезда2 звезды3 звезды4 звезды5 звезд
Загрузка...

Отдам сервер, почти бесплатно, для вашего проекта/домашнего использования

Supermicro X8DTH-i

Материнская плата Supermicro X8DTH-i, 12 модулей оперативной памяти по 4 Гб, контроллер Adaptec HBA 2100 8i, при подключенном контроллере и созданном рейде, оперативной отображается 32 гига, отключаю контроллер 48. Обновил прошивки и материнки и контроллера, проверил оперативку, в биосе порылся ничего не меняется. В чем может быть причина?

OBS aka low fps. (x9drh, 2650v2) памагите.

Вечер в серверную, бородатые локалхостеры.
Столкнулся с проблемой, довольной странной по сути.
Имеем:
Gentoo
Supermicro X9DRH-7TF/7F/iTF/iF/X9DRH-7TF/7F/iTF/iF, BIOS 3.3 07/13/2018
Xeon 2650v2 [x2]
8800GT (nouveau, glxgears дает 1045fps)
32gb ram (по две плашки на сокет)

Установил obs. Добавил десктоп (xshm, :0.0). И ХОБА!! 25fps. Просто от того, что добавил!! Отключение предпросмотра на ситуацию никак не влияет.
Ладно. Взял этот ssd с рутом и поставил на Asrock z87 с i5-4430 и соответственно HD4600.
Всё норм. obs дает 60fps, десктоп_&_компызь не лагает.
Ладно, взял свободный винт, накатил на z87 мамке бубнту, поставил obs — 60fps.
ОК! Поставил на x9drh этот винт и забутался. Вау. glxgears дают какого хрена 1400fps. O_O.
Что за магия нах??
НО! obs в бубтне так же еле еле 24fps дает.

ОК!! Взял 120гб ссд и поставил туда windows10. Накатил 340 дрова.Всё что можно проапдейтилось.
Поставил obs и добавил десктоп. C*******ка!! 60 fps. Да как так то, едрить ее!

Ладно, поставил libndi на main (офтопек также), запустил плагин на стрим, на x9drh в винде тоже поставил, добавил, всё норм, ни лагов ни дропов, 60fps.
—————-
Возникает вопрос.
Какого хрена!! В ЧЕМ отличается поведение (винды и обс) и (any_linux и обс) именно на ЭТОЙ мамке??

Вообщем, памагите хто чем багат.
Шо делать, куда зокапыватцо?

Supermicro, Aspeed и Intel Video.

Вопрос тем кто запускал данную конфигурацию. Будет ли работать сетевая видеокарта aspeed 2500 + BMC, если установлен процессор со встроенной видеокартой?

SYS-1029P-WTR — LAN problem

Dobriy vecer. Pishu vam iz Yuqa (prostite za translit).

U mena tut stoit Supermicro 1029P-WTR. Pocemu-to ne qorat` oba LAN. Kontroller obsalutno necevo ne vidit. V BIOS-e LAN Enabled. Ya obsalutno ne ponimayu v cem dela. Po IPMI podklucaemsa, no ne vidit ethernet LAN.

V korobke stoyalo BIOS 3.0 no mi zdelali downgrade na 2.2 tak kak 3-ya podderzhivalo tolko 4 bloka CPU. Podozrevaem shto u etoy versii BIOS-a, net podderzhki LAN. Xotya ya licno somnevayus.

Kto cem mozhet pomoch?

Supermicro+Proxmox. Проблема с выключением.

Здравствуйте. Имеется сервер Supermicro SYS-2028R-C1R4+. Устанавливал Proxmox6.1/6.0/5.4.При выключении через web-интерфейс Proxmox, либо через консоль командой shutdown — хост корректно вырубается и сразу стартует обратно. Как будто команда была reboot. Через IPMI Power Off/On — работают корректно. Сервер новый из коробки. Биос самой последней версии, какая была доступна на сайте производителя. Пробовал обновлять Proxmox из репы без платной подписки. Три разных версии Proxmox. Без успеха. С кнопки на передней панели после выключения тоже сразу включается обратно. Кнопка исправна. Биос сбрасывал. ACPI отключал. Все возможные комбинации настроек power managment в биос пробовал. Переферию отрубал. Что делать уже не знаю. Посоветуйте плиз. Что делать?

Потянет ли Supermicro X8DTU Intel Xeon X5690

Столкнулся с вопросом. Есть сервак, на базе Supermicro X8DTU. На сайте производителя сказано, что он поддерживает процессоры: Xeon®Processor 5600 Series (Westmere). В данной линейки до процессоров Intel Xeon X5674 энергопотребление идет 90 ватт. Но вот есть в этой же линейки процессор Intel Xeon X5690, вот он уже потребляет до 120 ватт. На сайте производителя нет четкой информации по данному вопросу.
Есть у кого опыт использования данной метеринке в связке с данным процессором?

Ошибка при сборке .deb пакета ipmiview для Supermicro

Попытался согласно этой инструкции сделать .deb пакет ipmiview но получил вот такую ошибку при сборке:

dpkg-source: инфо: используется формат исходника «3.0 (quilt)» dpkg-source: инфо: сборка ipmiview с использованием существующего ./ipmiview_2.12.0+build160804.orig.tar.gz patching file IPMIView20 Hunk #1 FAILED at 1479. 1 out of 1 hunk FAILED dpkg-source: инфо: заплата содержит неточность (fuzz), что запрещено, или имеет некорректный формат dpkg-source: инфо: если заплата «strings.patch» корректно накладывается quilt, используйте «quilt refresh» для её обновления dpkg-source: ошибка: LC_ALL=C patch -t -F 0 -N -p1 -u -V never -E -b -B .pc/strings.patch/ –reject-file=- < IPMIView_2.12.0_build.160804_bundleJRE_Linux_x64.orig.y3kOTH/debian/patches/strings.patch subprocess returned exit status 1 dpkg-buildpackage: ошибка: dpkg-source -b IPMIView_2.12.0_build.160804_bundleJRE_Linux_x64 subprocess returned exit status 2

Читайте так же:
Установка операционной системы на slave

Похоже, причина в устаревшем патче, накладываемом из файла ipmiview_2.12.0+build160804-1

Кто сможет поправить патч, собрать и выложить .deb пакет последней версии IPMIView? Последнюю версию IPMIView брал отсюда

Температура северного моста.

Какая норма температуры для северного моста:supermicro? это норма? Какой потолок? Может + 10 прибавить в зависимости от внешней температуры:

Supermicro IPMI virtual storage — что-нибудь консольное есть?

Есть потребность иногда переустанавливать на таких зверушках софт с ISO, которые не особо дружат с сетевой загрузкой. Есть ли возможность как-то автоматизировать процесс? В принципе ipmitool позволяет (и в основном успешно) выставлять загрузочное устройство и ребутить машину, примерно то, что надо, но подключить virtual media можно только ручками через джавовскую virtual KVM? Образ флэшки залить в BMC не вариант, всё равно без эмуляции устройства те ISO не грузятся.

MegaRAID проблемы при загрузке

Здравствуйте. Столкнулся со странной проблемой.

Железо: мать — supermicro x9scm-f, проц intel xeon e3-1228, 2x8Gb RAM ECC Unbuffered, 128Gb SSD SATA, 1TB HDD SATA

RAID контроллер LSI MegaRAID SAS (ven 1000 dev 0073) к контроллеру подключено 4-ре SAS диска.

IPMI и BIOS обновлен до последней версии.

Суть, пока в MegaRAID контроллере не создан Virtual Drive (т.е. RAID) комп грузится нормально, все работает ништяк, система на SSD SATA, там все грузится.

Если я захожу в MegaRAID WebBIOS и создаю там RAID массив, то при загрузке компа после того как контроллер загрузился просто черный экран и моргает белый курсор!! Комп на ctrl+alt+del не реагирует, приходится ребутить через IPMI. В биос зайти тоже не могу, грузит до курсора, WebBIOS (ctrl+h) тоже не могу зайти.

Можно зайти только в cli тулзу MegaRAID при загрузке (ctrl+y), если через нее я удалю RAID командой -CfgClr -aALL и отправлю комп в ребут, то все ОК. Все работает.

Кто сталкивался?? Как мне заставить комп грузить с созданным RAID?

Подскажите люди добрые!

Вопрос по СХД

Доброго дня всем.

Есть задача сделать бюджетную СХД большого объема.

Выбрал ее, т.к. она позволяет подключить SAS/SATA диски других производителей.

Эту полку хочу подключить двумя отдельными линиями к серваку(32Gb RAM/Xeon E5-2609) с двумя RAID-контроллерами, на котором крутится FreeNas и дальше соответственно отдавать LUNы по ISCSI.

На RAID контроллерах будут создаваться raid-массивы из дисков полки.

Две линии хочу сделать для обеспечения хоть какого-то резрвирования.

Подскажите, насколько реальна данная схема, стоит ли с ней заморачиваться, какие у нее минусы

Подключение диска к серверу

Есть один юнитовый supermicro SYS-5018R-M. У него 4 корзины под 3.5 sata. Проблема в том что он не видит подключенных 3.5 дисков. 2.5 прекрасно видит. В чем может быть проблема?

Supermicro PSU

ДОброго вечера ЛОРовцы! Мучает меня одна странность в серверах супермикро, уже 4 года как на серваке с двумя PSU (один воткнуть в UPS, другой в нерезерв) происходит одна очень интересная вещь. При потере питания в одном из PSU (проверено на обоих PSU и на разных слотах PSU), снижается в разы сразу толи дисковая толи CPU производительность (в топе загрузка проца уходит с 5% до 80-90%), в тулзе через IPMI у меня сразу падает потребление мощности с 200 до 150 ватт, на других серваках Supermicro такого не наблюдал. Блоки питания оба поменял на новые — результат тот же, система у меня очень стойкая, ребут оооооочень не хочу делать, чтобы смотреть настройки биоса. Но может кто точно может дать ответ на вопрос, в чем может быть проблема и как ее решить? Админы, может посчитаете переместить данный топик в Hardware или продублировать его там — на ваше усмотрение. В общем хелп ми плиз ))))))

Посоветуйте сервер 1u

Под нужды инфраструктурных задач планирую закупить 4ре сервера высотой в один юнит.

Две площадки, по два сервера на площадку.

Крутиться там будут: Bind OpenVPN Iptables-Nat (основная нагрузка) OpenLDAP Возможно какая-то мелкая базенка (MySQL/PostgreSQL/MongoDB)

Очень важно, чтобы было недорого (а лучше — дёшево).

mdadm RAID1: как по одному вытащить диски и вернуть обратно «нагорячую»?

Как по очереди вытащить диски из mdadm RAID1 и вернуть обратно без потери данных выключения питания? Есть сервер SuperMicro, ОС Debian 9.5. В нем крутится Postgresql на софтовом RAID1 из двух SSD Intel S3700:

Читайте так же:
Настройка компьютера установка операционной системы

Нужно установить переходники 3.5"->2.5"(сейчас SSD просто воткнуты в слоты, не зафиксированы) . Соответственно, нужно по одному вытащить диски из сервера, привинтить в корзину и установить их обратно. Как это сделать «нагорячую», без остановки сервера?

РЕШЕНИЕ: Просто выдернуть диск, вставить на место. После завершения синхронизации повторить со вторым диском.

Пищит supermicro корпус без кулеров

Добрый день. Есть корпус supermicro на 16 корзин. При включении если вытащить из него все 3 кулера, он начинает сильно пищать, можно ли это как нибудь выключить что бы он без кулеров работал и не пищать ?

Обновления Centos 7 убивают сервер

Добрый день! Запускаем обновление (os: Centos7 vendor:supermicro)

10G SFP+ в Debian 8

Всем привет! Есть материнская плата SuperServer 5018D2-AR12L с «Dual 10G SFP+ from D-1500 SoC» (как я понимаю, отдельного контроллера нет, портами «ведает» процессор, у меня Intel(R) Xeon(R) CPU D-1537 @ 1.70GHz). Debian видит только ethernet порты. На оффсайте драйверовинструкций по работе с устройством в Линуксе нет. Как начать использование портов SFP+?

Какая наиболее оптимальная по цене и характеристикам 2х-сокетная конфигурация для бедных?

Решил осуществить мечту и собрать 2х-сокетную конфигурацию + видеокарту, как бы рабочая станция для работы с 3D на линуксе будет (MODO, Maya, Blender, 3D-Coat, рендеры).

Реально ли собрать матплату + 2 процессора с AES и AVX1 до $300? Т.к. остальные деньги пойдут на память (не менее 24GB для начала) и видеокарты (одна для хоста, вторая для приложений).

Управление серверными платформами через интерфейс IPMI

Реализацией удаленного управления и мониторинга компьютерных систем крупные производители оборудования вплотную занялись еще в конце прошлого века. При стремительном росте компьютеризации и возникновении распределенных сетей крупных предприятий и организаций потребовалась технология, которая бы позволяла централизовано управлять наиболее важными узлами без непосредственного локального доступа к компьютеру. В первую очередь, крупные производители серверных платформ реализовали возможность выполнения на сервере, который может находиться в соседнем здании или на другом конце планеты, удаленного доступа, позволяющего обслуживающему персоналу выполнить следующие операции:

— Включить или выключить электропитание.

— Выполнить аппаратный сброс компьютера.

— Посмотреть или изменить настройки BIOS.

— Установить операционную систему с использованием виртуальных носителей.

— Управлять операционной системой удаленно с использованием стандартных устройств ввода – вывода.

— Отслеживать техническое состояние наиболее важных узлов оборудования.

— Выполнять операции по обслуживанию аппаратной платформы (прошивка BIOS материнской платы или определенных контроллеров) и обеспечения авторизованного доступа к ней.

В результате совместных усилий крупных производителей серверного оборудования (Intel, Dell, NEC и Hewlett-Packard) была разработана спецификация интеллектуального интерфейса управления платформой — Intelligent Platform Management Interface (IPMI), ставшая стандартом для реализации удаленного доступа к компьютерному оборудованию серверных платформ.

Назначение и реализация интерфейса IPMI.

IPMI (от англ. Intelligent Platform Management Interface) — интеллектуальный интерфейс управления платформой, предназначенный для автономного мониторинга и управления функциями, встроенными непосредственно в аппаратное и микропрограммное обеспечения серверных платформ. Другими словами IPMI – это средство управления, которое реализовано независимо от основного оборудования сервера и обеспечивает его включение, выключение, сброс, удаленное подключение виртуальных мониторов, клавиатур и мышей, наблюдение за работой оборудования и оповещение о важных событиях, связанных с работоспособностью сервера. Спецификация IPMI версии 1.0 была опубликована еще в 1998г. и базировалась на подключении к модулю IPMI через последовательный интерфейс RS-232. Последующие спецификации IPMI 1.5 b 2.0 базируются на использовании стандартного сетевого интерфейса.

Ядром системы управления серверной платформой является специализированное устройство — Baseboard Management Controller (BMC) , который практически является специализированным компьютером, встроенным в серверную платформу, имеющим свои собственные процессор, память, периферийное оборудование и операционную систему. Модуль BMC питается от дежурного напряжения блока питания ( +5V Standby ) и, соответственно, начинает работать как только на вход блока питания подано первичное напряжение 220V, независимо от того, включен компьютер или нет.

Спецификация IPMI не задает жестких стандартов по реализации IPMI-устройств. Они могут быть выполнены в виде отдельного адаптера, могут быть распаяны непосредственно на материнской плате или выполнены в виде отдельного микроконтроллера. В настоящее время, наиболее распространены интегрированные в серверные материнские платы контроллеры BMC на базе технологии “система на одном кристалле” (System-on-Chip, SoC), позволяющие реализовать как эффективное взаимодействие с управляемой платформой, так и огромное количество функций по удаленному мониторингу, оповещению о важных событиях по e-mail или SNMP, ведению журналов и т.п.

Читайте так же:
Установка операционной системы mac на ноутбук

Контроллеры BMC для серверных материнских плат подключаются к ним через системный интерфейс, названный IPMB (Intelligent Platform Management Bus/Bridge) или к другим контроллерам BMC через интерфейс IPMC (Intelligent Platform Management Chassis). Для удаленного управления оборудованием через контроллер BMC может быть использован специальный протокол прикладного уровня Remote Management Control Protocol (RMCP) , обеспечивающий работу через обычную локальную сеть. Как правило, современные контроллеры BMC обеспечивают управление серверными платформами через веб-интерфейс, а также обеспечивают удаленное подключение устройств CD/DVD и работу клавиатуры-видео-мыши по сети ( IP KVM ), что позволяет легко выполнять, например изменение настроек BIOS или выполнять установку операционной системы, не имея физического доступа к оборудованию сервера.

Основные возможности управления материнской платой через интерфейс IPMI.

Рассмотрим возможности управления сервером через интерфейс IPMI на примере материнской платы Supermicro X8DTT-IBQF с интегрированным контроллером Nuvoton WPCM450 Baseboard Management Controller с поддержкой IPMI 2.0.

Размещение BMC на материнской плате Supermicro X8DTT-IBQF

Контроллер Nuvoton WPCM450 поддерживает графическое ядро с PCI-интерфейсом, устройства Virtual Media ( виртуальные CD/DVD ) и перенаправление клавиатуры-видео-мыши (Keyboard/Video/Mouse, KVM ). Для подключения к локальной сети используется внешний контроллер Ethernet, распаянный на материнской плате.

Для взаимодействия с компонентами управляемой системы используются шины управления платформой Platform Environment Control Interface (PECI) . На материнской плате имеется перемычка для отключения BMC-контроллера, если возникнет такая необходимость. Также, на ней имеется светодиод BMC LED ( BMC Heartbeat LED) для индикации работоспособного состояния контроллера – зеленый мерцающий индикатор, обозначает, что BMC работает нормально.

Подключение к локальной сети выполняется через порт RJ-45, обозначенный как IPMI_LAN

Первичная настройка интерфейса IPMI выполняется в разделе Adnanced – IPMI Configuration основного BIOS.

Настройка конфигурации интерфейса IPMI

Status of BMC состояние контроллера BMC

View BMC System Event Log — просмотр системного журнала событий (SEL), который ведется контроллером BMC.

Clear BMC System Event Log — очистка журнала событий

Set LAN Confi guration — настройка сетевой конфигурации адаптера, используемого контроллером BMC. Можно настроить на получение IP-адреса, маски и адреса шлюза автоматически по DHCP, или задать их вручную.

Set PEF Confi guration — настройка фильтра событий, регистрируемых контроллером Platform Event Filter (PEF). В данном пункте меню можно настроить реакцию контроллера на определенные события, как например, выключение питания при увеличении температуры, или снижении скорости вращения вентиляторов. По умолчанию, фильтрация событий отключена.

BMC Watch Dog Timer Action — можно настроить опрос состояния управляемой системы и ее сброс, перезагрузку или выключение питания при зависании. По умолчанию, отключено.

Основные возможности по управлению и мониторингу состояния платформы доступны через веб-интерфейс. Для подключения к модулю BMC используется любой браузер с поддержкой java, в адресной строке которого вводится IP-адрес IPMI-устройства и, после подключения, выполняется авторизация с использованием имени пользователя и пароля, указанных в документации или заданных пользовательскими настройками. Имя пользователя и пароль по умолчанию для IPMI-устройств производства Supermicro — ADMIN / ADMIN . После успешной авторизации откроется основное окно управления платформой с активированной вкладкой “System Information”:

Информация о системе через IPMI

Вкладка “Server Health” позволяет контролировать состояние оборудования сервера:

Информация о состоянии сервера через IPMI

Sensor Reading — просмотр данных контролируемых датчиков

Sensor Reading with Thresholds — просмотр данных контролируемых датчиков и пороговых значений

Event Log — просмотр журнала событий

Отображаемая информация датчиков включает их имена, состояние и считанное значение. В нижней части экрана имеются кнопки Refresh — обновить данные датчиков и Show Thresholds — показать пороговые значения. С помощью подменю Select a sensor type category можно выбрать тип датчиков ( температура, напряжение и т.п. ). Пример отображаемой информации:

Датчики состояния через IPMI

Просмотр журнала событий позволяет определить время возникновения фиксируемого состояния датчика, получить его краткое описание и оценить уровень опасности для функционирования оборудования. Пример отображаемой информации:

Датчики состояния через IPMI

Вкладка Configuration позволяет выполнить настройки оповещений о состоянии оборудования, изменять сетевые параметры, настроить политику доступа к устройству IPMI.

Alerts — настройка оповещений. Можно создать до 15 записей с различными правилами оповещений. Имеется возможность задать категорию событий, по которым выполняется оповещение – информация, предупреждение, критическое событие, невосстановимое состояние. Оповещение возможно по электронной почте или через отправку SNMP trap. В первом случае, необходимо указать e-mail, на который будет отправлено письмо, при возникновении события заданной категории, во втором – IP-адрес сервера, собирающего SNMP-оповещения. При использовании оповещения через электронную почту, необходимо указать IP-адрес и порт SMTP-сервера и адрес отправителя в разделе SMTP

Читайте так же:
Принципы установки основных компонентов операционной системы

Разделы LDAP , Active Directory , RADIUS , Users и SSL sertificate настраиваются в зависимости от требований безопасности доступа к IPMI-устройствам. В разделе Network можно изменить сетевые настройки IP-адрес, маску, шлюз. В разделе Ports — номера портов, которые используются при эмуляции виртуальных устройств загрузки, видеомонитора, клавиатуры и мыши. Также можно изменить номер порта для веб-доступа к устройству IPMI.

Вкладка Remote Control позволяет выполнить удаленное подключение к консоли сервера с использованием java-апплета. Необходимо учитывать, что при первом подключении, консоль может длительное время не работать, поскольку для выполнения апплета требуется запуск виртуальной машины Java. Кроме обычной эмуляции терминала, в данной программе возможно выполнение записи сеанса работы через меню Video – Capture Screen , использование программной клавиатуры ( Keyboard – Soft Keyboard ) и подключение виртуальных носителей ( Media – Virtual Media Wizard )

Вкладка Remote Control используется для включения, выключения и сброса сервера.

Вкладка Maintenance — для обновления прошивки и принудительного сброса IPMI-устройства.

Кроме ручного контроля оборудования, интерфейс IPMI позволяет настроить систему оповещения с использованием электронной почты о важных событиях, связанных с работой оборудования – изменении температуры, напряжений, скорости вращения вентиляторов, возникновении корректируемых ошибок памяти ( ECC ) и т.п. Также имеется возможность мониторинга с использованием протокола SNMP (Simple Network Management Protocol).

Реализация интерфейса IPMI может отличаться в зависимости от производителя оборудования и модели материнской платы. Так, например, для многих серверных платформ Intel подключение по IPMI через веб-браузер обеспечивается специальным модулем удаленного управления – Remote Management Module ( RMM ), который не входит в стандартную комплектацию и закупается отдельно. При чем, существует несколько редакций данных модулей, совершенно не совместимых между собой, модуль RMM3 невозможно установить на платформу, поддерживающую RMM4 и наоборот. При установке или замене модуля RMM необходимо руководствоваться документацией к материнской плате.

Кроме того, например, на многих платформах производства Supermicro при включении оборудования IPMI на входе порта Ethernet должен присутствовать линк, в противном случае, доступ к интерфейсу IPMI по сети работать не будет.

Для управления платформами через интерфейс IPMI может использоваться не только браузер, но и программное обеспечение, разрабатываемое производителями оборудования, как например утилита с графическим интерфейсом от Supermicro IPMI View

Утилита IPMI View – отображение состояния датчиков.

Также существуют утилиты командной строки IPMICFG и SMCIIPMITOOL .

Кроме того, существует открытое программное обеспечение с реализацией интерфейса IPMI:

OpenIPMI — проект на Sourceforge, предоставляющий драйверы ядра Linux и набор библиотек для реализации IPMI

ipmitool — пакет утилит командной строки для реализации управления IPMI-устройствами.

Инструкция по работе в веб-интерфейсе IPMI SuperMicro 2012 внутри noVNC

Модуль «Проксирование IPMI через доп. сервер« позволяет владельцам серверов с IPMI, имеющими внутренние IP-адреса, получить доступ к веб-интерфейсам IPMI. Доступ осуществляется через подключение VNC-клиента к выбранному серверу с CentOS 7. На сервере разворачивается среда для открытия урезанной версии браузера со страницей веб-интерфейса IPMI. В статье описан алгоритм получения доступа к IPMI SuperMicro 2012 внутри noVNC при использовании модуля «Проксирование IPMI через доп. сервер».

Информация об IPMI

FW Revision: 01.89.

FW Build Time: 2012-11-28.

Видео-инструкция

Пошаговая инструкция

Алгоритм получения доступа состоит из этапов:

Этап 1. Авторизация.

Этап 2. Предупреждение об устаревшей версии браузера.

Этап 3. Подтверждение использования Java-приложения для открытия jnlp-файла консоли.

Этап 4. Соглашение с риском для безопасности.

Этап 5. Открытие консоли с возможностью ввода.

Этап 1. Авторизация

  1. Нажмите на поле для ввода логина.
  2. Нажмите Login.
  3. Нажмите на поле для ввода пароля.
  4. Нажмите Password.
  5. Нажмите login или Enter на клавиатуре.

Этап 2. Предупреждение об устаревшей версии браузера

После входа в веб-интерфейс браузер может запросить обновление Java. Обновления устанавливать не нужно, т.к. браузер ограничен по функциональности и обновить Java не сможет.

Этап 3. Соглашение с риском для безопасности

  1. Нажмите на окно предпросмотра.
  2. Нажмите Keep.

Этап 4. Открытие загруженного файла jnlp

Откройте загруженный файл.

Читайте так же:
Конфигурация пользователя административные шаблоны система установка драйвера

Этап 5. Соглашение с устаревшим сертификатом java-апплета:

Нажмите Continue.

Этап 6. Соглашение с риском для безопасности

  1. Включите опцию I accept the risk and want to run this application.
  2. Нажмите Run.

Примечания

Буфер обмена

Кнопка Буфер обмена расположена в левом верхнем углу окна noVNC. Предназначена для копирования текста с компьютера пользователя в буфер обмена сервера с IPMI:

  1. Нажмите Буфер обмена, скопируйте в него текст.
  2. Поместите курсор в поле для вставки текста.
  3. Нажмите сочетание клавиш Ctrl + V или среднюю кнопку мыши.

Предупреждение о неверном сертификате сайта, с которого скачивается java-апплет

Возможные причины неверного сертификата:

  • hostname сертификата не совпадает с hostname сайта;
  • срок действия сертификата истёк;
  • сертификат подписан недоверенным центром сертификации.

В DCImanager версии 5.149 и выше данное предупреждение не выводится на экран, если срок действия сертификата не истёк.

SCCM 2012 — Настраиваем PXE для развёртывания ОС

imageНебольшой скринкаст по включению Pre-Execution Environment (PXE) для инициализации процесса развёртывания ОС в System Center 2012 Configuration Manager (SCCM).

Как известно в новой версии SCCM механизм PXE является частью роли сервера точки распространения — Distribution Point

Открываем свойства точки распространения, для которой мы хотим включить PXE (Administration > Overview > Distribution Points). На соответствующей закладке PXE включаем опции:

  • Enable PXE support for clients
  • Allow this distribution point to respond to incoming PXE requests
  • Enable unknown computer support
  • Require a password when computers use PXE.

После сохранения настроек на сервере в фоновом режиме должна автоматически установиться роль Windows Deployment Services. Успешное окончание процесса установки этой роли можно отследить по эвент-логам Application и System, где будут фиксироваться события инициализации и запуска службы Windows Deployment Services Server. После этого в оснастке Server Manager должна появится информация о том, что данная роль установлена

image

Ручной инициализации и настройки параметров WDS в его консоли не требуется. SCCM должен выполнить всю работу за нас автоматически.

При этом на одном из логических дисков сервера должен появиться расшаренный каталог RemoteInstall с файлами WDS

image

В Windows Firewall должны появиться соответствующие правила разрешающие входящий трафик UDP для служб WDS

image

Теперь для того чтобы новые компьютеры в процессе развертывания ОС могли подключиться к ресурсам нашей точки распространения для скачивания образа ОС нам нужно настроить учетную запись Network Access Account в свойствах сайта (Administration > Site Configurations > Sites > Configure Site Components > Software Distribution)

image

Здесь указываем специально созданную в домене учетную запись пользователя от имени которой будет выполняться доступ к содержимому точек распространения в процессе развёртывания ОС. Как правило для такой учетной записи достаточно членства в доменной группе Domain Users.

image

Обратите внимание на то что Network Access Account задаётся только на уровне первичного сайта.

Для того чтобы наши начальные загрузочные образы стали доступны через PXE включим в их свойствах (Software Library > Overview > Operating Systems > Boot Images) соответствующую опцию:

image

Также мы должны убедиться в том что все загрузочные образы, образы ОС, пакеты драйверов и приложения, которые устанавливаются в процессе выполнения последовательности задач при развёртывании ОС – распространены на все DP, на которых мы настраиваем PXE.

Теперь перейдём в консоль сервера DHCP (в нашем примере служба DHCP выполняется на отдельном сервере) и в параметрах сервера настроим два дополнительных параметра:

  • 066 — Boot Server Host Name – укажем IP адрес сервера SCCM c PXE
  • 067 — Bootfile Name – укажем значение smsbootx86wdsnbp.com

image

После этого в SCCM импортируем информацию о новом компьютере (имя будущего компьютера и MAC-адрес) в коллекцию на которую назначена последовательность задач по развертыванию ОС, а на самом клиентском компьютере в BIOS устанавливаем загрузку по сети и включаем его. Если всё сделано правильно начнётся загрузка образа WinPE через PXE

image

После чего среда WinPE будет загружена и нам будет предложено ввести пароль который мы задали на этапе включения PXE в свойствах точки распространения.

image

После ввода пароля стартует процедура обнаружения данного компьютера в SCCM и применения назначенной для него последовательности задач по непосредственной установке ОС.

голоса
Рейтинг статьи
Ссылка на основную публикацию
Adblock
detector