Ayaklimat.ru

Климатическая техника
12 просмотров
Рейтинг статьи
1 звезда2 звезды3 звезды4 звезды5 звезд
Загрузка...

Работа с; mdadm в Linux для организации; RAID

Работа с mdadm в Linux для организации RAID

mdadm — утилита для работы с программными RAID-массивами различных уровней. В данной инструкции рассмотрим примеры ее использования.

Установка mdadm

Утилита mdadm может быть установлена одной командой.

Если используем CentOS / Red Hat:

yum install mdadm

Если используем Ubuntu / Debian:

apt-get install mdadm

Сборка RAID

Перед сборкой, стоит подготовить наши носители. Затем можно приступать к созданию рейд-массива.

Подготовка носителей

Сначала необходимо занулить суперблоки на дисках, которые мы будем использовать для построения RAID (если диски ранее использовались, их суперблоки могут содержать служебную информацию о других RAID):

mdadm —zero-superblock —force /dev/sd

* в данном примере мы зануляем суперблоки для дисков sdb и sdc.

Если мы получили ответ:

mdadm: Unrecognised md component device — /dev/sdb
mdadm: Unrecognised md component device — /dev/sdc

. то значит, что диски не использовались ранее для RAID. Просто продолжаем настройку.

Далее нужно удалить старые метаданные и подпись на дисках:

wipefs —all —force /dev/sd

Создание рейда

Для сборки избыточного массива применяем следующую команду:

mdadm —create —verbose /dev/md0 -l 1 -n 2 /dev/sd

  • /dev/md0 — устройство RAID, которое появится после сборки;
  • -l 1 — уровень RAID;
  • -n 2 — количество дисков, из которых собирается массив;
  • /dev/sd — сборка выполняется из дисков sdb и sdc.

Мы должны увидеть что-то на подобие:

mdadm: Note: this array has metadata at the start and
may not be suitable as a boot device. If you plan to
store '/boot' on this device please ensure that
your boot-loader understands md/v1.x metadata, or use
—metadata=0.90
mdadm: size set to 1046528K

Также система задаст контрольный вопрос, хотим ли мы продолжить и создать RAID — нужно ответить y:

Continue creating array? y

Мы увидим что-то на подобие:

mdadm: Defaulting to version 1.2 metadata
mdadm: array /dev/md0 started.

. и находим информацию о том, что у наших дисков sdb и sdc появился раздел md0, например:

.
sdb 8:16 0 2G 0 disk
??md0 9:0 0 2G 0 raid1
sdc 8:32 0 2G 0 disk
??md0 9:0 0 2G 0 raid1
.

* в примере мы видим собранный raid1 из дисков sdb и sdc.

Создание файла mdadm.conf

В файле mdadm.conf находится информация о RAID-массивах и компонентах, которые в них входят. Для его создания выполняем следующие команды:

echo "DEVICE partitions" > /etc/mdadm/mdadm.conf

mdadm —detail —scan —verbose | awk '/ARRAY/ ' >> /etc/mdadm/mdadm.conf

DEVICE partitions
ARRAY /dev/md0 level=raid1 num-devices=2 metadata=1.2 name=proxy.dmosk.local:0 UUID=411f9848:0fae25f9:85736344:ff18e41d

* в данном примере хранится информация о массиве /dev/md0 — его уровень 1, он собирается из 2-х дисков.

Создание файловой системы и монтирование массива

Создание файловой системы для массива выполняется также, как для раздела:

* данной командой мы создаем на md0 файловую систему ext4.

Примонтировать раздел можно командой:

mount /dev/md0 /mnt

* в данном случае мы примонтировали наш массив в каталог /mnt.

Чтобы данный раздел также монтировался при загрузке системы, добавляем в fstab следующее:

/dev/md0 /mnt ext4 defaults 1 2

Для проверки правильности fstab, вводим:

Мы должны увидеть примонтированный раздел md, например:

/dev/md0 990M 2,6M 921M 1% /mnt

Информация о RAID

Посмотреть состояние всех RAID можно командой:

В ответ мы получим что-то на подобие:

md0 : active raid1 sdc[1] sdb[0]
1046528 blocks super 1.2 [2/2] [UU]

* где md0 — имя RAID устройства; raid1 sdc[1] sdb[0] — уровень избыточности и из каких дисков собран; 1046528 blocks — размер массива; [2/2] [UU] — количество юнитов, которые на данный момент используются.
** мы можем увидеть строку md0 : active(auto-read-only) — это означает, что после монтирования массива, он не использовался для записи.

Подробную информацию о конкретном массиве можно посмотреть командой:

* где /dev/md0 — имя RAID устройства.

Version : 1.2
Creation Time : Wed Mar 6 09:41:06 2019
Raid Level : raid1
Array Size : 1046528 (1022.00 MiB 1071.64 MB)
Used Dev Size : 1046528 (1022.00 MiB 1071.64 MB)
Raid Devices : 2
Total Devices : 2
Persistence : Superblock is persistent

Update Time : Wed Mar 6 09:41:26 2019
State : clean
Active Devices : 2
Working Devices : 2
Failed Devices : 0
Spare Devices : 0

Consistency Policy : resync

Name : proxy.dmosk.local:0 (local to host proxy.dmosk.local)
UUID : 304ad447:a04cda4a:90457d04:d9a4e884
Events : 17

Number Major Minor RaidDevice State
0 8 16 0 active sync /dev/sdb
1 8 32 1 active sync /dev/sdc

  • Version — версия метаданных.
  • Creation Time — дата в время создания массива.
  • Raid Level — уровень RAID.
  • Array Size — объем дискового пространства для RAID.
  • Used Dev Size — используемый объем для устройств. Для каждого уровня будет индивидуальный расчет: RAID1 — равен половине общего размера дисков, RAID5 — равен размеру, используемому для контроля четности.
  • Raid Devices — количество используемых устройств для RAID.
  • Total Devices — количество добавленных в RAID устройств.
  • Update Time — дата и время последнего изменения массива.
  • State — текущее состояние. clean — все в порядке.
  • Active Devices — количество работающих в массиве устройств.
  • Working Devices — количество добавленных в массив устройств в рабочем состоянии.
  • Failed Devices — количество сбойных устройств.
  • Spare Devices — количество запасных устройств.
  • Consistency Policy — политика согласованности активного массива (при неожиданном сбое). По умолчанию используется resync — полная ресинхронизация после восстановления. Также могут быть bitmap, journal, ppl.
  • Name — имя компьютера.
  • UUID — идентификатор для массива.
  • Events — количество событий обновления.
  • Chunk Size (для RAID5) — размер блока в килобайтах, который пишется на разные диски.

Подробнее про каждый параметр можно прочитать в мануале для mdadm:

Также, информацию о разделах и дисковом пространстве массива можно посмотреть командой fdisk:

Проверка целостности

Для проверки целостности вводим:

echo 'check' > /sys/block/md0/md/sync_action

Результат проверки смотрим командой:

* если команда возвращает , то с массивом все в порядке.

echo 'idle' > /sys/block/md0/md/sync_action

Восстановление RAID

Рассмотрим два варианта восстановлении массива.

Замена диска

В случае выхода из строя одного из дисков массива, команда cat /proc/mdstat покажет следующее:

Personalities : [raid1]
md0 : active raid1 sdb[0]
1046528 blocks super 1.2 [2/1] [U_]

* о наличии проблемы нам говорит нижнее подчеркивание вместо U — [U_] вместо [UU].

.
Update Time : Thu Mar 7 20:20:40 2019
State : clean, degraded
.

* статус degraded говорит о проблемах с RAID.

Для восстановления, сначала удалим сбойный диск, например:

mdadm /dev/md0 —remove /dev/sdc

Теперь добавим новый:

mdadm /dev/md0 —add /dev/sde

Смотрим состояние массива:

.
Update Time : Thu Mar 7 20:57:13 2019
State : clean, degraded, recovering
.
Rebuild Status : 40% complete
.

* recovering говорит, что RAID восстанавливается; Rebuild Status — текущее состояние восстановления массива (в данном примере он восстановлен на 40%).

Если синхронизация выполняется слишком медленно, можно увеличить ее скорость. Для изменения скорости синхронизации вводим:

echo '10000' > /proc/sys/dev/raid/speed_limit_min

* по умолчанию скорость speed_limit_min = 1000 Кб, speed_limit_max — 200000 Кб. Для изменения скорости, можно поменять только минимальную.

Пересборка массива

Если нам нужно вернуть ранее разобранный или развалившийся массив из дисков, которые уже входили в состав RAID, вводим:

mdadm —assemble —scan

* данная команда сама найдет необходимую конфигурацию и восстановит RAID.

Также, мы можем указать, из каких дисков пересобрать массив:

mdadm —assemble /dev/md0 /dev/sdb /dev/sdc

Запасной диск (Hot Spare)

Если в массиве будет запасной диск для горячей замены, при выходе из строя одного из основных дисков, его место займет запасной.

Диском Hot Spare станет тот, который просто будет добавлен к массиву:

mdadm /dev/md0 —add /dev/sdd

Информация о массиве изменится, например:

.
Number Major Minor RaidDevice State
0 8 16 0 active sync /dev/sdb
2 8 48 1 active sync /dev/sdc

3 8 32 — spare /dev/sdd

Проверить работоспособность резерва можно вручную, симулировав выход из строя одного из дисков:

mdadm /dev/md0 —fail /dev/sdb

И смотрим состояние:

.
Rebuild Status : 37% complete
.
Number Major Minor RaidDevice State
3 8 32 0 spare rebuilding /dev/sdd
2 8 48 1 active sync /dev/sdc

0 8 16 — faulty /dev/sdb
.

* как видим, начинается ребилд. На замену вышедшему из строя sdb встал hot-spare sdd.

Добавить диск к массиву

В данном примере рассмотрим вариант добавления активного диска к RAID, который будет использоваться для работы, а не в качестве запасного.

Добавляем диск к массиву:

mdadm /dev/md0 —add /dev/sde

Новый диск мы увидим в качестве spare:

4 8 16 — spare /dev/sde

Теперь расширяем RAID:

mdadm -G /dev/md0 —raid-devices=3

* в данном примере подразумевается, что у нас RAID 1 и мы добавили к нему 3-й диск.

Удаление массива

При удалении массива внимателнее смотрите на имена массива и дисков и подставляйте свои значения.

Если нам нужно полностью разобрать RAID, сначала размонтируем и остановим его:

* где /mnt — каталог монтирования нашего RAID.

* где /dev/md0 — массив, который мы хотим разобрать.
* если мы получим ошибку mdadm: fail to stop array /dev/md0: Device or resource busy, с помощью команды lsof -f — /dev/md0 смотрим процессы, которые используют раздел и останавливаем их.

Затем очищаем суперблоки на всех дисках, из которых он был собран:

mdadm —zero-superblock /dev/sdb

mdadm —zero-superblock /dev/sdc

mdadm —zero-superblock /dev/sdd

* где диски /dev/sdb, /dev/sdc, /dev/sdd были частью массива md0.

Программный RAID или RAID в BIOS? : Операционные системы и программное обеспечение

Мне тут донесли интересную мысль, что, оказывается, рейды в BIOS не только непереносимы при порче материнской платы, но еще и глючны, тормозны и т.п., в общем, обладают массой недостатков при отсутствии достоинств, если сравнивать их с софтовым рейдом в операционной системе. Прошу высказывать мнение. Я же пока разберу свой BIOS-рейд в софтовый на mdadm.

Пока устрою замеры, fio, конечно, и с таким ini

OlegON
Посмотреть профиль
Где был?
Найти ещё сообщения от OlegON

по дороге один диск стал глючить, вешая биос, пока не переставил их местами 🙁

OlegON
Посмотреть профиль
Где был?
Найти ещё сообщения от OlegON

тестом, как тут описано (на 10Гб)

10737418240 bytes (11 GB, 10 GiB) copied, 65,2314 s, 165 MB/s
10240+0 records in
10240+0 records out
10737418240 bytes (11 GB, 10 GiB) copied, 109,486 s, 98,1 MB/s

в принципе, все осталось так же, как и было, только вот почему-то iostat перестал нормально %util показывать, оно все время не больше 20%, хотя отклик растет

сделал в sysctl
dev.raid.speed_limit_max=3000000
dev.raid.speed_limit_min=3000000

10737418240 bytes (11 GB, 10 GiB) copied, 29,8722 s, 359 MB/s
10240+0 records in
10240+0 records out
10737418240 bytes (11 GB, 10 GiB) copied, 37,5962 s, 286 MB/s

хех. Но это за счет откладывания синхронизации и достаточного количества памяти. Опять же, помним о том, что теперь появились рычажки, которые можно дергать.

OlegON
Посмотреть профиль
Где был?
Найти ещё сообщения от OlegON

В общем, какие я для себя выводы сделал.

Буду пользоваться софтовым рейдом, а не в BIOS. Основная причина — последствия сбоя рейда. После того, как я зашел в BIOS и разобрал рейд, мне пришлось вытаскивать и форматировать один из дисков через USB-переходник. Почему-то машина без этого отказывалась загружаться, подвисая еще на старте BIOS.

Не могу сказать, что софтовый рейд собрался с полпинка и без глюков. Я его собрал через mdadm, попробовал, записал пару файликов, ребут — рейд разобран, один из дисков со старой файловой системой и не считает себя частью рейда. Хз вообще, почему так. Раза два повторилось, причем, я старательно убивал следы старого на отваливающемся диске. Самое смешное, что после создания рейда заново, на нем опять появлялась файловая система с данными. Но это никуда не годилось, поэтому я оба диска прямо целиковыми устройствами, без партиций, форматнул в BTRFS, после чего снова создал рейд. И он разваливаться перестал. Скажу вам, что в таком виде ковыряться с ним куда легче, чем с ребутами всего компа и, матерясь, выколупывать SATA-кабели.

Общее впечатление по скорости — особой разницы нет, к сожалению, тесты на BIOS-варианте были не слишком охватывающими. Очень сильно подкосило то, что теперь iostat не показывает нормальный %util. Но остальное все, можно сказать, как работало, так и работает.

Безопасность операционных систем. Часть 1. RAID, восстановление файлов, metasploit

В данной книге основное внимание уделятеся вопросам защиты современных информационных систем и операционных систем от нескнкционированного доступа. Дополнительно приводятся сведения по защите сетей и сетевых операционных систем.

Оглавление

  • Введение
  • Программная реализация RAID-массивов
  • Аппаратная реализация RAID-массивов
  • Восстановление данных
  • 1 Хранение информации

Приведённый ознакомительный фрагмент книги Безопасность операционных систем. Часть 1. RAID, восстановление файлов, metasploit предоставлен нашим книжным партнёром — компанией ЛитРес.

Аппаратная реализация RAID-массивов

RAID (в случае если системная плата поддерживает данную технологию), могут быть созданы и аппаратно. Конечно данный RAID по сравнению с программным обладает одним существенным преимуществом — он быстрее «в разы», но с другой стороны у него есть и существенный недостаток. Авторы неоднократно сталкивались с проблемой выхода из строя оборудования (системная плата, жесткие диски, оперативная паять), все это оказывает непосредственное влияние на состояние RAID массива. И, условно, для того чтобы восстановить массив в случае выхода из строя жесткого диска нужно заменить его на аналогичный по емкости, то материнскую плату необходимо заменять на ту же, либо на поддерживающую тот же RAIDю Для аппаратной реализации RAID-массивов необходимо зайти в BIOS, перейти во вкладку Smart и выбрать «Load Perfomance Setup RAID mode» (установить режим поддержки RAID-массивов). Это показано на рисунке 20.

Рисунок 21 — Установка режима поддержки RAID-массивов

Далее нужно выбрать режим работы SATA. В данном случае требуется установить режим RAID. Это представлено на рисунке 21.

Рисунок 22 — Режим работы SATA

На рисунке 23 можно увидеть окно выбора уровня RAID-а, а так же перечень дисков, которые могут войти в выбранный RAID.

Рисунок 23 — Окно выбора уровня RAID

На рисунке 24 представлено окно с настроенными параметрами, о которых говорилось выше. Для начала был выбран и настроен RAID-массив «MIRRORED».

Рисунок 24 — Окно с настроенными параметрами

На рисунке 25 показано, как после подтверждения BIOS предупреждает, что новые (или добавленные) данные будут перезаписаны, затем требует подтверждение форматирования MBR.

Рисунок 25 — Окно подтверждения

Теперь нужно создать RAID-массив «STRIPED». На рисунках 26—28 показан процесс создания данного RAID-массива, аналогичный созданию RAID-массива «MIRRORED».

Рисунок 26 — Выбор дисков и уровня RAID

Рисунок 27 — Подтверждение перезаписи

Рисунок 28 — Подтверждение очистки MBR

На рисунках 29—30 представлены свойства созданных RAID-массивов, а на рисунке 31 — результаты предыдущих манипуляций или два готовых RAID-массивов.

Рисунок 29 — Свойства RAID-массива STRIPED

Рисунок 30 — Свойства RAID-массива MIRRORED

Рисунок 31 — Готовые RAID-массивы

Теперь необходимо установить операционную систему Windows Server 2012 r2. Данный процесс представлен на рисунках 32—36. Можно обратить внимание на рисунок 35, на котором показано, что операционная система видит созданные ранее RAID-массивы.

Рисунок 32 — Выбор языка

Рисунок 33 — Выбор операционной системы

Рисунок 34 — Прочтение лицензионного соглашения

Рисунок 35 — Выбор диска для установки

Рисунок 36 — Процесс установки

После установки операционной системы необходимо вызвать оснастку «управление компьютером», после чего выбрать вкладку «Управление дисками». Это необходимо сделать, чтобы проверить состояние RAID-массивов. Данная вкладка представлена на рисунке 36. В случае если один или несколько томов система не обработала автоматически, их необходимо настроить вручную. Данный процесс полностью аналогичен представленному на рисунках 11—14.

Рисунок 37 — Управление дисками

После проведенных действий нужно вновь запустить программу CrystalDiskMark, поскольку необходимо проверить, какие изменения произошли в скорости работы дисков. Результат работы программы для STRIPED-массива показан на рисунке 38, а для MIRROR — на рисунке 39. Как можно убедиться, в первом случае скорость возрастает в два раза, по сравнению со вторым.

Рисунок 38 — CrystalDiskMark для STRIPED-массива

Рисунок 39 — CrystalDiskMark для MIRROR-массива

Чтобы убедиться, что операционная система, действительно, корректно отображает RAID-массивы, нужно осмотреть список всех устройств в «Управлении компьютера». Подтверждающая запись показана на рисунке 39. Также для наглядности на рисунке 39 показан список всех томов, распознанных операционной системой.

Рисунок 40 — Подтверждающая запись

Рисунок 41 — Список всех томов

Чтобы проверить работоспособность RAID-массивов даже при поломке одного из дисков, был создан файл на обоих массивах. После этого компьютер был выключен, и была инсценирована поломка некоторых жестких дисков, входящих в массив, полученная путем отключения этих дисков от питания. Созданный файл показан на рисунке 41, а результаты инсценировки поломок на рисунках 43—44.

Рисунок 42 — Файл для проверки работоспособности

Рисунок 43 — Поломка диска, входящего в STRIPE-массив

Рисунок 44 — Поломка диска, входящего в STRIPE-массив

В результате проведенных выше действий выяснилось, что при поломке STRIPED-массива, компьютер не может запустить операционную систему и, соответственно, перестает работать. При поломке же MIRROR-массива компьютер выдает ошибку, связанную с повреждением массива, но при этом запускается и находится в полностью рабочем состоянии. На рисунке 45 показано, как операционная система видит «поврежденный»

RAID-массив, а на рисунке 46 показано наличие файла, созданного до поломки.

Рисунок 45 — Операционная система видит RAID-массив

Рисунок 46 — Наличие файла

Теперь нужно установить RAID-массив 01. Данный процесс полностью аналогичен процессу создания любого из RAID-массивов, созданных ранее. На рисунке 46 показан созданный RAID-массив.

Рисунок 47 — RAID-массив 01

После того как на данный RAID-массив была установлена операционная система, вновь была открыта вкладка управление компьютером, в которой показано, что операционная система способна работать с массивом. Вкладка представлена на рисунке 48.

Рисунок 48 — Вкладка управление компьютером

Как и в случае с остальными массивами, нужно запустить программу CrystalDiskMark для оценки скорости работы массива. Результат работы данной программы представлен на рисунке 48.

Рисунок 49 — CrystalDiskMark для RAID-массива 01

Теперь нужно настроить RAID 5. Настройка данного RAID-массива аналогична настройке предыдущих RAID-массивов. Она представлена на рисунках 50—52.

Рисунок 50 — Выбор дисков для RAID 5

Рисунок 51 — Созданный RAID 5

Рисунок 52 — Свойства RAID 5

После создания RAID и установки операционной системы была вновь открыта вкладка «управление дисками». Данная вкладка, а также информация о состоянии диска представлена на рисунке 53.

Рисунок 53 — Управление дисками

Также была определена скорость работы диска с помощью программы CrystalDiskMark. Результаты работы этой программы представлены на рисунке 58.

Рисунок 54 — CrystalDiskMark для RAID 5

На данном диске был создан текстовый документ, чтобы проверить работоспособность RAID-массива после поломки одного из дисков. На рисунке 54 представлен данный текстовый документ.

После создания документа была инсценирована сама поломка. Сначала был «сломан» один диск. При запуске компьютера появилось сообщение «Degraded», означающее, что один из дисков поврежден, однако операционная система запустилась и работала в обычном режиме. Это сообщение представлено на рисунке 56.

После данного эксперимента была предпринята инсценировка поломки второго диска. На этот раз при запуске компьютера появилось сообщение «Error», после чего операционная система не запустилась. Данное сообщение представлено на рисунке 57.

Рисунок 55 — Текстовый документ

Рисунок 56 — Поломка одного из дисков, входящих в RAID 5

Рисунок 57 — Поломка двух дисков, входящих в RAID 5

Ниже представлена таблица скоростей жестких дисков, входящих в RAID-массивы, либо без массивов (таблица 1). Таблица 1

Конфигурирование программного RAID-массива в Fedora при инсталляции системы с использованием Disk Druid

/dev/sda и второй /dev/sdb . BIOS был настроен с отключенным встроенным SATA RAID , и оба диска управлялись непосредственно BIOS. Так операционная система видит два жестких диска .

0. Итак …

Необходимо выполнить следующее , чтобы достичь цели :

  • Создание разделов и настройка RAID с помощью Disk Druid
  • Построение массивов RAID
  • Настройка GRUB
  • Тестирование

Дополнительные важные шаги :

  • Проверить состояние RAID и установить мониторинг RAID
  • Восстановление диска после сбоя ( не дай бог )
1. Создание разделов и настройка RAID с помощью Disk Druid

Во время установки Fedora , вам будет предложено автоматическое разбиение с помощью Disk Druid или разбивка на разделы вручную. Независимо от того, что вы выберете, вы должны удалить все существующие разделы и начать с чистых дисков ( NB: это, конечно, удалит все ваши данные ) :

Вы должны создать 3 раздела : /boot, swap и / (root — корень) . Наша цель состоит в том , чтобы иметь коренной и / boot разделы на RAID1 . Н еразумно ставить swap на программный RAID, так как это создаст излишнюю нагрузку .

Важно: раздел / boot должен быть первым на диске , т.е. начаться с цилиндра 1. Кроме того , убедитесь, что вы установили « Force to be a primary partition» для каждого раздела , который вы создаете . Загрузочный раздел ( / boot) размером 100MB достаточен для большинства конфигураций .

Давайте начнем с создания раздела /boot ( загрузки). Нажмите на кнопку RAID и выберите « Создать программный RAID раздел «( «Create a software RAID partition») :

Для типа файловой системы выберите « Software RAID», выберите первый диск и установите фиксированный размер 100 Мб :

Повторите то же самое для второго диска , в результате чего появятся два программных RAID раздела по 100MB , по одному на каждом диске . Эти разделы готовы для RAID устройства и создания точки монтирования :

Нажмите на кнопку RAID и выберите « Создать RAID устройство «( «Create a RAID device»). Для точки монтирования выберите «/ boot «, RAID Level должно быть RAID1 для устройства md0 , как показано на следующем рисунке :

Теперь создайте раздел подкачки( swap) . Размер раздела подкачки должен, по крайней мере , соответствовать размеру оперативной памяти. swap не должен находиться на программном RAID , так что все что вам нужно сделать , это нажать на New, и создать swap на каждом жестком диске. Результатом будет два раздела подкачки, каждый на отдельном диске :

Теперь, после создания /boot и /swap разделов , необходимо выделить оставшееся свободное пространство как md1 и создать корневой(root) раздел на нем . Вы должны быть уже знакомы с шагами . Окончательные результаты разбиения должны быть похожи на следующий рисунок:

Завершите установку Fedora . После перезагрузки система , вероятно, будет остановлена д о загрузки GRUB. С ообщение об ошибке может варьироваться между ошибками в файловой системе , паникой ядра и ошибки GRUB 17 .

Не разочаровывайтесь (пока) , поскольку есть еще несколько действий , которые необходимо предпринять .

2. Построение массивов RAID

Загрузитесь с первого установочного компакт-диска , но вместо того, чтобы начинать установку, выберите « linux rescue «, чтобы запустить командную строку в режиме восстановления . В командной строке установите новый root и постройте массив RAID :

3. Настройка GRUB

Первый диск ( на моей системе это /dev/sda ) еще не стал загрузочным. В следующих действиях мы завершаем установку загрузчика GRUB на обоих дисках и устанавливаем /boot как загрузочный.
Продолжаем работу в командной строке режима восстановления , и загружаем оболочку GRUB :

4. Тест

Лучший способ проверить состоит в том, чтобы физически отключить каждый диск, и посмотреть, загрузится ли система с другого подключенного диска ( убедитесь, что вы выключили систему , прежде чем отсоединять диск ).
Важно: Тестирование вызывает разрушение (degraded) вашего RAID . Это означает, что после того, как вы заново подключили диск, вы должны hotadd диск обратно в массив с помощью команды

Если тест завершен успешно , и ваша система загружается с каждого диска , то вы в основном достигли нужного результата . Хотя я полагаю, что вы будете продолжать следующие процедуры , чтобы узнать больше о более серьезном кризисе (стучу по дереву).

5. Проверка состояния RAID и мониторинг состояния RAID

Есть несколько способов проверить текущее состояние вашего RAID, но лучше всего использовать команду mdadm —detail . В следующем примере вы можете видеть, что RAID ухудшается (degraded). Только /dev/sdb1 является активным , а другой /dev/sda1 отсутствует в RAID.

голоса
Рейтинг статьи
Читайте так же:
Установка операционной системы на сервер supermicro
Ссылка на основную публикацию
Adblock
detector