Как я RAID0 познавал


История

Решили что нужно собрать RAID0 из 3-х дисков. Так как один из 4 дисков, который входил в RAID10 постоянно сбоил и вылетал из RAID. О том как его "засунуть" обратно уже разобрал, но это помогает на некоторое время, а потом снова привет. Причину так и не выяснили:

  • на badblock проверен - без ошибок
  • SATA-кабель поменяли - проблема осталась
Осталось 2 варианта -  это либо, что поднимается температура дисков и он просто не выдерживает, либо не выдерживает блок питания (хотя это исключается тем, что постоянно вылетает только диск sdb). Во всяком случае, дальше проверять не стали, так как много трудозатрат и проблем в работе всего филиала. Поэтому собственно и выполняем команды снизу для создания необходимого soft-raid0.



[root@dbserver38 ~]# mdadm --create --verbose /dev/md0 --level=raid0 --raid-devices=3 /dev/sda1 /dev/sdc1 /dev/sdd1 mdadm: chunk size defaults to 64K mdadm: /dev/sda1 appears to contain an ext2fs file system size=1953519872K mtime=Mon Dec 3 09:53:08 2018 mdadm: /dev/sda1 appears to be part of a raid array: level=raid10 devices=4 ctime=Fri Nov 16 09:19:42 2018 mdadm: /dev/sdc1 appears to be part of a raid array: level=raid10 devices=4 ctime=Fri Nov 16 09:19:42 2018 mdadm: /dev/sdd1 appears to be part of a raid array: level=raid10 devices=4 ctime=Fri Nov 16 09:19:42 2018 Continue creating array? y mdadm: array /dev/md0 started.

Проверяю доступность и статус raid
[root@dbserver38 ~]# mdadm --detail /dev/md0 /dev/md0: Version : 0.90 Creation Time : Tue Dec 4 23:44:21 2018 Raid Level : raid0 Array Size : 2930279808 (2794.53 GiB 3000.61 GB) Raid Devices : 3 Total Devices : 3 Preferred Minor : 0 Persistence : Superblock is persistent Update Time : Tue Dec 4 23:44:21 2018 State : clean Active Devices : 3 Working Devices : 3 Failed Devices : 0 Spare Devices : 0 Chunk Size : 64K UUID : 60fadd17:8deedbfa:4864a0d7:986ce922 Events : 0.1 Number Major Minor RaidDevice State 0 8 1 0 active sync /dev/sda1 1 8 33 1 active sync /dev/sdc1 2 8 49 2 active sync /dev/sdd1 [root@dbserver38 ~]# cat /proc/mdstat Personalities : [raid0] md0 : active raid0 sdd1[2] sdc1[1] sda1[0] 2930279808 blocks 64k chunks unused devices: <none>
Форматирую raid
[root@dbserver38 ~]# mkfs.ext4 /dev/md0 mke4fs 1.41.12 (17-May-2010) Filesystem label= OS type: Linux Block size=4096 (log=2) Fragment size=4096 (log=2) Stride=0 blocks, Stripe width=0 blocks 183148544 inodes, 732569952 blocks 36628497 blocks (5.00%) reserved for the super user First data block=0 Maximum filesystem blocks=4294967296 22357 block groups 32768 blocks per group, 32768 fragments per group 8192 inodes per group Superblock backups stored on blocks: 32768, 98304, 163840, 229376, 294912, 819200, 884736, 1605632, 2654208, 4096000, 7962624, 11239424, 20480000, 23887872, 71663616, 78675968, 102400000, 214990848, 512000000, 550731776, 644972544 Writing inode tables: done Creating journal (32768 blocks): done Writing superblocks and filesystem accounting information: done This filesystem will be automatically checked every 30 mounts or 180 days, whichever comes first. Use tune4fs -c or -i to override.

Записываю инфу про raid в конфиг, как оказалось это обязательно нужно делать
[root@dbserver38 ~]# mdadm --detail --scan >> /etc/mdadm.conf [root@dbserver38 ~]#

Не забыть:
Точки монтирования в файле etc/fstab

В принципе все, перезапускаем систему и видим новый raid, который готов к работе. Дальше производим либо полную установку Oracle, либо восстанавливаем из бэкапа и работаем в штатном режиме.

Ссылки: 
  1. http://beepings.blogspot.com/2018/10/dbserver.html
  2. http://beepings.blogspot.com/2015/02/dbserver-raid-stripe.html
  3. http://www.timcompany.ru/raid.html

Комментарии

Популярные сообщения из этого блога

Linux (РедОС). Сброс пароля

ТФФ 35.0. Полный перечень документов альбома ТФФ (Таблица 2)

ТФФ 34.0. Полный перечень документов альбома ТФФ (Таблица 2)

SQL Error [53200]: ОШИБКА: нехватка разделяемой памяти Подсказка: Возможно, следует увеличить параметр max_locks_per_transaction

РедОС. Подключение к сетевой папке