Как я RAID0 познавал
История
Решили что нужно собрать RAID0 из 3-х дисков. Так как один из 4 дисков, который входил в RAID10 постоянно сбоил и вылетал из RAID. О том как его "засунуть" обратно уже разобрал, но это помогает на некоторое время, а потом снова привет. Причину так и не выяснили:
- на badblock проверен - без ошибок
- SATA-кабель поменяли - проблема осталась
Осталось 2 варианта - это либо, что поднимается температура дисков и он просто не выдерживает, либо не выдерживает блок питания (хотя это исключается тем, что постоянно вылетает только диск sdb). Во всяком случае, дальше проверять не стали, так как много трудозатрат и проблем в работе всего филиала. Поэтому собственно и выполняем команды снизу для создания необходимого soft-raid0.
[root@dbserver38 ~]# mdadm --create --verbose /dev/md0 --level=raid0 --raid-devices=3 /dev/sda1 /dev/sdc1 /dev/sdd1 mdadm: chunk size defaults to 64K mdadm: /dev/sda1 appears to contain an ext2fs file system size=1953519872K mtime=Mon Dec 3 09:53:08 2018 mdadm: /dev/sda1 appears to be part of a raid array: level=raid10 devices=4 ctime=Fri Nov 16 09:19:42 2018 mdadm: /dev/sdc1 appears to be part of a raid array: level=raid10 devices=4 ctime=Fri Nov 16 09:19:42 2018 mdadm: /dev/sdd1 appears to be part of a raid array: level=raid10 devices=4 ctime=Fri Nov 16 09:19:42 2018 Continue creating array? y mdadm: array /dev/md0 started.
Проверяю доступность и статус raid
[root@dbserver38 ~]# mdadm --detail /dev/md0
/dev/md0:
Version : 0.90
Creation Time : Tue Dec 4 23:44:21 2018
Raid Level : raid0
Array Size : 2930279808 (2794.53 GiB 3000.61 GB)
Raid Devices : 3
Total Devices : 3
Preferred Minor : 0
Persistence : Superblock is persistent
Update Time : Tue Dec 4 23:44:21 2018
State : clean
Active Devices : 3
Working Devices : 3
Failed Devices : 0
Spare Devices : 0
Chunk Size : 64K
UUID : 60fadd17:8deedbfa:4864a0d7:986ce922
Events : 0.1
Number Major Minor RaidDevice State
0 8 1 0 active sync /dev/sda1
1 8 33 1 active sync /dev/sdc1
2 8 49 2 active sync /dev/sdd1
[root@dbserver38 ~]# cat /proc/mdstat
Personalities : [raid0]
md0 : active raid0 sdd1[2] sdc1[1] sda1[0]
2930279808 blocks 64k chunks
unused devices:
<none>
Форматирую raid
[root@dbserver38 ~]# mkfs.ext4 /dev/md0
mke4fs 1.41.12 (17-May-2010)
Filesystem label=
OS type: Linux
Block size=4096 (log=2)
Fragment size=4096 (log=2)
Stride=0 blocks, Stripe width=0 blocks
183148544 inodes, 732569952 blocks
36628497 blocks (5.00%) reserved for the super user
First data block=0
Maximum filesystem blocks=4294967296
22357 block groups
32768 blocks per group, 32768 fragments per group
8192 inodes per group
Superblock backups stored on blocks:
32768, 98304, 163840, 229376, 294912, 819200, 884736, 1605632, 2654208,
4096000, 7962624, 11239424, 20480000, 23887872, 71663616, 78675968,
102400000, 214990848, 512000000, 550731776, 644972544
Writing inode tables: done
Creating journal (32768 blocks): done
Writing superblocks and filesystem accounting information: done
This filesystem will be automatically checked every 30 mounts or
180 days, whichever comes first. Use tune4fs -c or -i to override.
Записываю инфу про raid в конфиг, как оказалось это обязательно нужно делать
[root@dbserver38 ~]# mdadm --detail --scan >> /etc/mdadm.conf
[root@dbserver38 ~]#Не забыть:
Точки монтирования в файле etc/fstab
В принципе все, перезапускаем систему и видим новый raid, который готов к работе. Дальше производим либо полную установку Oracle, либо восстанавливаем из бэкапа и работаем в штатном режиме.
Ссылки:
- http://beepings.blogspot.com/2018/10/dbserver.html
- http://beepings.blogspot.com/2015/02/dbserver-raid-stripe.html
- http://www.timcompany.ru/raid.html
Комментарии
Отправить комментарий