Как я RAID0 познавал


История

Решили что нужно собрать RAID0 из 3-х дисков. Так как один из 4 дисков, который входил в RAID10 постоянно сбоил и вылетал из RAID. О том как его "засунуть" обратно уже разобрал, но это помогает на некоторое время, а потом снова привет. Причину так и не выяснили:

  • на badblock проверен - без ошибок
  • SATA-кабель поменяли - проблема осталась
Осталось 2 варианта -  это либо, что поднимается температура дисков и он просто не выдерживает, либо не выдерживает блок питания (хотя это исключается тем, что постоянно вылетает только диск sdb). Во всяком случае, дальше проверять не стали, так как много трудозатрат и проблем в работе всего филиала. Поэтому собственно и выполняем команды снизу для создания необходимого soft-raid0.



[root@dbserver38 ~]# mdadm --create --verbose /dev/md0 --level=raid0 --raid-devices=3 /dev/sda1 /dev/sdc1 /dev/sdd1 mdadm: chunk size defaults to 64K mdadm: /dev/sda1 appears to contain an ext2fs file system size=1953519872K mtime=Mon Dec 3 09:53:08 2018 mdadm: /dev/sda1 appears to be part of a raid array: level=raid10 devices=4 ctime=Fri Nov 16 09:19:42 2018 mdadm: /dev/sdc1 appears to be part of a raid array: level=raid10 devices=4 ctime=Fri Nov 16 09:19:42 2018 mdadm: /dev/sdd1 appears to be part of a raid array: level=raid10 devices=4 ctime=Fri Nov 16 09:19:42 2018 Continue creating array? y mdadm: array /dev/md0 started.

Проверяю доступность и статус raid
[root@dbserver38 ~]# mdadm --detail /dev/md0 /dev/md0: Version : 0.90 Creation Time : Tue Dec 4 23:44:21 2018 Raid Level : raid0 Array Size : 2930279808 (2794.53 GiB 3000.61 GB) Raid Devices : 3 Total Devices : 3 Preferred Minor : 0 Persistence : Superblock is persistent Update Time : Tue Dec 4 23:44:21 2018 State : clean Active Devices : 3 Working Devices : 3 Failed Devices : 0 Spare Devices : 0 Chunk Size : 64K UUID : 60fadd17:8deedbfa:4864a0d7:986ce922 Events : 0.1 Number Major Minor RaidDevice State 0 8 1 0 active sync /dev/sda1 1 8 33 1 active sync /dev/sdc1 2 8 49 2 active sync /dev/sdd1 [root@dbserver38 ~]# cat /proc/mdstat Personalities : [raid0] md0 : active raid0 sdd1[2] sdc1[1] sda1[0] 2930279808 blocks 64k chunks unused devices: <none>
Форматирую raid
[root@dbserver38 ~]# mkfs.ext4 /dev/md0 mke4fs 1.41.12 (17-May-2010) Filesystem label= OS type: Linux Block size=4096 (log=2) Fragment size=4096 (log=2) Stride=0 blocks, Stripe width=0 blocks 183148544 inodes, 732569952 blocks 36628497 blocks (5.00%) reserved for the super user First data block=0 Maximum filesystem blocks=4294967296 22357 block groups 32768 blocks per group, 32768 fragments per group 8192 inodes per group Superblock backups stored on blocks: 32768, 98304, 163840, 229376, 294912, 819200, 884736, 1605632, 2654208, 4096000, 7962624, 11239424, 20480000, 23887872, 71663616, 78675968, 102400000, 214990848, 512000000, 550731776, 644972544 Writing inode tables: done Creating journal (32768 blocks): done Writing superblocks and filesystem accounting information: done This filesystem will be automatically checked every 30 mounts or 180 days, whichever comes first. Use tune4fs -c or -i to override.

Записываю инфу про raid в конфиг, как оказалось это обязательно нужно делать
[root@dbserver38 ~]# mdadm --detail --scan >> /etc/mdadm.conf [root@dbserver38 ~]#

Не забыть:
Точки монтирования в файле etc/fstab

В принципе все, перезапускаем систему и видим новый raid, который готов к работе. Дальше производим либо полную установку Oracle, либо восстанавливаем из бэкапа и работаем в штатном режиме.

Ссылки: 
  1. http://beepings.blogspot.com/2018/10/dbserver.html
  2. http://beepings.blogspot.com/2015/02/dbserver-raid-stripe.html
  3. http://www.timcompany.ru/raid.html

Комментарии

Популярные сообщения из этого блога

TRUNCATE / DELETE / DROP или как очистить таблицу

Linux (РедОС). Сброс пароля

ЭС с ЦБ РФ. РЕКВИЗИТНЫЙ СОСТАВ ЭС

КБК. КВФО - Код вида финансового обеспечения (деятельности)

ТФФ 35.0. Полный перечень документов альбома ТФФ (Таблица 2)