Pesquisa de site

Configure RAID nível 6 (striping com paridade distribuída dupla) no Linux - Parte 5


RAID 6 é uma versão atualizada do RAID 5, onde possui duas paridades distribuídas que fornecem tolerância a falhas mesmo após a falha de duas unidades. Sistema de missão crítica ainda operacional em caso de falhas simultâneas de dois discos. É semelhante ao RAID 5, mas é mais robusto, pois usa mais um disco para paridade.

Em nosso artigo anterior, vimos paridade distribuída em RAID 5, mas neste artigo veremos RAID 6 com paridade distribuída dupla. Não espere desempenho extra do que qualquer outro RAID; nesse caso, também teremos que instalar um controlador RAID dedicado. Aqui no RAID 6, mesmo se perdermos nossos 2 discos, podemos recuperar os dados substituindo uma unidade sobressalente e construindo-a a partir da paridade.

Para configurar um RAID 6, são necessários no mínimo 4 números de discos ou mais em um conjunto. RAID 6 tem vários discos, mesmo em algum conjunto pode ter alguns discos, durante a leitura, ele lerá todas as unidades, então a leitura seria mais rápida, enquanto a escrita seria ruim porque tem que distribuir em vários discos.

Agora, muitos de nós chegamos à conclusão de por que precisamos usar o RAID 6, quando ele não funciona como qualquer outro RAID. Hmm… quem levanta essa questão precisa saber que, se precisar de alta tolerância a falhas escolha RAID 6. Em todos os ambientes superiores com alta disponibilidade para banco de dados, eles usam RAID 6 porque banco de dados é o mais importante e precisa ser seguro a qualquer custo, também pode ser útil para ambientes de streaming de vídeo.

Prós e contras do RAID 6

  1. O desempenho é bom.
  2. O RAID 6 é caro, pois requer o uso de duas unidades independentes para funções de paridade.
  3. Perderá a capacidade de dois discos para utilização de informações de paridade (paridade dupla).
  4. Nenhuma perda de dados, mesmo após falha de dois discos. Podemos reconstruir a partir da paridade após substituir o disco com falha.
  5. A leitura será melhor que o RAID 5, porque lê vários discos, mas o desempenho da gravação será muito ruim sem o controlador RAID dedicado.

Requisitos

São necessários no mínimo 4 números de discos para criar um RAID 6. Se quiser adicionar mais discos, você pode, mas deve ter um controlador RAID dedicado. No RAID de software, não obteremos melhor desempenho no RAID 6. Portanto, precisamos de um controlador RAID físico.

Para aqueles que são novos na configuração de RAID, recomendamos ler os artigos sobre RAID abaixo.

  1. Conceitos Básicos de RAID no Linux – Parte 1
  2. Criando Software RAID 0 (Stripe) no Linux – Parte 2
  3. Configurando RAID 1 (espelhamento) no Linux – Parte 3
Configuração do meu servidor
Operating System :	CentOS 6.5 Final
IP Address	 :	192.168.0.228
Hostname	 :	rd6.tecmintlocal.com
Disk 1 [20GB]	 :	/dev/sdb
Disk 2 [20GB]	 :	/dev/sdc
Disk 3 [20GB]	 :	/dev/sdd
Disk 4 [20GB]	 : 	/dev/sde

Este artigo é a Parte 5 de uma série de 9 tutoriais sobre RAID, aqui veremos como podemos criar e configurar o Software RAID 6 ou Striping com Dupla Paridade Distribuída em Sistemas ou servidores Linux usando quatro discos de 20 GB chamados /dev/sdb, /dev/sdc, /dev/sdd e /dev/sde.

Etapa 1: instalar a ferramenta mdadm e examinar as unidades

1. Se você está acompanhando nossos dois últimos artigos sobre Raid (Parte 2 e Parte 3), onde já mostramos como instale a ferramenta 'mdadm'. Se você é novo neste artigo, deixe-me explicar que ‘mdadm’ é uma ferramenta para criar e gerenciar Raid em sistemas Linux, vamos instalar a ferramenta usando o seguinte comando de acordo com sua distribuição Linux.

yum install mdadm		[on RedHat systems]
apt-get install mdadm 	[on Debain systems]

2. Depois de instalar a ferramenta, agora é hora de verificar as quatro unidades anexadas que usaremos para a criação do ataque usando o seguinte comando ‘fdisk’.

fdisk -l | grep sd

3. Antes de criar unidades RAID, sempre examine nossas unidades de disco para ver se já existe algum RAID criado nos discos.

mdadm -E /dev/sd[b-e]
mdadm --examine /dev/sdb /dev/sdc /dev/sdd /dev/sde

Nota: Na imagem acima mostra que não há nenhum super-bloco detectado ou nenhum RAID está definido em quatro unidades de disco. Podemos avançar mais para começar a criar o RAID 6.

Etapa 2: particionamento de unidade para RAID 6

4. Agora crie partições para raid em '/dev/sdb', '/dev/sdc', '/dev/ sdd' e '/dev/sde' com a ajuda do seguinte comando fdisk. Aqui, mostraremos como criar partição na unidade sdb e posteriormente os mesmos passos a serem seguidos para o restante das unidades.

Criar partição /dev/sdb
fdisk /dev/sdb

Siga as instruções mostradas abaixo para criar a partição.

  1. Pressione ‘n’ para criar uma nova partição.
  2. Em seguida, escolha ‘P’ para partição primária.
  3. Em seguida, escolha o número da partição como 1.
  4. Defina o valor padrão pressionando apenas duas vezes a tecla Enter.
  5. Em seguida, pressione ‘P‘ para imprimir a partição definida.
  6. Pressione ‘L‘ para listar todos os tipos disponíveis.
  7. Digite ‘t’ para escolher as partições.
  8. Escolha 'fd' para Linux raid auto e pressione Enter para aplicar.
  9. Em seguida, use novamente ‘P‘ para imprimir as alterações que fizemos.
  10. Use ‘w’ para escrever as alterações.

Criar partição /dev/sdb
fdisk /dev/sdc

Criar partição /dev/sdd
fdisk /dev/sdd

Criar partição /dev/sde
fdisk /dev/sde

5. Depois de criar partições, é sempre um bom hábito examinar as unidades em busca de superblocos. Se não existirem superblocos, podemos criar uma nova configuração de RAID.

mdadm -E /dev/sd[b-e]1


or

mdadm --examine /dev/sdb1 /dev/sdc1 /dev/sdd1 /dev/sde1

Etapa 3: Criando dispositivo MD (RAID)

6. Agora é hora de criar o dispositivo Raid 'md0' (ou seja, /dev/md0) e aplicar o nível de ataque em todas as partições recém-criadas e confirme o ataque usando os seguintes comandos.

mdadm --create /dev/md0 --level=6 --raid-devices=4 /dev/sdb1 /dev/sdc1 /dev/sdd1 /dev/sde1
cat /proc/mdstat

7. Você também pode verificar o processo atual de ataque usando o comando watch conforme mostrado na captura de tela abaixo.

watch -n1 cat /proc/mdstat

8. Verifique os dispositivos raid usando o seguinte comando.

mdadm -E /dev/sd[b-e]1

Nota:: O comando acima irá exibir as informações dos quatro discos, o que é bastante longo, então não é possível postar a saída ou captura de tela aqui.

9. Em seguida, verifique a matriz RAID para confirmar se a ressincronização foi iniciada.

mdadm --detail /dev/md0

Etapa 4: Criando FileSystem no dispositivo Raid

10. Crie um sistema de arquivos usando ext4 para ‘/dev/md0‘ e monte-o em /mnt/raid6. Aqui usamos ext4, mas você pode usar qualquer tipo de sistema de arquivos conforme sua escolha.

mkfs.ext4 /dev/md0

11. Monte o sistema de arquivos criado em /mnt/raid6 e verifique os arquivos no ponto de montagem, podemos ver o diretório perdido+encontrado.

mkdir /mnt/raid6
mount /dev/md0 /mnt/raid6/
ls -l /mnt/raid6/

12. Crie alguns arquivos no ponto de montagem e anexe algum texto em qualquer um dos arquivos para verificar o conteúdo.

touch /mnt/raid6/raid6_test.txt
ls -l /mnt/raid6/
echo "tecmint raid setups" > /mnt/raid6/raid6_test.txt
cat /mnt/raid6/raid6_test.txt

13. Adicione uma entrada em /etc/fstab para montar automaticamente o dispositivo na inicialização do sistema e anexe a entrada abaixo. O ponto de montagem pode ser diferente de acordo com seu ambiente.

vim /etc/fstab

/dev/md0                /mnt/raid6              ext4    defaults        0 0

14. Em seguida, execute o comando ‘mount -a’ para verificar se há algum erro na entrada do fstab.

mount -av

Etapa 5: Salvar configuração RAID 6

15. Observe que por padrão o RAID não possui um arquivo de configuração. Temos que salvá-lo manualmente usando o comando abaixo e então verificar o status do dispositivo ‘/dev/md0‘.

mdadm --detail --scan --verbose >> /etc/mdadm.conf
mdadm --detail /dev/md0

Etapa 6: adicionar unidades sobressalentes

16. Agora possui 4 discos e há duas informações de paridade disponíveis. Em alguns casos, se algum disco falhar podemos obter os dados, pois há dupla paridade no RAID 6.

Pode ser que, se o segundo disco falhar, possamos adicionar um novo antes de perder o terceiro disco. É possível adicionar uma unidade sobressalente ao criar nosso conjunto RAID, mas não defini a unidade sobressalente ao criar nosso conjunto RAID. Porém, podemos adicionar uma unidade sobressalente após qualquer falha na unidade ou durante a criação do conjunto RAID. Agora que já criamos o conjunto RAID, deixe-me adicionar uma unidade sobressalente para demonstração.

Para fins de demonstração, conectei um novo disco HDD (ou seja, /dev/sdf), vamos verificar o disco anexado.

ls -l /dev/ | grep sd

17. Agora confirme novamente se o novo disco anexado para qualquer ataque já está configurado ou não usando o mesmo comando mdadm.

mdadm --examine /dev/sdf

Nota: Como de costume, como criamos partições para quatro discos anteriormente, da mesma forma temos que criar uma nova partição no novo disco conectado usando fdisk< comando.

fdisk /dev/sdf

18. Novamente após criar uma nova partição em /dev/sdf, confirme o ataque na partição, inclua a unidade sobressalente em /dev/md0 > dispositivo raid e verifique o dispositivo adicionado.

mdadm --examine /dev/sdf
mdadm --examine /dev/sdf1
mdadm --add /dev/md0 /dev/sdf1
mdadm --detail /dev/md0

Etapa 7: verificar a tolerância a falhas do Raid 6

19. Agora, vamos verificar se a unidade sobressalente funciona automaticamente, se algum disco falhar em nosso Array. Para testes, marquei pessoalmente que uma das unidades falhou.

Aqui, marcaremos /dev/sdd1 como unidade com falha.

mdadm --manage --fail /dev/md0 /dev/sdd1

20. Deixe-me obter os detalhes do conjunto RAID agora e verificar se nosso sobressalente começou a sincronizar.

mdadm --detail /dev/md0

Viva! Aqui, podemos ver que o sobressalente foi ativado e iniciou o processo de reconstrução. Na parte inferior podemos ver a unidade com defeito /dev/sdd1 listada como defeituosa. Podemos monitorar o processo de construção usando o seguinte comando.

cat /proc/mdstat

Conclusão:

Aqui, vimos como configurar o RAID 6 usando quatro discos. Este nível de RAID é uma configuração cara com alta redundância. Veremos como configurar um Nested RAID 10 e muito mais nos próximos artigos. Até lá, fique conectado com o TECMINT.