Passo a Passo Failover Cluster com Hyper-V. Início ao Fim | Renan Rodrigues

Pessoal, peço desculpas pela demora em postar um novo tópico. Estive envolvido na implementação de alguns projetos.

Hoje vou detalhar um deles, sendo Alta Disponibilidade de Máquinas Virtuais, com Failover Cluster e Hyper-V.

Com este guia conseguirá montar um Cluster Hyper-V do início ao fim.

Vamos ao que interessa!

Visão Geral

O projeto tem por finalidade aumentar a disponibilidade dos serviços oferecidos aos usuários da rede e assim entregar um serviço de maior qualidade ao cliente. Além disso, teremos redução de custo com energia, liberação de espaço físico e economia em investimentos futuros com Servidores.

Problemas de lentidão, espaço em disco insuficiente, paradas não planejadas, e um nível de criticidade alta para os negócios, foram os fatores principais para a escolha e implementação do Cluster.

Cenário atual

O cliente possui três servidores físicos que dividem os seguintes serviços:

- Controlador de Domínio;
- Aplicativos Corporativos;
- Arquivos dos Usuários (PDF, Word, Excel, CAD, etc.)
- DNS, DHCP;
- Hyper-V (Servidor Proxy virtual);
- Antivírus;
- Backup, etc.

Projeto

Lista de equipamentos utilizados:

1.          Dois Servidores HP ProLiant ML350 G6. Cada um contendo:
            - 1 Processador Intel Xeon E5650;
            - 16Gb Memória DDR3 PC3-10600 Registered;
            - 2 Discos Sata 500Gb 7k Raid 1;
            - 2 Fontes 750W redundantes;
            - 2 Placas de rede dual-gigabit onboard;
            - 6 Placas de rede HP NC112T offboard.

2.            Um Storage HP P2000 ISCSI 1Gb;
                - HP P2000 LFF Modular Smart Array Chassis;
                - HP P2000 G3 iSCSI MSA Controller;
                - 6 Discos SAS 300Gb 15k Raid 10.

3.               Dois Nobreaks Enermax 3000VA.

Softwares Utilizados:

- Microsoft Windows Server 2008 R2 SP1 Enterprise Full;
- Antivírus Symantec EndPoint Protection;
- Atualizações Windows e Antivírus;
- Atualizações de Drivers e Firmwares.

Serviços Instalados:

- ISCSI Initiator;
- MPIO;
- Failover Cluster;
- Hyper-V.

Placas de Rede:

Em um projeto de cluster as placas de rede tem um papel de extrema importância, e a escolha da quantidade das placas deve ser feita de forma cuidadosa. Neste projeto estou montando um Cluster de Failover com Hyper-V utilizando CSV e Live Migration, optei pela seguinte configuração:

1 placa para Heartbeat;
1 placa para CSV;
1 placa para Live Migration;
1 placa para gerenciamento e comunicação do nó físico com a rede local;
2 placas para VM's;
2 placas para ISCSI;
1 placa virtual resultante do TEAM entre as duas placas das VM's.

Nenhuma delas podem estar na mesma rede, caso contrário não passará na validação do Cluster.
Mantenha um padrão de nomenclatura e renomeie todas elas, lembrando que deve ser o mesmo nome nos dois nós.

Importante lembrar que em cada Servidor, o Windows deve ser instalado no mesmo volume (C: geralmente).

Passo a Passo

1.                   Caso os servidores não estejam com o Raid de discos configurado, faça-o conforme orientação do fabricante. Caso tenha dúvidas de como fazer, consulte o manual. No meu caso optei pelo Raid 1 (espelhamento) por um motivo. Só vou armazenar uma partição para o SO, sendo assim compramos apenas dois discos. Recomendo usar Raid 5 em partições que vão armazenar dados, neste caso usaremos o Storage para o fazer, tornando-se dispensável;


2.                   Após o Raid estar devidamente configurado, instale o sistema operacional. Neste caso, o Windows Server 2008 R2 Ent.;


3.       Instale o antivírus, neste caso, o Symantec EndPoint Protection;


4.       Instale todos os drivers que não foram instalados automaticamente com o SO. Um ponto muito importante é que você acesse o web site de seu fabricante e faça o download de todos os drivers que tiver, agora na versão mais atual. Isso evitará futuros problemas que podem ocorrer pela versão desatualizada. No meu caso atualizei drivers das placas de rede, controladora sas/sata, vídeo e instalei um aplicativo da HP para gerenciamento das placas de rede e criação de TEAM;


5.       Atualize a BIOS dos servidores. No meu caso não foi preciso pois já estava instalada a última versão;


6.       Configure seu Storage. No meu caso, como dito anteriormente, utilizei no projeto o HP P2000 ISCSI 1Gb. Para o fazer, conectei um cabo de rede na interface de gerenciamento localizado na parte traseira e configurei minha placa de rede na mesma faixa de rede. Também utilizei  a interface CLI, que é via linha de comando. Não entrarei em maiores detalhes pois seu projeto pode usar outro modelo de Storage.

O essencial nesta etapa, é que configure os principais recursos para o funcionamento do Cluster, envolvendo:

  • Configuração das placas de rede de gerenciamento;
  • Configuração das placas de rede ISCSI (endereço IP de cada porta, habilitar Jumbo Frames, setar velocidade, etc);
  • Configuração do Disco Virtual. No meu caso criei apenas um utilizando a capacidade total dos discos em Raid 10 para performance e segurança;
  • Configuração dos volumes (LUNS). No meu caso criei quatro, o primeiro para quórum, o segundo para o disco de sistema do servidor de aplicativos e arquivos, o terceiro para o disco de dados do servidor de aplicativos e arquivos (este servidor separei dos demais por ter uma demanda maior de acesso e gravação de arquivos) e o quarto e último para as demais vm's. Ressalto que estou descrevendo o meu caso, você deve escolher a melhor opção para seu projeto;
  • Configure o mascaramento das LUNS. Este passo é o mapeamento de cada LUN aos nós do Cluster, caso contrário quando efetuar a conexão do nó ao storage (via ISCSI Initiator), nenhum volume estará disponível. Para fazê-lo deverá saber o IQN de cada servidor. Para isso abra ISCSI Initiator, Configuration, Initiator Name. Dependendo do seu storage, quando realizar a primeira conexão do nó ao storage, automaticamente o servidor ficará visível no storage já com seu IQN. Depois é só fazer o mascaramento para cada LUN dando acesso de leitura e escrita.

7.       Crie um TEAM entre as duas placas dedicadas as VM's. No meu caso utilizei o utilitário da HP. Procure saber se seu fabricante fornece alguma ferramenta para o fazer.


8.       Configure as placas de rede em cada nó de forma idêntica.

Placa Heartbeat:
Nas propriedades da placa, desabilitar todas opções exceto IPv4 e IPv6;
Em IPv4, desabilitar registro DNS e NetBIOS sobre IP;
Setar a velocidade para 1000/Full;
Definir IP e Subnet Mask, somente.

Placa CSV:
Nas propriedades da placa, habilite apenas, Client for Microsoft, File and Printer, IPv4 e IPv6;
Em IPv4, desabilitar registro DNS e NetBIOS sobre IP;
Setar a velocidade para 1000/Full;
Definir IP e Subnet Mask, somente.

Placa Live Migration:
Nas propriedades da placa, desabilitar todas opções exceto IPv4 e IPv6;
Em IPv4, desabilitar registro DNS e NetBIOS sobre IP;
Setar a velocidade para 1000/Full;
Definir IP e Subnet Mask, somente.

Placa Gerenciamento/Comunicação Nó (servidor físico):
Nas propriedades da placa, mantenha todas opções habilitadas;
Setar a velocidade para 1000/Full;
Definir IP, Subnet Mask, Gateway e DNS.

Placas VM's:
As duas placas foram configuradas em TEAM para balanceamento e tolerância a falhas. Quando criar o TEAM todas as opções serão desabilitadas por padrão.

Placas ISCSI (comunicação nós > storage):
Nas propriedades da placa, desabilitar todas opções exceto IPv4;
Em IPv4, desabilitar registro DNS e NetBIOS sobre IP;
Setar a velocidade para 1000/Full, habilitar o pacote Jumbo 9014 bytes,
Habilitar o Controle de Fluxo (Flow Control);
Para testar se há suporte ao Jumbo Frames, use o comando ping-l 8000-f-n 5 <ip storage>.

Placa Virtual TEAM entre as duas placas VM's: (já deve ter sido criada)
Esta placa será indicada no momento de criar uma placa virtual no Hyper-V, portanto, ela será automaticamente configurada e no final apenas a opção de Switch Virtual estará habilitado nas propriedades.


9.       Adicione a role Hyper-V e a feature Clustering Failover nos dois Servidores. Na instalação do Hyper-V não selecione nenhuma placa para uso das VM's. Faremos isso em seguida;


10.   Abra o Hyper-V Manager, clique em Virtual Network Manager e em seguida External e Add; Escolha a descrição e o nome da placa, na opção External, selecione a placa resultante do TEAM entre as duas placas VMS. Para não criar uma placa virtual para uso no host físico, desmarque a opção Allow Management Operating System to Share this network adapter. No meu caso eu desmarquei para não criá-la. Clique em Ok;


11.   Altere a ordem das placas em cada nó. Abra o Painel de ControleNetwork and InternetNetwork and Sharing CenterChange adapter settings, pressione a tecla Alt, clique em Advanced e depois em Advanced Settings.

Defina a seguinte ordem:

- Gerenciamento Nó Físico
- ISCSI 1
- ISCSI 2
- Live Migration
- CSV
- VM1 (TEAM)
- VM2 (TEAM)
- Heartbeat
Virtual Team


12.   Crie uma conta no domínio sem privilégios, apenas como usuário comum. Dê permissão a este usuário para criar objetos Computador no domínio inteiro. Para fazê-lo, siga as etapas:

  1. No controlador de domínio, abra Active Directory Users and Computers;
  2. Clique com o botão direito sobre o domínio e em seguida Delegate Control;
  3. No wizard que abriu, clique em Next e adicione o usuário recém criado para o cluster. Clique em Next mais uma vez;
  4. Selecione Create a custom task to delegate e em seguida Next;
  5. Clique em This folder, existing objects in this folder, and creation of new objects in this folder e clique em Next;
  6. Marque somente a última caixa, e selecione a primeira opção, Create Computer Objects;
  7. Clique em Next. Confirme o resumo das configurações e em seguida Finish.

13.   Insira os dois nós ao seu domínio;


14.   Faça logon ainda como administrador local nos dois nós e adicione a conta recém criada no domínio como Administrator Local do Windows. Para fazê-lo, faça:

  1. Abra Server Manager;
  2. Em seguida, ConfigurationLocal Users and GroupsGroups;
  3. Clique duas vezes em AdministratorsAdd, e insira o nome do usuário. Será necessário informar uma conta do domínio para finalizar esta etapa;
  4. Clique em Ok nas telas abertas e faça logon no Windows com o respectivo usuário nos dois nós.

15.   Estabeleça conexão entre os nós e o Storage utilizando a ferramenta ISCSI Initiator. Além disso, será configurado através da ferramenta MPIO, redundância de caminhos entre as placas de rede dos dispositivos.

Para adicionar as duas ferramentas aos nós:

  1. Para o ISCSI Initiator, abra o painel de controle e clique sobre o mesmo. Uma tela informando o início automático surgirá, clique em Sim;
  2. Para o MPIO, abra Server Manager, clique em FeaturesAdd Features e marque a opção Multipath I/O. Clique em Next e Install.
Para configurar cada ferramenta nos nós, faça:

  1. Abra a ferramenta ISCSI Initiator;
  2. Abra a aba chamada Discovery e clique em Discover Portal para adicionar o primeiro IP do Storage (lembrando que no meu caso o storage possui dois módulos somando quatro placas ISCSI, duas para cada nó);
  3. Na aba que se abre, insira o IP do storage e a porta 3260 (default) e clique em Advanced;
  4. Em Advanced Settings, na opção Local adapter, selecione Microsoft iSCSI Initiator. Em seguida, na opção Initiator IP, selecione o IP do nó que estabelecerá conexão com o storage pelo IP informado anteriormente, clique em Ok;
  5. Navegue até a aba Targets. A conexão recém criada estará inativa, para conectar clique no botão Connect e em seguida Advanced;
  6. Na opção Local Adapter, selecione Microsoft iSCSI Initiator. Em Initiator IP selecione o IP do nó e em Target portal IP selecione o IP do storage. Clique em Ok nas duas telas que estão abertas;
  7. Abra a ferramenta MPIO e navegue até a aba Discover Multi-Paths. Clique em Add support for ISCSI devices e em seguida Add. Será necessário reiniciar o Servidor;
  8. Após fazer logon no Windows, abra a ferramenta MPIO e confira em MPIO Devices se existe um novo ID, diferente de Vendor 8Product 16;
  9. Apenas para confirmação, abra a ferramenta ISCSI Initiator em seguida Devices. Verifique se existe os respectivos discos disponibilizados no storage. Devem apontar para Target 0;
  10. Voltando a aba Targets, clique em Connect e marque a opção Enable multi-path. Em seguida clique em Advanced...;
  11. Na opção Local Adapter, selecione Microsoft iSCSI Initiator. Em Initiator IP selecione o segundo IP do nó que conectará ao segundo módulo do storage. E em Target portal IP selecione o IP do storage. Clique em Ok nas duas telas que estão abertas;
  12. Novamente em Targets, clique em Devices e confira se os discos agora apontam cada um para Target 0 e 1;
  13. Selecione o primeiro Disk 1 e clique em MPIO. Em Load balance policy selecione a política desejada. Repita o mesmo procedimento para os demais discos;
  14. Caso a política MPIO não seja a desejadaserá necessário o seguinte procedimento para alterá-la:
  15. - Abra a ferramenta Disk Management em Server Manager; - Em cada disco, clique com o botão direito em Propriedades; - Navegue até a opção MPIO, selecione a política desejada e clique em Apply; - Confirme se o Path ID 77030000 esta com o status Active/Optimized e o Path ID 77030001 esta com o status Active/Unoptimized. O target de cada um é 0 e 1 respectivamente;
  16. Ainda em Disk Management, selecione cada disco, torne-a Online e defina a partição como MBR (caso seja maior que 2Tb, selecione GPT). Crie volume simples e formate-as com NTFS. Não é necessário atribuir letras a unidade. Depois transforme os discos em Offline novamente.
É muito importante que faça esta última etapa apenas em um dos nós. Depois de finalizar a criação da partição e formatá-los, deixe os discos off-line novamente. Se por acaso mantê-los on-line simultaneamente nos nós, a partição será corrompida e na validação do cluster ocorrerá uma falha no teste de storage.


16.   Abra a ferramenta Failover Cluster Manager e clique em Validate a Configuration Wizard. Informe o nome dos nós e mantenha a opção para executar todos os testes.

Neste ponto, você já tem configurado todas as placas de rede e já possui conexão ao Storage com redundância de caminhos. Caso não tenha feito todas as etapas anteriores retorne e certifique-se de fazê-las.

Só poderá continuar para a fase de criação do cluster, se todos os testes passarem com sucesso.


17.   Após ter passado em todos os testes na validação do Cluster, crie-o informando os nós, nome do cluster e IP. Verifique o resumo da configuração criada, o quórum deve ser Node and Disk Majority (Cluster Disk 1 - reservado para o quórum) caso tenha apenas dois nós e um storage.


18.   Agora com o cluster criado e em funcionamento, abra a ferramenta Failover Cluster Manager e em seguida clique sobre Networks. Será exibido apenas as placas cujo estão com o TCP/IP habilitados, no meu caso somente seis. Altere o nome de cada uma pelo mesmo feito anteriormente no Windows. Em cada uma delas, clique em propriedades e configure-as da seguinte forma:

  • Heartbeat = Allow Cluster network communication on this network
  • CSV = Allow Cluster network communication on this network
  • Live Migration = Do Not Allow Cluster Network communication on this network
  • Gerenciamento Nó = Allow Cluster network communication on this network/Allow Clients to connect through this network
  • ISCSI 1 = Do Not Allow Cluster Network communication on this network
  • ISCSI 2 = Do Not Allow Cluster Network communication on this network

19.   Depois de configurar cada placa pelo Failover Cluster Manager, recomendo setar os valores AutoMetric e Metric em cada placa de rede manualmente, afim de garantir que os tráfegos passarão pelas placas corretas. Os valores para cada placa serão:

  • Heartbeat = Metric = 1500. AutoMetric = False
  • CSV = Metric = 500. AutoMetric = False
  • Live Migration = Metric = 1000. AutoMetric = False
  • Gerenciamento Nó = Metric = 10000. AutoMetric = True
  • ISCSI 1  = Metric = 10100. AutoMetric = True
  • ISCSI 2  = Metric = 10200. AutoMetric = True
Para definir os valores acima, abra Windows PowerShell Modules em Administrative Tools  e execute os comandos:

Para verificar os valores atuais digite:
Get-ClusterNetwork | ft Name, Metric, AutoMetric

Para setar o valor na placa CSV:
$csv = Get-ClusterNetwork digiteonomedaplaca
$csv.Metric = 500

Para setar o valor na placa LM:
$lm = Get-ClusterNetwork digiteonomedaplaca
$lm.Metric = 1000

Para setar o valor na placa HB:
$hb = Get-ClusterNetwork digiteonomedaplaca
$hb.Metric = 1500

Confirme o resultado:
Get-ClusterNetwork | ft Name, Metric, AutoMetric

As demais placas devem possuir os valores informados acima, caso contrário faça-o conforme mostrado nos comandos, alterando apenas o nome das placas.


20.   Habilite o Cluster Shared Volumes em Failover Cluster Manager. Aceite o termo e clique em Ok.
  • Clique com o botão direito na nova opção Cluster Shared Volumes, em seguida Add storage;
  • Adicione o disco que usará para as VM's (são as LUNS disponibilizadas pelo Storage);
  • Após habilitar o CSV, perceberá que um diretório chamado ClusterStorage foi criado na unidade C;
  • Dentro do mesmo cada disco é representado como Volume X, onde x é o número de cada um.
São nestes volumes que todas as VM's devem ser armazenadas, assim caso um dos nós pare por uma falha, o outro nó que esta funcionando será o responsável pela continuidade do negócio.


21.   Agora que seu cluster foi criado, configurado e o CSV habilitado, esta na hora de criar uma VM. Para isso, faça:

  1. Em Failover Cluster Manager, clique com o botão direito em Services and applicationsVirtual MachinesNew Virtual Machine, selecione o nó a gerenciá-lo neste primeiro momento;
  2. Na opção de armazenamento, indique o caminho CSV, sendo C:\ClusterStorage. O restante deve ser definido a cada VM individualmente.
Agora sua VM esta configurada em alta disponibilidade pelo Cluster Failover.

Interessante deixar uma dica, se por algum motivo todos os nós e Storage desligarem, talvez você precise intervir com um comando para forçar o início do quórum novamente, pois todos os nós ficaram off de uma vez. Execute o comando em prompt com privilégio:

net start clussvc /fq

Se for preciso, execute em todos os servidores do cluster. Para verificar se conseguiu quórum novamente, abra Failover Cluster Manager e na opção Quorum Configuration, deve estar como Node and Disk Majority (ou o quórum que for referente ao seu cluster).


Qualquer dúvida deixe um comentário.

Grande abraço a todos e espero ajudar com este tutorial.

Comentários

  1. Renan,

    No seu cenário de Cluster Hyper-V, 2 servidores para hyper-v + 1 para ad ? Estou com uma duvida do seguinte cenário 2 servidores, sendo host1 e host2 sendo host-1 ad primario e host 2 ad adicional é possível ? Ae vem a duvida a função do AD coloco primeiro que o hyper-v ?

    ResponderExcluir
  2. Bruno, no cenário Cluster Hyper-V, necessariamente precisa existir um servidor físico Controlador de Domínio. A boa prática, é que o mesmo não seja o mesmo servidor nó do cluster, ou seja, o servidor que executará as VM's. Respondendo sua dúvida, é preciso ter o serviço Active Directory e DNS em pleno funcionamento antes de "subir" o Cluster. Depois que seu ambiente estiver ok, faça os procedimentos descritos no post. Qualquer dúvida é só postar.
    Abraços, Renan.

    ResponderExcluir
  3. Boa tarde Renan,

    Seguinte cara, estou com uma bomba aqui, tenho um cluster failover, dois nós 2008 R2 controladores de Domínio iguais e Storage EMC (sem ISCSI Initiator). Cada servidor possui uma placa de rede. O problema é que sempre ocorre erro de RPC, e não consigo mais migrar as máquinas entre os nós. Somente quando vou até as configurações da placa e desabilito o pacote jumbo e habilito novamente nos dois nós. Sabes de Algo a respeito?

    ResponderExcluir
  4. Renan,

    Para que serve a placa de rede CSV afinal ?

    ResponderExcluir
  5. Ola Boa Tarde
    Tambem tenho essa duvida de para que serve a placa de CVS , assim como a finalidade da placa de HeartBeat, qual o seu papel e onde a configuro para que faça esse papel pretendido.

    Obrigado

    ResponderExcluir
  6. Valdir, boa noite.

    Nunca trabalhei com este storage, mas neste caso, para realizar o troubleshooting, uma dica é analisar todo o seu cenário e anotar todos os pontos que podem causar tal erro. Indico analisar principalmente a configuração de rede, como você disse, cada servidor possui apenas uma placa de rede? Se sim, para cenários de failover cluster com LV e CSV, usando ISCSI, a boa prática é pelo menos seis placas, sendo:

    1 - Servidor Físico (nó);
    1 - VM's (clientes > VM's - vise-versa);
    1 - ISCSI (se for FC, a devida placa para a mesma);
    1 - Cluster (Heartbeat);
    1 - LV;
    1 - CSV.

    Reveja sua configuração e se quiser, me mande por e-mail a especificação detalhada do projeto.

    Abraços.

    ResponderExcluir
  7. Júlio / Manuel, boa noite.

    O CSV foi implementado com o lançamento do 2008 R2, sua grande diferença frente ao Failover Cluster do 2008, é a possibilidade de termos várias VM's na mesma LUN e vários Nós acessando-as simultaneamente , com acesso leitura e escrita.

    Respondendo suas perguntas, a rede CSV, dentre vários casos que é usado, um exemplo prático para entendimento é o seguinte:

    Existem 2 NÓS conectados ao Storage.
    Neste storage estão armazenadas suas VM's (Nas LUN's que são exibidas ao cluster como discos CSV).
    Os NÓS por default sempre acessam as VM's diretamente pela rede SAN (ISCSI, Fibra, etc)
    Se por ventura, esta comunicação é interrompida, o trafego da rede SAN, temporariamente é passado pela rede CSV ao outro nó que possui conexão ao Storage via SAN.
    Este processo é chamado de "Modo de redirecionamento I/O".

    Quando isso acontece, a performance é prejudica, e a comunicação SAN deve ser resolvido o quanto antes.

    A rede CSV é utilizada também para transportar metadados I/O, por exemplo em mudanças de proprietário do disco CSV, etc.

    O tráfego CSV geralmente é muito pesado, e por este motivo recomenda-se pelo menos LAN 1GB, e separada da rede heartbeat, que poderia fazer o cluster entrar em estado de failover por comunicação prejudicada.

    É recomendado deixar o cluster definir a placa a ser usada, mas caso queira definir manualmente quais placas de rede serão usadas para CSV e LV, deve-se modificar o valor "metric e autometric", conforme descrito no tutorial. Via de regra, a placa de rede com menor valor metric, será usado para tráfego CSV. Não esqueça de selecionar o tipo de tráfego que irá passar nas redes, isso é primordial para determinar em quais placas os tráfegos passarão. Veja no tutorial como configurar cada tipo nas placas.

    Qualquer dúvida só postar.

    Abraços

    ResponderExcluir
  8. Estou a fazer um fail over cluster com dois servers e um Storage HP P2000 em Windows 2012 R2

    Cada server tem 8 portas ethernet e distribui da seguinte forma:

    HYPERV1

    1) Manage 10.10.10.177 (switch local)
    2) VM Local (Team1) NA (switch local)
    3) VM Local (Team2) NA (switch local)
    4) VM DMZ NA (switch DMZ)
    5) CSV/Heartbeat 172.168.1.1 (cross cable or vlan)
    6) Live Migration ??? (cross cable or vlan)
    7) SCSI 1 10.0.10.5 -> A1 (vlan iSCSI)
    8) SCSI 2 10.0.20.5 -> B1 (vlan iSCSI)


    HYPERV2

    1) Manage 10.10.10.178 (switch local)
    2) VM Local (Team) NA (switch local)
    3) VM Local (Team) NA (switch local)
    4) VM DMZ NA (switch DMZ)
    5) CSV/Heartbeat 172.168.1.2 (cross cable or vlan)
    6) Live Migration ??? (cross cable or vlan)
    7) SCSI 1 10.0.10.7 -> A3 (vlan iSCSI)
    8) SCSI 2 10.0.20.7 -> B3 (vlan iSCSI)


    SAN
    10.0.10.1 -> A1
    10.0.20.1 -> B1
    10.0.10.2 -> A2
    10.0.20.2 -> B2
    10.0.10.3 -> A3
    10.0.20.3 -> B3
    10.0.10.4 -> A4
    10.0.20.4 -> B4

    As minhas dúvidas:
    - Que ip's atribuir a live migration?
    - E deve a ligação live migration estar mesmo numa vlan?

    Obrigado.

    ResponderExcluir
  9. Ola amigo bom dia, muito bom seu poster me tira uma duvida o senhor não utilizou switch?

    ResponderExcluir
  10. Boa noite!

    Sim, foram usados 3 switches de menor porte, mas pode usar um apenas, que seja gerenciado, e que disponibilize recursos como jumbo frames, vlan, etc. A ideia é separar as rede de LV, CSV e HB.

    Qualquer dúvida envie um e-mail para renan.rodrigues@outlook.com

    Abraços.

    ResponderExcluir

Postar um comentário