Académique Documents
Professionnel Documents
Culture Documents
Virtualização de
Servidores
Virtualização de
Servidores
Virtualização de
Servidores
Manoel Veras
Colaboração
Rodrigo Kassick
Rio de Janeiro
Escola Superior de Redes
2011
Copyright © 2011 – Rede Nacional de Ensino e Pesquisa – RNP
Rua Lauro Müller, 116 sala 1103
22290-906 Rio de Janeiro, RJ
Diretor Geral
Nelson Simões
Coordenação
Luiz Coelho
Edição
Pedro Sangirardi
Coordenação Acadêmica de Sistemas
Sergio Ricardo Alves de Souza
Revisão Técnica
Alexandre Carissimi
Versão
1.1.0
Este material didático foi elaborado com ns educacionais. Solicitamos que qualquer erro
encontrado ou dúvida com relação ao material ou seu uso seja enviado para a equipe de
elaboração de conteúdo da Escola Superior de Redes, no e-mailinfo@esr.rnp.br. A Rede
Nacional de
eventuais Ensino
danos e Pesquisa
ou perdas, e os autores
a pessoas nãosrcinados
ou bens, assumemdoqualquer responsabilidade
uso deste material. por
Distribuição
Escola Superior de Redes
Rua Lauro Müller, 116 – sala 1103
22290-906 Rio de Janeiro, RJ
http://esr.rnp.br
info@esr.rnp.br
Bibliograa: p.399-402.
ISBN 978-85-63630-11-7
1. Citrix Xen. 2. Microsoft Windows server Hyper-V. 3. VMware. 4. Sistemas
operacionais (Computadores). 5. Sistemas de computação virtual. I. Kassick,
Rodrigo. II. Título.
CDD 005.43
Escola Superior de Redes
A Escola Superior de Redes (ESR) é a unidade da Rede Nacional de Ensino e
Pesquisa (RNP) responsável pela disseminação do conhecimento em Tecnologias
da Informação e Comunicação (TIC).
iii
A metodologia da ESR
A filosofia pedagógica e a metodologia que orienta a realização dos cursos da ESR é
baseada na aprendizagem como construção do conhecimento por meio da resolução
de problemas típicos da realidade do profissional em formação.
Dessa forma, o instrutor tem participação ativa e dialógica como orientador do aluno
para as atividades em laboratório. Até mesmo a apresentação da teoria no início da
sessão de aprendizagem não é considerada uma simples exposição de conceitos e
informações. O instrutor busca incentivar a participação dos alunos continuamente.
iv
gerado dúvidas, estimulando a participação dos alunos.instrutor
O sempre estimula os
alunos a encontrar soluções alternativas às sugeridas por elepelos
e colegas e, caso
existam, a comentá-las.
Sobre o curso
O curso apresenta o histórico davirtualização, a infraestrutura de hardware disponíve
l e os
softwares mais utilizados no mercado. De forma dinâmica e com ênfase nas atividades
práticas, o aluno instalará e usará os três principais softwares do mercado, Citrix
XenServer, Microsoft Hyper-V e VMware ESX/ESXi, assim como seus respectivos pacotes
de gerenciamento. Esse enfoque permitirá que o aluno tenha todo o conhecimento
necessário para escolher a solução mais adequada às necessidades de sua instituição.
A quem se destina
O curso é destinado a capacitar estudantes, técnicos, administradores e gerentes de
redes que desejam iniciar ou aprofundar seus conhecimentos na tecnologia de
virtualização, ou que buscam uma formação ampla nas principais soluções
oferecidas pelo mercado. De forma geral, é útil para profissionais envolvidos no
processo de escolha ou avaliação da plataforma de virtualização de servidores mais
adequada para a sua organização.
Permissões de uso
Todos os direitos reservados à RNP.
Agradecemos sempre citar esta fonte quando incluir parte deste livro em outra obra.
Comentários e perguntas
Para enviar comentários e perguntas sobre esta publicação:
Escola Superior de Redes RNP.
Endereço: Av. Lauro Müller 116 sala 1103 –Botafogo Rio de Janeiro– RJ – 22290-906.
E-mail: info@esr.rnp.brE-mail:info@esr.rnp.br
v
Agradecimento
Agradecemos à equipe do Internet Data Center da RNP pelo apoio prestado durante
a instalação dos servidores hospedados no IDC
Sobre os autores
Manoel Veras é doutor em administração com ênfase em TI pela Universidade de
São Paulo (USP), com graduação em engenharia elétrica pela Universidade Federal
do Rio Grande do Norte (UFRN) e mestrado em engenharia eletrônica pela
Universidade Estadual de Campinas (UNICAMP). Possui as principais certificações
do mercado de TI, incluindo CobiT, PMP, ITIL, Cisco, Dell e Microsoft. Atualmente é
consultor e professor universitário (UFRN) na especialidade de projeto e arquitetura
de datacenters. Autor do livro “Datacenter: componente central da infraestrutura de
TI” (Brasport, 2009), atualmente é professor da UFRN, onde coordena os MBAs de
gestão da tecnologia da informação e gestão estratégica de negócios.
Sergio Ricardo Alves de Souza possui Notório Saber em Informática pelo Laboratório
Nacional de Computação Científica e experiência acumulada em mais de 30 anos
trabalhando como suporte de sistemas. Atualmente é coordenador acadêmico de
sistemas da ESR. Participou da elaboração desta publicação coordenando, escrevendo
e adaptando o conteúdo.
vi
u Sumário
Capítulo 1
Aspectos gerais da virtualização . . . . . . . . . . . . . . . . . . 1
Introdução. . . . . . . . . . . . . . . . . . . . . . . . . 1
Tipos de virtualização. . . . . . . . . . . . . . . . . . . . . 4
Conceito e categorização. . . . . . . . . . . . . . . . . . . . 5
Hipervisores. . . . . . . . . . . . . . . . . . . . . . . . 6
Tipos de virtualização de servidores. . . . . . . . . . . . . . . . 7
Tipos de virtualização. . . . . . . . . . . . . . . . . . . . . 8
Virtualização assistida por hardware. . . . . . . . . . . . . . . 10
Cenários da virtualização . . . . . . . . ......... . 11
Tendências da virtualização. . . . . . . . . . . . . . . . . . 12
Datacenter dinâmico . . . . . . . . . . . . . . . . . . . . 12
Computação em nuvem. . . . . . . . . . . . . . . . . . . 12
Principais fornecedores de soluções de virtualização . . . . . . . . . 14
Licenciamento . . . . . . . . . . . . . . . . . . . . . . 14
Gerenciamento e segurança com a virtualização . . . . . . . . . . 16
Limitações da virtualização. . . . . . . . . . . . . . . . . . 17
Desempenho e benchmarks. . . . . . . . . . . . . . . . . . 17
Roteiro de Atividades 1
Aspectos gerais da virtualização . . . . . . . . . . . . . . . . . 19
Atividade 1 – Instalando o VirtualBox . . . . . . . . . . . . . . 19
Atividade 2 – Criando máquinas virtuais . . . . . . . . . . . . . 20
Atividade 3 – Alterando a configuração de uma máquina virtual. . . . . 26
Atividade 4 – Adicionando uma máquina virtual . . . . . . . . .. 30
Atividade 5 – Utilizando snapshots . . . . . . . . . . . . . . . 32
Atividade 6 – Removendo uma máquina virtual. . . . . . . . . . . 34
Atividade 7 – Criando máquinas virtuais no VMware Workstation . .. . 35
Atividade 8 – Iniciando a máquina virtual. . . . . . . . . . . . . 44
Atividade 9 – Alterando a configuração de uma MV . . . . . . . . . 44
Atividade 10 – Adicionando uma máquina virtual. . . . . . . . . . 50
Atividade 11 – Utilizando snapshots . . . . . . . . ...... 53
Atividade 12 – Removendo máquinas virtuais . . . . . . . . . . . 57
vii
Capítulo 2
Projeto de virtualização . . . . . . . . . ......... .. 59
Projeto de virtualização . . . . . . . . . . . . . . . . . . . 59
Educação e conscientização . . . . . . . . ......... 60
Planejamento da capacidade . . . . . . . . . . . . . . . . . 61
Escolha do fornecedor . . . . . . . . . ........ .. 65
Projeto . . . . . . . . . . . . . . . . . . . . . . . . . 66
Implementação. . . . . . . . . . . . . . . . . . . . . . 66
Gerenciamento . . . . . . . . . . . . . . . . . . . . . . 67
Infraestrutura de hardware. . . . . . . . . . . . . . . . . . 67
Arquitetura física do datacenter . . . . . . . . . . . . . . . . 68
Arquitetura virtual do datacenter. . . . . . . . . . . . . . . . 68
Hardware – descrição. . . . . . . . . . . . . . . . . . . . 70
Servidores. . . . . . . . . . . . . . . . . . . . . . . . 70
Arquitetura do processador. . . . . . . . . . . . . . . . . . 71
Benchmark de servidores . . . . . . . . ......... . 72
Padrões da indústria . . . . . . . . . . . . . . . . . . . . 73
Características dos servidores . . . . . . . . . . . . . . . . . 74
Dispositivos de armazenamento – storage. . . . . . . . . . . . . 76
Sistemas de armazenamento . . . . . . . . . . . . . . . . . 76
Características do servidor de discos . . . . . . . . . . . . . . 77
Tipos de storage. . . . . . . . . . . . . . . . . . . . . . 78
JBOD . . . . . . . . ......... ........ 78
RAID . . . . . . . . . ......... ....... 78
Inteligente. . . . . . . . . . . . . . . . . . . . . . . . 79
Redes de storage . . . . . . . . . ......... ... 80
Protocolo SCSI . . . . . . . . . . . . . . . . . . . . . . 81
SAN . . . . . . . . . . . . . . . . . . ....... 82
SAN FC e FCoE. . . . . . . . . . . . . . . . . . . . . . 82
SAN IP. . . . . . . . . . . . . . . . . . . . . . . . . 84
Storage e virtualização . . . . . . . . . . . . . . . . . . . 84
Infraestrutura de rede. . . . . . . . . . . . . . . . . . . . 85
Virtualização da rede. . . . . . . . . . . . . . . . . . . . 86
Benefícios da virtualização. . . . . . . . . . . . . . . . . . 86
Análise de TCO/ROI . . . . . . . . ......... ... 88
Alta disponibilidade . . . . . . . . ......... ... 89
Backup e restore . . . . . . . . . ........ .... 89
Roteiro de Atividades 2
Projeto de virtualização . . . . . . . . . ......... .. 93
Atividade 1 – Captura de máquina física para virtual (P2V) . . .. .. 93
Estudo de Caso. . . . . . . . . . . . . . . . . . . . . . 103
Planejamento do projeto de virtualização. . . . . . . . . . . . . 103
A empresa ABC. . . . . . . . . . . . . . . . . . . . . . 103
Ambiente. . . . . . . . . . . . . . . . . . . . . . . . 103
Topologia da rede. . . . . . . . . . . . . . . . . . . . . 104
viii
Plano de consolidação . . . . . . . . ......... .. 105
Atividade 2 – Identificação do hardware compatível . . . . . . . . . 105
Atividade 3 – Análise da capacidade do hardware. . . . . . . . . . 106
Atividade 4 – Identificação do sistema operacional compatível . . . . . 107
Atividade 5 – Consolidação da estrutura física para o plano de virtualização. 108
Capítulo 3
Introdução ao Xen . . . . . . . . . . . . . . . . . . . . . . 109
Histórico . . . . . . . . . . . . . . . . . . . . . . . . 109
Versões . . . . . . . . . . . . . . . . . ....... 111
Componentes . . . . . . . . . . . . . . . . . . . ... 111
Hipervisor Xen . . . . . . . . . . . . . . . . . . . . . . 112
Domínio convidado privilegiado . . . . . . . . . . . . . . . . 112
Domínio convidado não privilegiado. . . . . . . . . . . . . . . 113
Virtualização no Xen . . . . . . . . . . . . . . . . . . . . 114
Modos de operação do processador. . . . . . . . . . . . . . . 114
Arquitetura dos drivers de dispositivo . . . . . . . . . . . . . . 115
Paravirtualização . . . . . . . . . ........ .... 116
Virtualização completa . . . . . . . . . ......... . 117
Virtualização híbrida . . . . . . . . . . . . . . . . . . . . 117
XenMotion – migração de domínios convidados . . . . . . . . . . 118
Outras formas de virtualização com o Xen. . . . . . . . . . . . . 119
XenDesktop . . . . . . . . . . . . . . . . . . . . . . . 120
XenApp. . . . . . . . . . . . . . . . . . . . . . . . . 121
Computação em nuvem. . . . . . . . . . . . . . . . . . . 121
Roteiro de Atividades 3
Introdução ao Xen . . . . . . . . . . . . . . . . . . . . . . 123
Atividade 1 – Gerenciamento remoto das blades . . . . . . . . .. 124
Atividade 2 – Instalação do XenServer. . . . . . . . . . . . . . 127
Atividade 3 – Conhecendo a instalação padrão do XenServer. . . . . . 132
Atividade 4 – Configurando o acesso à rede privada . . . . . . . . . 137
Atividade 5 – Instalação do XenCenter. . . . . . . . . . . . . . 138
Atividade 6 – Conhecendo o XenCenter . . . . . . . . . . . . . 139
Atividade 7 – Configuração do repositório compartilhado de ISOs . .. . 143
Atividade 8 – Criação de máquinas virtuais . . . . . . . . . . . . 145
Atividade 9 – Monitoramento de recursos do XenServer. . . . . . . . 149
Atividade 10 – Armazenamento de dados das máquinas virtuais. . . . . 150
Atividade 11 – Snapshots de máquinas virtuais. . . . . . . . . . . 152
Capítulo 4
Gerenciamento do Xen. . . . . . . . . . . . . . . . . . . . . 153
Infraestrutura de hardware para o Xen. . . . . . . . . . . . . . 153
Processador e dispositivos de E/S. . . . . . . . . . . . . . . . 153
Memória RAM . . . . . . . . . . . . . . . . . . . . . . 155
Sistemas de armazenamento (storage). . . . . . . . . . . . . . 156
ix
Rede. . . . . . . . . . . . . . . . . . . . . . . . . . 159
Infraestrutura de software para o Xen . . . . . . . . . . . . . . 160
Distribuições comerciais e livres. . . . . . . . . . . . . . . . 160
Hipervisor e sistemas operacionais para Dom0. . . . . . . . . . . 161
Sistemas operacionais para DomU . . . . . . . . . . . . . . . 161
Geração de máquinas virtuais paravirtualizadas. . . . . . . . . . . 161
Inicialização de sistemas Linux . . . . . . . . . ....... 162
Clonagem. . . . . . . . . . . . . . . . . . . . . . . . 163
Imagens pré-existentes (appliances). . . . . . . . . . . . . . . 163
Ferramentas específicas às distribuições Linux. . . . . . . . . . . 164
Qemu . . . . . . . . . . . . . . . . . . . . . . . . . 164
Gerenciamento de domínios convidados . . . . . . . . . . . . . 165
Comando de linha. . . . . . . . . . . . . . . . . . . . . 165
Virt-manager. . . . . . . . . . . . . . . . . . . . . . . 166
Xen Center . . . . . . . . . ......... ..... 166
Arquitetura genérica de virtualização . . . . . . . . . . . . . . 167
Xen Cloud Platform . . . . . . . . . . . . . . . . . . . . 168
Roteiro de Atividades 4
Gerenciamento do Xen. . . . . . . . . . . . . . . . . . . . . 171
Atividade 1 – Dispositivo de armazenamento remoto. . . . . . . . . 171
Atividade 2 – Criação de pools . . . . . . . . ........ 174
Atividade 3 – Migração manual de máquinas virtuais no pool. . . . . . 176
Atividade 4 – Ativando a licença avançada . . . . . . . . . . . . 176
Atividade 5 – Ativando a Alta Disponibilidade . . . . . . . . . . . 177
Atividade 6 – Ativação do balanceamento de carga . . . . . . . . . 180
Capítulo 5
Introdução ao VMware . . . . . . . . . ........ ... 185
vSphere. . . . . . . . . . . . . . . . . . . . . . . . . 186
Serviços de infraestrutura . . . . . . . . . . . . . . . . . . 187
Serviços de aplicativos . . . . . . . . ......... .. 188
vSphere hipervisor . . . . . . . . . . . . . . . . . . . . . 190
Tipos de arquivos VMware. . . . . . . . . . . . . . . . . . 192
Roteiro de Atividades 5
Introdução ao VMware . . . . . . . . . ......... .. 195
Atividade 1 – Instalação do VMware ESXi. . . . . . . . . . . . . 195
Atividade 2 – Conhecendo o VMware ESXi . . . . . . . . . . . . 197
Atividade 3 – Instalação do vSphere Client . . . . . . . . . . . . 202
Atividade 4 – Utilização do vSphere Client . . . . . . . . . . . . 203
Atividade 5 – Configuração do repositório compartilhado de ISOs . .. . 209
Atividade 6 – Criação de máquinas virtuais . . . . . . . . . . . . 214
Atividade 7 – Criação de snapshots. . . . . . . . . . . . . . . 220
Atividade 8 – Comandos de gerenciamento de MVs . . . . . . . . . 222
x
Capítulo 6
Gerenciamento do VMware. . . . . . . . . . . . . . . . . . . 231
Componentes do gerenciamento . . . . . . . . . . . . . . . . 231
VMotion . . . . . . . . . . . . . . . . . . . . . . . . 233
Alta Disponibilidade (HA) . . . . . . . . ......... . 234
Balanceamento dinâmico de recursos (DRS). . . . . . . . . . . . 235
Storage VMotion . . . . . . . . . ......... ... 235
Site Recovery Manager (SRM). . . . . . . . . . . . . . . . . 236
Infraestrutura de TI. . . . . . . . . . . . . . . . . . . . . 237
Arquitetura do servidor . . . . . . . . . . . . . . . . . . . 237
Processador e memória . . . . . . . . . . . . . . . . . . . 237
Armazenamento (storage) . . . . . . . . ......... . 238
Storage Area Network (SAN) . . . . . . . . . . . . . . . . . 239
Network-Attached Storage (NAS). . . . . . . . . . . . . . . . 240
Rede Local – Local Area Network (LAN) . . . . . . . . . . . . . 241
Roteiro de Atividades 6
Gerenciamento do VMware. . . . . . . . . . . . . . . . . . .
243
Atividade 1 – Instalando o vCenter . . . . . . . . . . . . . . .
243
Atividade 2 – Gerenciando datacenters com o vCenter . . . . . . . .
246
Atividade 3 – Configurando acesso ao storage . . . . . . . . . . .
250
Atividade 4 – Migração de máquinas virtuais . . . . . . . . ... 256
Atividade 5 – Alta Disponibilidade com ESXi. . . . . . . . . . . . 260
Capítulo 7
Introdução ao Hyper-V. . . . . . . . . . . . . . . . . . . . . 273
Características gerais. . . . . . . . . . . . . . . . . . . . 274
Versões. . . . . . . . . . . . . . . . . . . . . . . . . 274
Benefícios. . . . . . . . . . . . . . . . . . . . . . . . 275
Licenciamento . . . . . . . . . . . . . . . . . . . . . . 276
Componentes da arquitetura Hyper-V . . . . . . . . . . . . . . 276
Cenários de uso do Hyper-V . . . . . . . . . . . . . . . . . 278
Consolidação de servidores . . . . . . . . . . . . . . . . . 278
Continuidade de negócios e recuperação de desastres . . . . . . . . 279
Desenvolvimento e teste. . . . . . . . . . . . . . . . . . . 279
Datacenter dinâmico . . . . . . . . . . . . . . . . . . . . 279
Gerenciamento com Hyper-V . . . . . . . . . . . . . . . . . 280
Hyper-V Manager . . . . . . . . . . . . . . . . . . . . . 280
System Center Virtual Machine Manager (SCVMM) . . . . . . . . . 280
Recursos do SCVMM. . . . . . . . . . . . . . . . . . . . 281
Snapshots com o Hyper-V . . . . . . . . . . . . . . . . . . 283
Live Backup. . . . . . . . . . . . . . . . . . . . . . . 284
Avanços com o Windows Server 2008 R2 Hyper-V . . . . . . . . . 285
Armazenamento dinâmico de máquina virtual . . . . . . . . . . . 285
Live Migration . . . . . . . . . . . . . . . . . . . . . . 285
xi
Suporte de processador avançado . . . . . . . . . . . . . . . 285
Suporte avançado de redes . . . . . . . . . . . . . . . . . 286
Volumes compartilhados de cluster . . . . . . . . . . . . . . . 286
Alta disponibilidade . . . . . . . . . . . . . . . . . . . . 287
Guest Clustering. . . . . . . . . . . . . . . . . . . . . . 287
Host Clustering. . . . . . . . . . . . . . . . . . . . . . 288
Quick Migration. . . . . . . . . . . . . . . . . . . . . . 289
Live Migration . . . . . . . . . . . . . . . . . . . . . . 290
Gerenciamento do Live Migration . . . . . . . . . . . . . . . 291
Live Migration vs Quick Migration . . . . . . . . . . . . . . . . . . 291
. .
Roteiro de Atividades 7
Introdução ao Hyper-V. . . . . . . . . . . . . . . . . . . . . 293
Atividade 1 – Instalação do Hyper-V. . . . . . . . . . . . . . . 293
Atividade 2 – Acesso ao servidor de ISOs. . . . . . . . . . . . . 299
Atividade 3 – Criação de máquinas virtuais . . . . . . . . . . . . 300
Atividade 4 – Configuração padrão das máquinas virtuais . . . . . . . 302
Capítulo 8
Gerenciamento do Hyper-V. . . . . . . . . . . . . . . . . . . 305
Infraestrutura de hardware. . . . . . . . . . . . . . . . . . 305
Processador . . . . . . . . . . . . . . . . . . . . . . . 305
Memória . . . . . . . . . . . . . . . . . . . . . . . . 306
Armazenamento. . . . . . . . . . . . . . . . . . . . . . 306
Rede. . . . . . . . . . . . . . . . . . . . . . . . . . 307
Outros componentes . . . . . . . . . . . . . . . . . . . . 308
Configurando máquinas virtuais . . . . . . . . . . . . . . . . 308
Sistemas operacionais convidados . . . . . . . . . ...... 309
Discos suportados . . . . . . . . . . . . . . . . . . . . . 309
Discos e armazenamento . . . . . . . . . ......... 310
Opções de armazenamento em máquinas virtuais. . . . . . . . . . 310
Criação de discos rígidos virtuais. . . . . . . . . . . . . . . . 311
Discos físicos para máquinas virtuais . . . . . . . . . . . . . . 312
Aspectos de segurança . . . . . . . . . . . . . . . . . . . 313
Práticas recomendadas de segurança . . . . . . . . . . . . . . 313
Backup e Restore . . . . . . . . . . . . . . . . . . . . . 315
Backup on-line e off-line. . . . . . . . . . . . . . . . . . . 316
Processo de restauração . . . . . . . . . . . . . . . . . . . 317
Máquinas virtuais em cluster . . . . . . . . . . . . . . . . . 317
Redes virtuais . . . . . . . . ......... ..... 318
Noções básicas . . . . . . . . . . . . . . . . . . . . . . 318
Rede e máquinas virtuais . . . . . . . . . ......... 321
Configurando VLANs . . . . . . . . . . . . . . . . . . . . 322
xii
Roteiro de Atividades 8
Gerenciamento do Hyper-V. . . . . . . . . . . . . . . . . . . 323
Atividade 1 – Instalação e configuração do Active Directory . . . . . . 323
Atividade 2 – Instalação e configuração do System Center Virtual Machine
Manager 2008 R2. . . . . . . . . . . . . . . . . . . . . 329
Atividade 3 – Instalação do SCVMM Admin Console. . . . . . . . . 332
Atividade 4 – Adicionando servidores Hyper-V ao SCVMM. . . . . . . 335
Atividade 5 – Visão global do SCVMM. . . . . . . . . . . . . . 339
Atividade 6 – Clonando máquinas virtuais no SCVMM . . . . . . . . 345
Atividade 7 – Configuração do cluster de Alta Disponibilidade. . . . . . 350
Atividade 8 – Configurando o storage compartilhado. . . . . . . . . 353
Atividade 9 – Migração de máquinas virtuais . . . . . . . . . . . 357
Atividade 10 – Alta Disponibilidade de máquinas virtuais . . . . . . . 361
Capítulo 9
Consolidação do conhecimento. . . . . . . . . . . . . . . . . . 365
Software . . . . . . . . . ......... ...... 365
Hipervisores. . . . . . . . . . . . . . . . . . . . . . . 366
Soluções de gerenciamento. . . . . . . . . . . . . . . . . . 371
Hardware. . . . . . . . . . . . . . . . . . . . . . . . 372
Gerenciamento de memória. . . . . . . . . . . . . . . . . . 373
vCPU . . . . . . . . ......... ........ 374
Vlan tagging. . . . . . . . . . . . . . . . . . . . . . . 374
Sistemas de discos . . . . . . . . . . . . . . . . . ... 375
Dell Virtualization Advisor Tool. . . . . . . . . . . . . . . . . 376
Comparação entre soluções de virtualização. . . . . . . . . . . . 377
Roteiro de Atividades 9
Consolidação do conhecimento. . . . . . . . . . . . . . . . . . 379
Atividade 1 – Captura dos indicadores de desempenho. . . . . . . . 379
Atividade 2 – Análise do desempenho do serviço . . . . . . . . . . 380
Atividade 3 – Cálculo da memória virtual inicial . . . . . . . . . . 383
Atividade 4 – Consolidação dos serviços e sistemas operacionais para o plano
de virtualização. . . . . . . . . . . . . . . . . . . . . . 384
Atividade 5 – Diagnóstico do estudo de caso . . . . . . . . . . . . 384
Atividade Complementar – Economia de energia . . . . . . . . . . 386
Capítulo 10
Caso de virtualização. . . . . . . . . . . . . . . . . . . . . 387
Apresentando o caso. . . . . . . . . . . . . . . . . . . . 388
Caso UFRGS. . . . . . . . . . . . . . . . . . . . . . . 388
Bibliografia. . . . . . . . . . . . . . . . . . . . . . . . . 399
xiii
xiv
1
Aspectos gerais da virtualização
Introdução
\ Time Sharing Processing (TSP)
\ Multiprocessamento nos mainframes
\ Hipervisor
\ Da IBM à VMware
\ Servidores x86
\ A virtualização e seus benefícios
1
s
re A virtualização inicialmente utilizou o conceito de máquina virtual de processo. Uma Emulação
o
id máquina virtual de processo nada mais é que uma aplicação que executa sobre um Capacidade de
v
r
e sistema operacional A e emula o comportamento de um sistema operacional B. imitar o
S
e comportamento
d Assim, aplicações desenvolvidas para o sistema B podem executar sobre o sistema externo de um
o
ã
ç A (figura 1.1). É importante salientar que essa técnica de implementação permite sistema, sem
a
ilz que binários de um processador sejam interpretados e substituídos por código preocupação com
a
tu equivalente de outro processador. Portanto, além de emular o sistema operacional é estados e
ir
V
possível emular processadores. propriedades
internas ao
sistema.
As desvantagens dessa técnica são basicamente duas: pior desempenho e
desperdício de capacidades do hardware físico:
\ O desempenho é sacrificado, já que há uma tradução de um sistema a outro,
além da execução em modo de usuário;
\ O desperdício da capacidade física do hardware vem do fato de que as máquinas
virtuais de processo oferecem dispositivos de E/S genéricos e simples.
Sistema Operacional A
Hardware
2
o
Figura 1.2 ã
ç
a
Monitor de Processo z il
do sistema C a
máquina virtual u
rti
(hipervisor). v
a
d
Sistema Operacional C s
i
a
r
e
g
s
to
Monitor de Máquina Virtual e
c
p
(hipervisor) s
A
–
1
Hardware o l
u
p ít
a
C
O sistema operacional Virtual Machine (VM) da IBM surgiu baseado no conceito de
hipervisor, que é um programa que permite que vários sistemas operacionais
diferentes executem de maneira isolada em um único hardware. O sistema
operacional IBM VM/370, baseado na virtualização, foi bastante utilizado para
migração de um mainframe para outro, ou de um sistema operacional para outro,
permitindo que ambos os sistemas executassem sob a supervisão do VM hypervisor.
No contexto dos anos 70, onde a maioria dos mainframes – mesmo de um único
fabricante – era caracterizada por ter seu próprio sistema operacional, o uso de
máquinas virtuais permitiu que aplicações de sistemas legados fossem executadas
nos novos sistemas. No entanto, nos anos 80, à medida que os computadores
pessoais se popularizavam e a diversidade de sistemas operacionais foi reduzida
para alguns poucos (Unix, Macintosh e Microsoft), a virtualização foi perdendo
importância. Contudo, nos anos 90, vários fatores provocaram o ressurgimento da
virtualização, entre os quais podemos citar a máquina virtual Java – Java Virtual
Machine (JVM); o aumento do poder computacional dos processadores e da
capacidade de memória dos computadores pessoais; e a disseminação de sistemas
distribuídos, e da própria internet, como um modelo de serviços baseado em uma
arquitetura cliente-servidor.
O marco inicial desta nova era foi o surgimento da VMware em 1998, criada por
Diana Greene e Mendel Rosenblun. A VMware desenvolveu o primeiro hipervisor,
que permitiu a virtualização de servidores em plataformas x86. Desde 1996,
entretanto, outra empresa já tratava de virtualização, mas em ambiente Macintosh
(Connectix, fundada em 1988). Em 2003 a Microsoft adquiriu a Connectix, e no
ano seguinte a EMC adquiriu a VMware. A seguir, a Microsoft lançou o Microsoft
Virtual Server 2005, seu primeiro produto com foco na virtualização de servidores.
3
s
re Da forma como é feita hoje, a virtualização é uma revolução na área de TI, o que
o
id
v
pode ser confirmado por análises econômicas conduzidas pela Gartner Inc., pela
r
S
e criação e evolução de associações como a Enterprise Management Association
e
d (EMA) e pelo grande crescimento de empresas como a VMware. O International
o
ã
ç Data Corporation (IDC) prevê que o crescimento do mercado e dos investimentos em
a
ilz virtualização subirá de 6.5 bilhões para 15 bilhões de dólares em 2011.
a
tu
ir
V
Tipos de virtualização
\ Virtualização de servidores
\ Virtualização de desktops
\ Virtualização do armazenamento
\ Virtualização das aplicações
\ Virtualização de redes
4
\ Virtualização de redes: arquitetura que proporciona um ambiente de rede o
ã
ç
a
separado para cada grupo ou organização. Estes ambientes lógicos são criados z il
a
sobre uma única infraestrutura compartilhada de rede. Cada rede lógica fornece u
rti
ao grupo de usuários correspondente com plenos serviços de rede, semelhantes a
v
Conceito e categorização
\ Categorias de virtualização
\ Consolidação de servidores
\ Camada de abstração entre hardware e software
\ Camada de virtualização, hipervisor e Virtual Machine Monitor
\ Nível
física edoa hardware
: aàs
apresenta camada de virtualização
camadas é posta
superiores como diretamente
hardware sobresimilar
abstrato, a máquina
ao
srcinal. Esse é o caso da maioria dos hipervisores (VMware ESX, Xen e Hyper-V).
\ Nível do sistema operacional: mecanismo que permite a criação de partições
lógicas em uma plataforma, de maneira que cada partição seja vista como uma
máquina isolada, compartilhando o mesmo sistema operacional. A camada de
virtualização está inserida entre o sistema operacional e as aplicações. Exemplos:
Jails, OpenVZ, Solaris Zones, Containers, Linux-VServer, Parallels Virtuozzo,
SandBox, KVM e Sun VirtualBox.
\ Nível da linguagem de programação: a camada de virtualização é um programa
de aplicação do sistema operacional da plataforma. Define uma máquina
abstrata sobre a qual executa uma aplicação desenvolvida em uma aplicação de
alto nível. A máquina virtual Java (JVM) é o exemplo mais marcante.
As categorias acima possuem objetivos diferentes, mas buscam aspectos comuns:
(i) oferecer compatibilidade de software; (ii) permitir o isolamento entre máquinas
virtuais, ou seja, um software em execução não deve ser afetado por outro software
em execução; (iii) o encapsulamento, que permite a captura do estado da máquina
virtual. A camada de virtualização deve ser projetada para não impactar o
desempenho das aplicações.
5
s
re No nível do hardware, a virtualização mais comum é a de servidores. A virtualização
o
id
v
de servidores trata da consolidação de vários servidores físicos, e subutilizados, em
r
S
e um servidor físico com alto grau de utilização, reduzindo a complexidade do
e
d gerenciamento, o espaço físico e os requisitos de energia e refrigeração.
o
ã
ç
a
ilz Uma abordagem comum utilizada para conceituar a virtualização é defini-la como uma
a
tu camada de abstração entre o hardware e o software, que protege o acesso direto do
ir
V
software aos recursos físicos do hardware. A virtualização permite que a camada de
software (aplicações e sistema operacional) seja isolada da camada de hardware
(figura 1.3). A forma pela qual essa camada de abstração é implementada dá srcem
às máquinas virtuais de processo e aos monitores de máquinas virtuais (hipervisores).
Figura 1.3
Camada de Software Papel da
virtualização.
Camada de Abstração
(Virtualização)
Camada de Hardware
Hipervisores
\ Características
\
Tipos
\ Tipo I (bare metal)
\ Tipo II (hosted)
servidor. Controla
(guest OS). O papelo hardware e o acesso
do hipervisor nativo édocompartilhar
sistema operacional convidado
os recursos de hardware
entre as máquinas virtuais, de forma que cada uma delas imagina ter recursos
exclusivos. Exemplos: VMware ESX Server, Microsoft Hyper-V e Xen Server. Uma
variação do tipo I é o “embedded hypervisor”, que é instalado no firmware (como
o VMware ESXi). Este hipervisor é pequeno e tem um impacto mínimo nos
recursos e no desempenho do servidor físico.
6
\ Tipo II (hosted): aplicação que fornece um ambiente de execução para outras o
ã
aplicações. Executa sob um sistema operacional nativo como se fosse um processo ç
a
z il
deste. A camada de virtualização é composta por um sistema operacional hóspede u
a
e um hardware virtual, que são criados sobre os recursos de hardware oferecidos rti
v
através do SO nativo. Exemplos: VMware player, Virtualbox e Virtual PC. a
d
Figura 1.4 s
i
a
r
Tipos de e
g
hipervisores. s
to
c
Processo e
p
do Sistema s
A
Operacional –
Processo (guest) 1
Sistema Operacional o l
do Sistema u
Operacional convidado ( gu est ) p ít
(guest) a
Sistema Operacional C
convidado ( gu est ) Hipervisor
Máquina Máquina
virtual virtual
Hardware Hardware
7
s
re entanto, em ambientes virtualizados, as instruções sensíveis devem ser tratadas
o
id
v
adequadamente, pois podem ser feitas por um processo em execução em um
r
S
e sistema operacional convidado (virtualizado), e assim alterar o comportamento do
e
d sistema operacional nativo ou de outro sistema operacional convidado.
o
ã
ç
a
ilz Aplicações Figura 1.5
a Anel 3
tu de usuário Nível de
ir
V
privilégio na
Anel 2 arquitetura x86.
Execução
direta de
Anel 1 solicitações
de usuários
e do SO
Sistema
Anel 0 Operacional
Hardware
do servidor
Tipos de virtualização
A virtualização pode ser realizada de diferentes maneiras, cada uma com seus prós
e contras. Na prática, em arquiteturas x86, as opções de virtualização alteram o
nível de privilégios (rings) default. As soluções baseadas em hipervisores incluem a
virtualização completa e a paravirtualização.
Virtualização completa
A virtualização completa (full virtualization) realiza a completa abstração do sistema
físico, criando um sistema físico virtual completo, sobre o qual o sistema operacional
convidado é executado. Não é necessário fazer qualquer modificação no sistema
operacional convidado ou em suas aplicações. Este tipo de virtualização facilita a
migração de máquinas virtuais entre servidores físicos, pois existe total
independência das aplicações e dos recursos físicos do servidor. Ainda, a segurança
é facilitada pelo isolamento entre as máquinas virtuais, já que cada instância da
máquina virtual é um processo do sistema operacional nativo.
8
o
Figura 1.6 ã
Aplicações ç
Anel 3 a
Virtualização de usuário z il
a
completa no x86. Execução u
rti
v
Anel 2 direta das a
d
solicitações s
i
a
r
de usuários e
SO g
Anel 1 convidado s
Tradução to
c
e
binária das p
s
A
Anel 0 VM M solicitações –
do SO 1
o l
u
Hardware p ít
a
C
do servidor
Paravirtualização
A paravirtualização é uma alternativa para contornar os problemas de desempenho e
subutilização de recursos da virtualização total. Nesse caso, o sistema operacional
convidado (ou hóspede) é alterado para chamar a máquina virtual (hypercalls)
sempre que for executar uma instrução sensível (figura 1.7). As instruções não
privilegiadas, aquelas realizadas pelos processos de usuários, podem ser executadas
diretamente sobre o processador nativo. Em relação aos dispositivos de E/S, os
hipervisores que empregam paravirtualização permitem que as máquinas virtuais
empreguem os drivers do dispositivo físico real sob o controle do hipervisor, o que é
interessante, pois este aspecto otimiza o desempenho. A principal desvantagem da
paravirtualização é a necessidade de modificação do sistema operacional hospedado
ou convidado, o que pressupõe acesso ao código-fonte. O Xen Open Source é um
exemplo de sistema baseado em paravirtualização, que virtualiza o processador e a
memória, usando um núcleo Linux modificado e virtualizando o sistema de E/S com
drivers de dispositivos customizados.
SO convidado Hypercalls
Anel 0 paravirtualizado
(chamadas ao
hipervisor)
a camada de para
Camada de virtualização
virtualização repor
as instruções não
Hardware virtualizáveis do SO
do servidor
9
s
re Virtualização assistida por hardware
o
id
v
Na prática, há uma relação custo/benefício entre a virtualização total e a
r
S
e paravirtualização. Enquanto a primeira permite o uso de um sistema operacional
e
d convidado sem modificações, a segunda precisa alterá-lo para substituir instruções
o
ã
ç privilegiadas e sensíveis por hypercalls, mas oferece um melhor desempenho. Sendo
a
ilz assim, os fabricantes Intel e AMD investiram em extensões na arquitetura x86, para
a
tu suportar a virtualização e melhorar o desempenho da solução como um todo. Essas
ir
V
extensões são genericamente denominadas de virtualização assistida por hardware
(Hardware Assisted Virtualization – HAV). Este movimento da AMD e da Intel
praticamente eliminou as vantagens de desempenho dos sistemas baseados em
paravirtualização, que tinham o ônus de modificar o sistema operacional para
funcionar. Por razões técnicas, apenas os novos sistemas x64 fazem uso do HAV.
Basicamente, tanto Intel (Intel VT) como AMD (AMD-V) alteraram o funcionamento
dos anéis de proteção (rings) dos processadores x86. Como visto anteriormente, o
anel nível 0 é utilizado pelo sistema operacional e executado em modo protegido, e
o anel nível 3 (de menor privilégio), é empregado pelos processos que executam em
modo usuário. Os anéis 1 e 2 não são usados pelos sistemas operacionais
convencionais. A Intel e a AMD, de formas diferentes, mas com a mesma filosofia,
criaram dois novos modos de operação para os anéis de proteção do processador:
modo “root” e modo “non-root”. Os anéis de 0 a 3 executam no modo “non-root” e
há um anel adicional – de maior prioridade – para o modo “root”. Dessa forma, um
sistema operacional executa sem modificações nos níveis 0 a 3 e o hipervisor
executa no anel adicional de maior prioridade (modo “root”). Portanto, o hipervisor
passou a ter total prioridade sobre o sistema operacional. Neste novo modo de
operação, as instruções privilegiadas e sensíveis executadas pelo sistema
operacional convidado causam um desvio (trap) para o hipervisor que tem a
responsabilidade de tratar adequadamente a ocorrência dessas ações.
SO
Anel 0 convidado
Solicitações
Níveis de do SO passadas
privilégio para o VMM
do modo VM M sem tradução
root binária ou
paravirtualização
Hardware
do servidor
10
Cenários da virtualização ç
o
ã
a
z il
\ Consolidação de servidores u
a
rti
v
\ Melhorar a continuidade dos negócios a
d
s
i
\ Criar um novo ambiente de testes e de desenvolvimento de software e
a
r
g
s
\ Proteger e gerenciar os desktops da empresa to
c
e
p
\ Hospedar aplicações legadas s
A
–
\ Datacenter dinâmico 1
o l
u
ít
A virtualização é o elemento central de um datacenter. É comum encontrarmos o p
a
C
emprego da filosofia “um servidor por serviço”, por motivos que vão desde a
segurança até o oferecimento de serviços internet a máquinas clientes, em
ambientes cliente-servidor. Nesse contexto, a carga de processamento não explora
todo o poder computacional disponibilizado pelo processador do servidor, o que
implica desperdício de ciclos de processamento. Pesquisas em Internet Data Centers
(IDC) mostram que somente cerca de 15% da capacidade dos servidores é utilizada,
estando os 85% restantes ociosos. Além deste desperdício, há todo o problema de
consumo de energia, refrigeração, espaço físico, gerenciamento e manutenção dos
vários servidores. A virtualização surge como solução para contornar esses
problemas. Ela possibilita a otimização dos recursos e torna a aplicação
independente do hardware. A virtualização também está alinhada ao conceito de TI
verde (green computing), já que permite uma economia significativa de energia no
datacenter. A ideia básica é permitir que várias máquinas virtuais, cada uma
responsável por um serviço, executem sobre uma única máquina física. Essa
situação é denominada de consolidação de servidores e é especialmente importante
no contexto de datacenters.
11
s
re Há ainda a virtualização de desktops, que permite que cada usuário estabeleça uma
o
id
v
sessão de trabalho dentro de um sistema centralizado, a partir de um cliente fino
r
S
e (thin client) ou de outro software cliente. A diferença desse tipo de virtualização para
e
d soluções do tipo “Terminal Services” é que cada usuário pode empregar um sistema
o
ã
ç operacional diferente totalmente isolado dos demais usuários. Como apenas o
a
ilz sistema centralizado possui as imagens das máquinas virtuais, as questões de
a
tu configuração, gerenciamento e proteção ficam mais simples.
ir
V
Por fim, a virtualização é uma ferramenta muito útil para hospedar e executar
sistemas legados. Como uma máquina virtual é um ambiente que inclui um sistema
operacional, bibliotecas e aplicações de forma totalmente independente e isolada de
outra máquina virtual, é possível manter versões de antigos sistemas operacionais e
bibliotecas exigidas por sistemas legados.
Por fim, o datacenter dinâmico utiliza os benefícios da virtualização para criar uma
infraestrutura mais ágil, combinada com novos recursos de gerenciamento que
permitem mover máquinas virtuais sem causar impacto sobre as atividades dos usuários.
Tendências da virtualização
\ Datacenter dinâmico
\ Computação em nuvem (cloud computing)
\ Estágios da computação em nuvem
\ Serviços de computação em nuvem
Datacenter dinâmico
A virtualização muda a maneira como um datacenter é gerenciado. O conceito de
virtualização desfaz um modelo tradicional utilizado, que é o de associar cada
aplicação ou serviço a uma máquina específica. A virtualização permite melhorar a
utilização dos servidores que tradicionalmente rodam a 10-15% da sua capacidade. A
execução de várias máquinas virtuais em um servidor faz com que sejam ocupados os
ciclos ociosos do processador e seja eliminada a necessidade de outro servidor físico,
reduzindo o consumo de energia e o espaço físico utilizado. O conceito de datacenter
dinâmico permite provisionar os recursos de forma imediata mediante a demanda.
Computação em nuvem
A ideia central da computação de nuvem é possibilitar que as aplicações que rodam
em datacenters isolados possam rodar na nuvem (internet) em um ambiente de
larga escala e com um uso “elástico” de recursos. A virtualização é o elemento
central desta visão e a sua importância pode ser entendida facilmente. A computação
em nuvem pode ser privada, pública ou uma combinação das duas (híbrida).
12
o
\ Cloud Privada: acesso aos recursos através de uma infraestrutura da própria ç
ã
a
organização. Por pertencer a uma organização, há um controle mais rígido com z il
a
relação a recursos e segurança. Não há restrições quanto à banda, permitindo u
rti
v
maior controle e resiliência. a
d
s
i
\ Cloud Pública: acessa recursos através da internet, usando interface web. a
r
e
Alocação e pagamento por demanda (soluções elásticas). O fato de ser pública g
s
não significa que seja livre nem aberta. to
c
e
p
s
\ Cloud Híbrida: utiliza recursos de uma ou mais nuvens públicas e privadas. A
–
1
o l
u
p ít
Figura 1.9 a
Nuvem C
Computação
Híbrida
em nuvem.
DCA
DC2
Nuvem Nuvem
Privada Pública
DCC
DC1 DCN DCB
13
s
re Principais fornecedores de soluções de virtualização
o
id
v
r
e \ VMware
S
e
d \ Microsoft Hyper-V
o
ã
ç
a \ Citrix Xen Server
ilz
a
tu
ir
V
Os principais fornecedores de software de virtualização para servidores são:
\ VMware: VMware ESXi e VMware vSphere.
\ Microsoft: Hyper-V, System Center Virtual Machine Manager (SCVMM).
\ Citrix: Xen Server, Citrix Essentials for Hyper-V e Citrix Essentials for Xen Server.
Estas empresas comercializam os softwares de virtualização de diversas formas e
com diversas funcionalidades. Pesquisa com 365 profissionais de grandes
organizações nos Estados Unidos – realizada pelo Enterprise Strategy Group em
2008 – indicou que todas as organizações pesquisadas já utilizam a virtualização de
alguma forma. A maioria das organizações utiliza o VMware como principal
ferramenta de virtualização, seguido da Microsoft e da Citrix, conforme ilustra a
próxima figura.
Figura 1.10
Outros 4%
Utilização das
soluções de
Citrix 3%
virtualização
(Fonte:
Enterprise
Strategy Group).
Microsoft 23% 70% Vmware
Licenciamento
\ Desafios
\ Processadores de vários núcleos
\ Modos de licenciamento
\ VMware e Citrix
\ Microsoft
\
IBM
\ Oracle
14
o
raciocínio é simples: os chips de processadores são fáceis de ser mensurados. Essa ç
ã
a
maneira de obter a licença mobiliza o pessoal de infraestrutura de TI para utilizar z il
a
sempre os chips mais poderosos disponíveis. u
rti
v
a
d
Obter o máximo de um software sempre exigiu hardware de alto desempenho; a s
i
a
r
diferença é que atualmente o desempenho cresce com o aumento da quantidade de e
g
núcleos, em vez de crescer com a quantidade de megahertz (MHz). Esta estratégia s
to
c
da indústria está ligada ao fato de que o crescimento através do aumento de núcleos e
p
s
é mais interessante, pois reduz o consumo de energia. Além disso, a linearidade que A
–
eventualmente poderia ser perdida com a utilização de muitos núcleos tem sido 1
o l
otimizada por fabricantes como Intel e AMD. u
p ít
a
C
VMware, Citrix e Microsoft
Quando se trata do licenciamento de servidores multicore, é preciso considerar dois
aspectos novos: a quantidade de núcleos e a virtualização. A política de
licenciamento para fabricantes diferentes não é a mesma. A VMware, assim como a
Citrix (XenServer), adotou o licenciamento por soquete. Já a Microsoft considera
cada máquina virtual como um servidor físico com o mesmo número de soquetes do
servidor real. As versões do Windows Server 2008 incluem licenças para instâncias
virtuais extras do software na mesma CPU – uma na versão Standard Edition;
quatro na versão Enterprise Edition; e um número ilimitado na versão Datacenter
Edition. Todas as licenças para servidor da Microsoft também incluem direitos de
downgrade, o que significa que uma instância virtual poderá ser substituída pelo
Windows 2000 ou Windows NT.
IBM
A IBM, por sua vez, contabiliza os núcleos da CPU, levando em consideração o
desempenho de cada linha de processador. Atualmente, o licenciamento por núcleo
da IBM se aplica a quase metade de seus produtos de software, incluindo DB2,
WebSphere, Tivoli e Domino. O esquema da IBM é o mais complexo, pois ela cobra
dos clientes por Processor Value Unit (PVU), ou unidade de valor por processador,
equivalente a 1% do preço de um processador padrão com dois núcleos (Opteron ou
Xeon). A IBM dividiu por cem seus preços por soquete para definir o preço por PVU,
o que significa que a maioria dos clientes x86 inicialmente não verá nenhuma
mudança. Contudo, ao fazer a atualização para processadores x86 quadcore, o
usuário pagará o dobro por processador, porque cada um deles equivale a 200
PVUs. A IBM afirma que este modelo é justo porque um processador com quatro
núcleos pode fazer o dobro do que faz um processador com dois núcleos. O
problema para o pessoal de infraestrutura de TI é que a quantidade de núcleos das
CPUs está aumentando. Isso significa que ocorrerá o mesmo com as taxas de
licenciamento da IBM, se o número de PVUs por núcleo e o preço por PVU
permanecerem constantes. Como esta situação é insustentável em longo prazo, a
IBM declarou que ajustará o número de PVUs por núcleo para dar conta do
verdadeiro desempenho, esperando diminuir os custos de acrescentar mais núcleos
a um chip. Em 2008, todos os núcleos x86 ainda respondiam por 50 PVUs.
15
s
re O sistema de PVU da IBM tem o aspecto interessante de levar em conta
o
id
v
explicitamente a virtualização, por meio do que a IBM chama de “licenciamento de
r
S
e subcapacidade”. Se um servidor for dividido em diversas máquinas virtuais, os
e
d aplicativos dentro de cada uma precisarão ser licenciados somente para o número
o
ã
ç máximo de núcleos disponíveis para cada máquina virtual, e não para todos os
a
ilz núcleos no servidor.
a
tu
ir
V
Oracle
A Oracle possui um sistema de licenciamento similar ao da IBM, ou seja, baseado
em núcleos, mas considera o desempenho de cada linha de processador de uma
forma diferente. O licenciamento da Oracle é mais simples do que o da IBM, pois a
contagem de núcleos é feita como frações de um processador, mas é menos
favorável à virtualização. Um banco de dados Oracle executado em VMware deve
ser licenciado para cada núcleo no hardware básico – independentemente do
número de núcleos em que a máquina virtual realmente é executada. Atualmente, o
único meio de economizar em licenciamento da Oracle por meio da virtualização é
limitando os núcleos do processador disponíveis para um banco de dados. Por isso,
Intel e AMD continuam fabricando processadores Xeon dual core, que são
comercializados pelo mesmo valor dos Xeon edition quad-core.
16
Limitações da virtualização ç
o
ã
a
z il
\ Limitações de carga excessiva u
a
rti
v
\ Gerenciamento do licenciamento a
d
s
i
\ Falta de profissionais especializados e
a
r
g
s
to
c
Principais limitações da virtualização: e
p
s
A
\ Aplicativos de carga excessiva: incluindo os sistemas gerenciadores de bancos –
1
de dados, podem ser um fator limitante. Considerando que sempre existe uma o l
u
perda de desempenho introduzida pelo hipervisor, se uma aplicação ou um p ít
a
sistema gerenciador de banco de dados já demanda boa parte dos recursos do C
servidor, qual seria a razão para virtualizar este servidor?
\ Gerenciamento do licenciamento: as licenças podem ser um fator limitante
quando é necessário saber exatamente a regra para cada aplicação; isto é feito
de maneiras diferentes pelos diversos fabricantes. Em uma determinada situação
de carga, o licenciamento é válido; já outro que utiliza uma configuração
diferente de hardware pode não ser.
\ Falta de profissionais especializados: como a virtualização é relativamente
recente, ainda existem poucos profissionais experientes que dominem a técnica e
as opções comerciais disponíveis.
Desempenho e benchmarks
\ Desempenho é uma questão relevante
\ Desenvolvimento de benchmarks específicos
17
s
re
o
id
v
r
e
S
e
d
o
ã
ç
a
ilz
a
tu
ir
V
18
1
Roteiro de Atividades
Aspectos gerais da virtualização
Atividade 1 – Instalando o VirtualBox
Para fazer a instalação do VirtualBox em sua máquina, você deverá executar o arquivo
de instalação VirtualBox-<version>-Win.exe, que se encontra no seu desktop.
A instalação do VirtualBox é bem simples. Na maioria das telas você terá apenas
que clicar em Next para avançar.
\ Na tela de boas-vindas, aceite o contrato de licença.
\ Selecione como você deseja que os recursos sejam instalados.
19
s 2. Na tela seguinte, clique em Install para iniciar a instalação propriamente dita do
re
o
id
v
programa e aguarde a sua conclusão.
r
e
S 3. Observe durante a instalação os avisos do Windows quanto à instalação dos
e
d
o softwares. Caso apareçam, clique em Continuar assim mesmo.
ã
ç
a
ilz
a
tu
ir
V
20
Passo 1 – Nome da MV e tipo de sistema 1
s
e
d
a
id
No campo Nome informe como será identificada a máquina virtual. Este nome será v
ti
identificado em todos os componentes do VirtualBox. Utilize o nome
Virtualizacao-ESR. A
e
d
ro
i
No campo Tipo de Sistema, escolha o sistema operacional e a versão que você et
o
R
planeja instalar na sua máquina virtual. Clique em Próximo.
Passo 2 – Memória
21
s
re Passo 3 – Disco rígido virtual
o
id
v
r \ Deixe marcada a opção Disco Rígido de Boot (Primário Master).
e
S
e \ Escolha a opção Criar novo disco rígido e clique em Próximo.
d
o
ã
ç
a
ilz
a
tu
ir
V
22
Passo 5 – Localização do disco rígido virtual e tamanho 1
s
e
d
a
id
Aceite as opções padrão e clique em Próximo. v
ti
A
e
d
ro
i
et
o
R
Passo 6 – Sumário
Aparecerá a tela do sumário, ou seja, o resumo de como ficará o disco rígido que
será criado. Clique em Finalizar para começar a criação do disco. Este processo
pode durar alguns minutos.
23
s
re Após a criação do disco, clique emFinalizar para concluir a criação da máquina virtual.
o
id
v
r
e
S
e
d
o
ã
ç
a
ilz
a
tu
ir
V
24
Ao executar a máquina virtual pela primeira vez, a tela Assistente de Primeira 1
s
e
Execução será exibida para orientá-lo na instalação do sistema operacional de sua d
a
id
escolha. Clique em Próximo. v
ti
A
e
d
Passo 1 – Selecione a mídia de instalação ro
i
et
o
R
Em Mídia de Origem selecione Drive do Hospedeiro D:. Clique em Próximo.
Passo 2 – Sumário
25
s
re Inicie a máquina virtual que você acaba de criar. Observe a mensagem de erro:
o
id
v
r FATAL: No bootable medium found! System halted.
e
S
e
d Você saberia informar o motivo?
o
ã
ç
a
ilz
a
tu
ir
V
O VirtualBox permite que a máquina virtual seja editada depois de criada. Podemos
alterar o nome da máquina virtual, adicionar outro disco rígido virtual, aumentar o
tamanho de memória que a máquina alocará para o seu uso, adicionar mais
interfaces de rede, dentre outras opções. Nesta atividade, iremos visualizar as
opções de edição da máquina virtual.
Para editar uma máquina virtual, você precisará de uma já criada. Para isto, na lista
de máquinas do seu inventário, selecione a máquina Virtualizacao-ESR que criamos
na Atividade 1. Depois de selecionada, ao lado aparecerá a lista dos hardwares da
máquina virtual selecionada. Clique no menuMáquina e em seguida emConfigurações.
26
Suponha que tenha sido realizado um upgrade de mais 4 GB de memória e mais 1
s
e
um disco rígido de 1TB na máquina hospedeira, com o objetivo de acrescentar mais d
a
id
recursos às suas máquinas virtuais. v
ti
A
e
d
Na guia Sistema, acesse a aba Placa-Mãe, vá a Memória base e adicione mais 512 ro
i
MB de memória RAM à máquina virtual. et
o
R
27
s
re
o
id
v
r
e
S
e
d
o
ã
ç
a
ilz
a
tu
ir
V
28
1
s
e
d
a
id
v
ti
A
e
d
ro
i
et
o
R
29
s
re Atividade 4 – Adicionando uma máquina virtual
o
id
v
r
S
e Para adicionar máquinas virtuais pré-existentes ao VirtualBox, precisaremos executar
e
d o Assistente de Importação de Appliance. O VirtualBox atualmente suporta a
o
ã
ç importação de máquinas virtuais gravadas no Formato Aberto de Virtualização
a
ilz (Open Virtualization Format – OVF/OVA). Para isso siga as instruções:
a
tu
ir 1. Clique no menu Arquivo e em seguida clique em Importar Appliance... para que
V
seja exibida a tela do assistente de importação de appliance. Clique em Escolher.
2. Outra janela será apresentada solicitando a seleção de um appliance para importar.
Selecione no seu desktop o arquivo ImportMV-ESR.ova e clique em Abrir.
3. As configurações de importação da máquina virtual serão apresentadas em forma
de sumário. Clique em Finalizar para iniciar a importação da máquina virtual.
30
Uma barra de progresso será exibida mostrando o avanço da importação da 1
s
e
máquina virtual. d
a
id
v
ti
A
e
d
ro
i
et
o
R
31
s 4. Inicie a máquina virtual para ver se tudo ocorreu normalmente.
re
o
id
v
r
S
e A importação do VirtualBox clona toda a máquina virtual, inclusive o seu
e
d endereço MAC. Para evitar problemas de conflitos de IP na rede, edite o endereço
o
ã
ç MAC da máquina virtual com os passos descritos na Atividade 3.
a
ilz
a
tu
ir
V
Atividade 5 – Utilizando snapshots
Snapshots são pontos de restauração das máquinas virtuais que podem ser usados
para retornar a uma situação anterior de uma máquina virtual.
32
Visualizando o funcionamento dos snapshots 1
s
e
1. Inicie a máquina virtual ImportMV-ESR e faça alterações no sistema. O login da d
a
máquina virtual é aluno e a senha é rnpesr. id
v
ti
A
e
d
Exemplo: crie diretórios, arquivos de texto, edite arquivos de configuração, apague ro
i
arquivos existentes e instale programas. Abaixo são listados comandos que podem et
o
R
ser executados com o objetivo de danificar o sistema:
mkdir snapshots
touch snapshots
rm –r /etc/init.d/
rm –r /etc/fstab
rm –r /bin
4. Inicie novamente a máquina virtual e perceba que ela retorna ao estado anterior,
descartando todas as alterações realizadas.
33
s
re Atividade 6 – Removendo uma máquina virtual
o
id
v
r
S
e Para remover máquinas virtuais, precisaremos ter uma máquina criada no
e
d VirtualBox. Ela precisará estar desligada para que possa ser removida. Siga as
o
ã
ç instruções para a remoção.
a
ilz
a
tu No VirtualBox, selecione a máquina virtual que você deseja excluir. No nosso caso
ir
V
será a máquina virtual ImportMV-ESR. Clique com o botão direito no ícone que
representa a máquina virtual dentro do VirtualBox, e em seguida em Remover (ou
com a máquina selecionada, acesse o menuMáquina e selecione a opção Remover).
Será apresentada uma pergunta sobre a exclusão da máquina virtual com duas
opções de respostas:
\ Apagar todos os arquivos: apaga os arquivos de configuração da máquina virtual
34
1
s
e
d
a
id
v
ti
A
e
d
ro
i
et
o
R
Para a atividade, clique em Remover apenas para que a máquina virtual seja
excluída apenas do VirtualBox.
Inicie o programa VMware Workstation e na tela inicial localize a aba Home, clique
no botão New Virtual Machine ou acesse o menu File > New > Virtual Machine....
35
s
re
o
id
v
r
e
S
e
d
o
ã
ç
a
ilz
a
tu
ir
V
Após aparecer a tela de boas-vindas, você deverá optar entre criar uma máquina
virtual típica (typical) ou personalizada (custom). Escolha a opção Custom para criar
uma máquina virtual com configuração otimizada dos seus recursos. Clique em Next.
36
Passo 2 – Compatibilidade da máquina virtual 1
s
e
d
a
id
Nesta etapa, defina a versão do VMware Workstation com a qual você deseja que a v
ti
sua máquina virtual seja compatível (com as versões mais novas ou mais antigas). A
e
d
Escolha a versão atual do Workstation ( 7) e clique em Next. ro
i
et
o
R
37
s
re Passo 3 – Instalação do Sistema Operacional da MV
o
id
v
r
S
e Selecione o local de onde será instalado o sistema operacional na máquina virtual
e
d que iremos criar. Devemos escolher entre instalar o sistema operacional a partir de
o
ã
ç um disco no drive de CD/DVD, de uma imagem ISO arquivada no disco rígido local,
a
ilz ou instalar o sistema operacional depois. Escolha a última opção para instalar o
a
tu sistema operacional e avance.
ir
V
38
Selecione o sistema operacional e sua versão para instalação na máquina virtual 1
s
e
(Guest Operating System). Após fazer a escolha, clique em Next. d
a
id
v
ti
A
e
d
ro
i
et
o
R
39
s
re Passo 5 – Configuração do processador
o
id
v
r 1. Em Number of processors, configure o número de processadores da máquina
e
S hospedeira que a máquina virtual utilizará para o valor 1.
e
d
o
ã
ç 2. Em Number of cores per processor, configure o número de núcleos por
a
ilz processador da máquina física que a máquina virtual utilizará para o valor 1.
a
tu
ir
V
40
Passo 7 – Rede 1
s
e
d
a
1. O VMware Workstation possui três opções de configuração de rede: Bridged, NAT id
v
e Host-only. Escolha a opção Bridged para que a máquina virtual tenha acesso ti
A
direto à rede externa. e
d
ro
i
et
o
R
1. Defina
padrão oselecionada
tipo de controladora
(LSI Logic)SCSI que você
e clique pretende
em Next . utilizar. Deixe a opção
41
s 2. Em Disco, você pode escolher entre criar um novo disco virtual, utilizar um disco virtual
re
o
id
v
existente ou utilizar um disco físico. Selecione a opção para que
Create a new virtual disk
r
S
e seja criado um novo disco virtual para a máquina virtual. Após, clique em
Next.
e
d
o
ã
ç
a
ilz
a
tu
ir
V
3. Defina o tipo do disco entre as opções SCSI ou IDE. Selecione SCSI e cliqueNext
em .
42
4. Selecione 20GB como tamanho máximo do disco, marque a opção Store virtual 1
s
e
disk as single file para que todo o conteúdo do disco rígido virtual seja d
a
armazenado em apenas um arquivo. Clique em Next para avançar. id
v
ti
A
e
d
ro
i
et
o
R
43
s
re Atividade 8 – Iniciando a máquina virtual
o
id
v
r
S
e As máquinas virtuais criadas serão exibidas na janela principal do VMware
e
d Workstation. Selecione a máquina virtual criada ( Virtualizacao-ESR), e para iniciá-la
o
ã
ç clique em Power on this virtual machine.
a
ilz
a
tu
ir
V
Como nenhum sistema operacional foi instalado na máquina virtual, ao iniciá-la será
apresentada uma tela parecida com essa abaixo, informando que não foi encontrado
nenhum sistema operacional.
Para editar uma máquina virtual, você precisará de uma já criada. Para isto, na lista
de máquinas do seu inventário, selecione a máquina Virtualizacao-ESR. Depois de
selecionada, ao lado será aberto um sumário da máquina em questão. Clique no
botão Edit virtual machine settings.
44
1
s
e
d
a
id
v
ti
A
e
d
ro
i
et
o
R
45
s
re Cuidado, pois se for alterado o número de processadores virtuais depois da
o
id
v
instalação da máquina virtual, ela poderá ficar instável.
r
e
S
e
d Em Hard Disk é possível visualizar o caminho no qual está arquivado o disco rígido
o
ã
ç da máquina virtual (Disk file), analisar a sua capacidade atual (Capacity),
a
ilz informações de alocação e a forma como o disco rígido virtual foi armazenado (Disk
a
tu information). Em Utilities são mostradas outras ferramentas para alteração e
ir
V
manutenção do disco rígido:
\ Map: utilizado para mapear o disco rígido virtual na máquina hospedeira Windows.
\ Defragment: semelhante ao Desfragmentador de disco do Windows, onde a
ferramenta efetua operações no disco rígido para procurar e solucionar problemas
de fragmentação.
\ Expand: utilizado para aumentar o tamanho do disco rígido da máquina virtual.
\ Compact: utilizado para compactar automaticamente o disco rígido da
máquina virtual.
46
1
s
e
d
a
id
v
ti
A
e
d
ro
i
et
o
R
47
s
re Em Network Adapter há também a opção de ativar a placa de rede da máquina
o
id
v
virtual assim que ela for ligada (Connect at power on) e escolher o tipo de conexão
r
S
e de rede que utilizaremos:
e
d
o
ã
\ Bridged: habilita a máquina virtual a ter acesso direto à rede.
ç
a
ilz \ Replicate physical network connection state: replica o estado da conexão da
a
tu rede física.
ir
V
\ NAT: opção que compartilha o endereço IP do host.
48
1
s
e
d
a
id
v
ti
A
e
d
ro
i
et
o
R
É possível conectar uma impressora à máquina virtual, mas para isso ela precisa ter
o VMware Tools instalado – suíte de utilitários que melhora o desempenho da
máquina virtual. Mantenha as opções conforme a tela seguinte.
49
s
re Atividade 10 – Adicionando uma máquina virtual
o
id
v
r 1. Na tela inicial do VMware Workstation, procure por e clique
Open Existing VM or Team
e
S
e
para abrir uma máquina virtual existente no
disco rígido da máquina hospedeira.
d
o
ã
ç
a
ilz
a
tu
ir
V
2. Para abrir a máquina virtual, dentro da pasta de arquivos procure o arquivo com
o nome de Import-VMware-ESR.vmx.
50
3. Após aberta, a visualização da máquina virtual no VMware Workstation é 1
s
e
semelhante à da tela a seguir. Você pode iniciá-la para se certificar de que o d
a
processo de adição da máquina virtual ocorreu normalmente. id
v
ti
A
e
d
ro
i
et
o
R
4. Por padrão, quando você abre uma máquina virtual no VMware Workstation, ele
não salva a localização dela, de modo que após reiniciar o programa é necessário
repetir o processo abordado para abrir a máquina virtual novamente. Porém,
você pode inserir na lista de máquinas virtuais favoritas a máquina virtual que
você acabou de abrir no VMware Workstation. Para isto, mantenha a seleção da
aba da máquina virtual desejada aberta, clique em File, e em seguida em Add to
Favorites. Visualize a máquina virtual adicionada em Favorites.
51
s
re
o
id
v
r
e
S
e
d
o
ã
ç
a
ilz
a
tu
ir
V
52
Atividade 11 – Utilizando snapshots 1
s
e
d
a
id
Como foi visto, snapshots são pontos de restauração das máquinas virtuais que v
ti
podem ser usados para retornar a uma situação anterior de uma máquina virtual. A
e
d
ro
i
Exemplo: você deseja fazer alguma alteração no sistema operacional, mas quer ter a et
o
R
segurança de recuperar o seu estado inicial caso algo dê errado durante a alteração.
Você pode então criar um snapshot da máquina virtual antes de alterar o seu sistema,
e se a alteração não for do seu agrado, será possível retornar ao estado anterior do
sistema através do snapshot criado. O disco voltará ao mesmo ponto em que foi
criado o snapshot, assim como a memória, se o mesmo for criado com esta opção.
1. Para criar um snapshot de uma máquina virtual, precisaremos de uma já criada.
Para isto, na listaFavoritesselecione a máquinaImport-VMware-ESRque
adicionamos na atividade anterior. Após, vá ao menuVM> Snapshot> Take
Snapshot...
53
s 2. Digite uma descrição para o snapshot a ser tirado, para que possamos
re
o
id
v
identificá-lo posteriormente.
r
e
S
e
d
o
ã
ç
a
ilz
a
tu
ir
V
touch snapshots
rm –r /etc/init.d/
rm –r /etc/fstab
rm –r /bin
54
Após ter alterado o sistema da máquina virtual, desligue-a e volte ao menu VM> 1
s
e
Snapshot, mas desta vez acesse Snapshot Manager. Note que se você quiser, d
a
id
poderá voltar diretamente ao estado Snapshot da Atividade. v
ti
A
e
d
ro
i
et
o
R
55
s
re Em Snapshot Managerhá uma tela para gerência dos snapshots criados a partir de uma
o
id
v
determinada máquina virtual. No nosso caso, é mostrado o snapshot criado (
Snapshot
r
S
e da Atividade), a sua descrição e a data em que foi criado. É possível cloná-lo e apagá-lo,
e
d mas iremos recuperá-lo. Clique emGo to para proceder com a recuperação.
o
ã
ç
a
ilz
a
tu
ir
V
Inicie novamente a máquina virtual e perceba que seu estado anterior retorna,
descartando todas as alterações que foram feitas.
56
Atividade 12 – Removendo máquinas virtuais 1
s
e
d
a
id
No VMware Workstation existem duas opções de remoção das máquinas virtuais: removê- v
ti
las da lista de máquinas favoritas ou removê-las do disco rígido da
máquina hospedeira. A
e
d
Para remover máquinas virtuais, abra osoftware e certifique-se de que a máquina ro
i
desejada está desligada, para que possa serremovida. Siga as instruções para a remoção. et
o
R
57
s
re
o
id
v
r
e
S
e
d
o
ã
ç
a
ilz
a
tu
ir
V
58
2
Projeto de virtualização
Projeto de virtualização
Um projeto de virtualização merece um cuidado especial. Definir corretamente a
infraestrutura para suportar as aplicações no ambiente virtualizado é uma tarefa
complexa, pois envolve diversas variáveis. Também se deve levar em consideração a
necessidade de crescimento do ambiente e o consumo de recursos quando do uso de
algumas funcionalidades. Se a infraestrutura já existe, compartilhá-la com a
virtualização requer um estudo sobre as suas reais possibilidades.
59
s \ Implementação (Deployment);
re
o
d
i
v
\ Gerenciamento.
r
e
S
e
d O projeto de virtualização se inicia com a educação e conscientização sobre os desafios
o
ã
ç e necessidades de sua organização. Em seguida, a etapa de planejamento da
a
ilz capacidade é necessária para atender as demandas da organização. Com base nas Figura 2.1
a
tu informações coletadas e nos cenários é feita a opção pelo fornecedor do software de Etapas de um
ir
V
virtualização. As etapas de um projeto de virtualização são ilustradas na figura seguinte. projeto de
virtualização.
Planejamento de Escolha do
A Capacidade Fornecedor Projeto
Início
POC VRA
Início
Educação e conscientização
A solução de virtualização de servidores pode incluir tecnologias avançadas como
tolerância a falhas, balanceamento de carga e redução do consumo de energia.
Porém, todas estas tecnologias têm um custo associado em termos de complexidade
e recursos necessários. Estes recursos aprimoram a operação da infraestrutura,
reduzindo o tempo de interrupção e consequentemente melhorando os SLAs. No
entanto, podem não ser necessários a todos os projetos.
60
o
As justificativas para novos projetos que contemplem a virtualização passam por ç
ã
a
dificuldades atuais em provisionar novos servidores, dificuldades operacionais, z il
a
consumo de energia, mau uso dos recursos, falta de estratégia para alta disponibilidade u
rti
e recuperação a desastres, dificuldades com as aplicações legadas e novos hardwares. v
e
d
o t
e
Os desafios são diversos: alterar a infraestrutura existente considerando que a ro
j
P
organização continuará suas atividades durante o período de ajustes. Fazer a –
mudança para o novo ambiente com o mínimo de paralisações das operações, e 2
o l
com a limitação de recursos humanos e físicos. u tí
p
a
C
As organizações avançam na busca de soluções não proprietárias que simplifiquem
o ambiente de infraestrutura de TI. Cerca de 90% dos servidores vendidos
atualmente são baseados em plataforma x86, portanto esta é uma tendência de
mercado. A virtualização permite utilizar melhor os recursos de hardware, incluindo
aperfeiçoar o uso dos recursos de processador e a memória dos servidores. Além
disso, o importante nesta primeira etapa é reconhecer a importância da sua
preparação antes de iniciar o projeto. Invista na sua educação.
Planejamento da capacidade
\ Etapa fundamental para o planejamento da nova infraestrutura virtualizada
\ Identificação dos servidores compatíveis
\ Seleção dos serviços indicados para virtualização
\ Coleta, análise, testes e elaboração do relatório
Coleta
61
s
re Análise
o
id
v
r
S
e Nesta etapa, os dados coletados na fase anterior são comparados com os
e
d parâmetros pré-definidos para identificar os servidores, sistemas operacionais e
o
ã
ç serviços compatíveis com a virtualização. Esta etapa inclui uma análise do hardware
a
ilz necessário para suportar servidores virtualizados, análise do desempenho dos
a
tu serviços e das necessidades de failover e expansão de curto prazo.
ir
V
Testes
Elaboração do relatório
Coleta e levantamento
Deve-se considerar o levantamento no caso de um projeto para uma infraestrutura
existente. As funcionalidades escolhidas para o projeto de virtualização definirão os
recursos que serão aproveitados da antiga infraestrutura. Deve-se definir uma meta
de utilização para os processadores, lembrando que o uso de determinados recursos
como a alta disponibilidade, e o balanceamento dinâmico das cargas de trabalho,
obrigam a nova infraestrutura a ter uma folga, tanto nos recursos de processamento
como nos recursos de memória. O ideal é trabalhar a infraestrutura nova para que
ela funcione a média carga (em torno de 50-80%).
62
o
Análise ç
ã
a
Este processo é fundamental porque o host possui uma quantidade limitada de z il
a
recursos a serem compartilhados (processamento e memória), e as máquinas u
rti
virtuais em execução devem compartilhar estes recursos sem comprometer o v
e
d
desempenho do sistema. o t
e j
ro
P
Com a introdução do hipervisor, entre a máquina virtual e o host, e do seu papel –
ativo no gerenciamento da memória, agendamento de processamento (schedule) e 2
o l
I/O, se faz necessária uma etapa de análise da performance deste serviço candidato u tí
p
a virtualização. Não podemos voltar aos primórdios da virtualização onde se ouvia a
C
que “Os servidores Exchange não devem ser virtualizados” ou “Você nunca deve
virtualizar um servidor de SQL”. A análise não pode ser superficial. Um servidor de
Exchange com um número muito grande de clientes – e uma enorme caixa postal –
pode não ser mesmo um bom candidato para a virtualização. No entanto, o mesmo
servidor com poucos cliente e caixas pequenas pode ser indicado para a
virtualização. A análise deve ser no desempenho real do servidor e não na sua
função. Durante as atividades práticas deste curso, optamos por omitir os tipos dos
serviços providos por cada servidor, para deixar mais clara a sua independência na
determinação da solução virtualizada.
Após a coleta dos dados e elaboração do inventário dos servidores físicos em seu
ambiente, devemos partir para a fase de análise:
\ Análise de desempenho quantitativo de cada servidor;
\ Análise do hardware necessário para suportar servidores virtualizados;
Prova de conceito
A Prova de Conceito (Proof Of Concept – POC) foi concebida para prover as organizações
com conhecimento das soluções de infraestrutura virtual, e demonstrar as capacidades
da tecnologia existente no software, e o modo como são aplicadas para resolver
problemas reais.
63
s
re Existem quatro estágios durante uma Prova de Conceito, concebidos para garantir
o
id
v
que todos os requerimentos estejam definidos, com a identificação dos recursos e
r
S
e estabelecimento das expectativas, para garantir que a Prova de Conceito seja
e
d completada no tempo previsto e com sucesso.
o
ã
ç
a \ Fase I – Levantamento: definição dos requerimentos e planejamento do projeto;
ilz
a durante esta fase é necessário conduzir a definição do escopo do projeto com os
tu
ir objetivos e requerimentos para a Prova de Conceito.
V
Ferramentas
Entendendo a complexidade destas tarefas, alguns fabricantes disponibilizaram
ferramentas que permitem fazer o inventário do ambiente de TI – incluindo
servidores, dispositivos de armazenamento de dados e rede, além de fornecer
sugestões para o novo ambiente virtualizado, visando a otimização da nova
infraestrutura. As ferramentas de planejamento da capacidade combinam o
64
o
inventário com as informações de desempenho. Os fabricantes disponibilizam ç
ã
a
ferramentas que permitem o correto planejamento da capacidade com base na z il
a
utilização da infraestrutura existente. u
rti
v
e
d
Exemplos de ferramentas para o planejamento de capacidade: o t
e j
\ VMware Capacity Planner Tool ro
P
–
\ Microsoft Assessment and Planning Toolkit 2
o l
u tí
\ Novell PlateSpin Recon p
a
C
\ CiRBA Data Center Intelligence
\ Lanamark
Escolha do fornecedor
\ Preço
\ Desempenho (densidade)
\ Disponibilidade
\ Segurança
\ Base instalada
\ Funcionalidades
65
s
re Recomenda-se deixar os servidores de firewall e servidores da DeMilitarized
o
id
v
Zone (DMZ) separados dos servidores de virtualização usados na rede interna
r
S
e da organização.
e
d
o
ã
ç Projeto
a
ilz Como em qualquer projeto, deve-se utilizar uma ferramenta básica de gerenciamento
a
tu que permita controlar o cumprimento dos prazos e os recursos para a realização das
ir
V
duas principais entregas descritas a seguir, além de estabelecer uma estratégia clara
de comunicação.
\ Especificações do sistema: devem estar incluídas as especificações detalhadas,
os requisitos de licenciamento e de backup, implicações da virtualização na rede,
nos dispositivos de armazenamento etc.
\ Plano de implementação: deve incluir a verificação dos recursos, construção da
infraestrutura, migrações e revisão.
Implementação
A implementação depende de detalhes específicos de cada infraestrutura e das
plataformas disponíveis. As arquiteturas básicas serão apresentadas adiante de
forma genérica, e posteriormente detalhadas para cada software de virtualização.
66
\ Definição da rede a ser utilizada e funcionalidades necessárias; o
ã
ç
a
z il
\ Definição do nível de integração do backup. a
u
rti
A utilização de recursos de alta disponibilidade exige que os servidores tenham v
e
d
processadores compatíveis para permitir que uma aplicação (ou sistema) execute o t
e
em qualquer servidor do pool. É preciso, ainda, cuidar para que o software de alta ro
j
P
disponibilidade seja homologado para o storage empregado. A utilização de –
recuperação de desastres depende da integração do software de replicação utilizado 2
o l
no storage e da funcionalidade do software de virtualização. u tí
p
a
C
Gerenciamento
Em geral utiliza-se um software de gerenciamento específico fornecido pelo
fabricante do software de virtualização, que pode ser integrado a um framework de
gerenciamento fornecido por alguns fabricantes.
Infraestrutura de hardware
\ Arquitetura física de um datacenter
\ Arquitetura virtual de um datacenter
\ Hardware – descrição
67
s
re que se denomina de storage. Ainda, tipicamente, os storages são acessíveis aos
o
id
v
servidores através de redes de alto desempenho.
r
e
S
e
d Os problemas do desperdício de capacidade de processamento e armazenamento,
o
ã
ç assim como a necessidade de redes de interligação, também existem em
a
ilz datacenters pertencentes a uma única organização. O mesmo ocorre em servidores
a
tu corporativos que não necessariamente configurem um datacenter. A virtualização
ir
V
surge como uma solução comum aos dois casos, sendo genericamente denominada
de virtualização de servidores.
68
o
A virtualização possibilita otimizar o uso da infraestrutura de TI incluindo servidores ç
ã
a
(hosts), storage e os dispositivos de rede. Ela agrega os vários recursos e apresenta z il
a
um conjunto simples e uniforme de elementos em um ambiente virtual. O datacenter u
rti
virtual pode então ser provisionado para o negócio com o conceito de infraestrutura v
e
d
compartilhada virtualmente. o t
e j
ro
P
Principais elementos da arquitetura do datacenter virtual: –
2
\ Recursos de processamento e memória incluindo servidores, clusters e Resource o
u
l
tí
Polls (RPs) ou grupos de recursos; p
a
C
\ Recursos de storage e datastores;
\ Recursos de rede;
\ Máquinas virtuais propriamente ditas.
69
s
re Figura 2.3
o
id
v Departamento financeiro Datacenter
r
S
e virtual.
e
d Contabilidade
o
ã
ç
a
ilz VM VM VM VM VM
a
tu
ir
V Outro Folha de 4 GHz
pagamento 16 GB RAM
8 GHz
32 GB RAM
Cluster
12 GHz
48 GB RAM
virtual
Hardware – descrição
Os principais blocos de construção da infraestrutura de hardware são:
\ Servidores
\ Storage
\ Servidor de gerenciamento e backup
\
Infraestrutura de redes – switches
Além disso, é necessário considerar no projeto os aspectos de alta disponibilidade,
recuperação de desastres e segurança.
Servidores
\ Arquitetura do processador
\ CISC vs RISC
\ Servidores x86
\ Benchmarks
\ Padrões da indústria
\ Caraterísticas dos servidores
\ Disponibilidade
\ Desempenho
\ Gerenciamento
\ Escalabilidade
70
Arquitetura do processador o
ã
ç
a
Os servidores utilizados nos datacenters variam desde mainframes – servidores cujos z il
a
processadores são baseados em instruções Reduced Instruction Set Computer u
rti
(RISC) – até servidores x86, cujos processadores são baseados em instruções v
e
d
Complex Instruction Set Computer (CISC). o t
e j
ro
P
Os servidores cujos processadores são baseados em instruções do tipo CISC contêm –
um grande número de instruções. Os modelos baseados em instruções RISC deixam 2
o l
para o sistema operacional boa parte da execução das instruções e, portanto, u tí
p
possuem um número reduzido de instruções. Os modelos CISC – especificamente os a
C
modelos que utilizam a arquitetura x86 – são considerados um padrão da indústria
e utilizados em larga escala.
71
s
re A arquitetura x86 continua a evoluir, mas mantém instruções derivadas da
o
id
v
arquitetura 8086 de 16 bits. Este talvez seja o grande segredo da aceitação desta
r
S
e arquitetura: a compatibilidade com as versões anteriores.
e
d
o
ã
ç Existem duas principais arquiteturas x86: 32 bits e 64 bits, que a Intel
a
ilz convencionou chamar de (IA) 32 e (IA) 64. Por sua vez, a microarquitetura refere-se
a
tu ao projeto físico de cada processador. Processadores com diferentes
ir
V
microarquiteturas podem utilizar um mesmo conjunto de instruções, ou seja, a
mesma arquitetura, que é o que acontece com os processadores Intel e AMD. A
microarquitetura Intel evoluiu, passando da opção Netburst para núcleo e agora para
Nehalen. Os processadores AMD Opteron são também largamente utilizados na
indústria de servidores e apresentam excelente desempenho.
Benchmark de servidores
\ Spec CPU 2006
\ SPECvirt_sc2010
\ TPC
A ideia do benchmark é comparar uma mesma configuração e condições de carga
para duas CPUs de fabricantes distintos, ou comparar os resultados obtidos por
CPUs diferentes de um mesmo fabricante. Existem diversos benchmarks para
diversas funções executadas pelos servidores. O benchmark mais simples é o
orientado para o throughput da CPU, como o SPEC CPU 2006, cujos resultados
para as CPUs de mercado podem ser obtidos no site do Standard Performance
Evaluation Corporation (SPEC) – www.spec.org.
72
Padrões da indústria ç
o
ã
a
z il
\ Servidores u
a
rti
\ Torre v
e
d
\ Rack o t
e j
\ Lâmina (blade) ro
P
–
\ I/O 2
o l
u tí
\ Gerenciamento p
a
C
\ Chassis e racks
As conexões de E/S são a parte crítica de qualquer projeto de blades, pois elas é que
permitem a conexão de servidores blades com o mundo externo. Em geral, esses
servidores oferecem três tipos de conectividade: IP/Ethernet, Fibre Channel (FC) e
Infiniband. A próxima figura exemplifica um conjunto de blades e suas conexões.
73
s
re Figura 2.5
o
id
v
Servidores
r
S
e blade e
e
d conexões
o
ã
ç de I/O.
a
ilz
a
tu
ir
V
Disponibilidade
De forma geral, os servidores melhoraram a disponibilidade com o uso de fontes e
ventiladores redundantes e discos em configuração de Redundant Storage of
Inexpensive Drives (RAID). Diversas pesquisas realizadas por fabricantes
demonstram que estes dois aspectos são críticos. Placas de rede duplicadas e a
utilização de mais de um processador no servidor aumentam ainda mais o nível de
disponibilidade. Hoje, as memórias também permitem a utilização de configurações
redundantes. A alta disponibilidade do servidor é obtida com a configuração em
cluster de pelo menos dois servidores.
Desempenho
O desempenho de servidores x86 tem avançado rapidamente. Atualmente existe
também a possibilidade de utilizar processadores mais econômicos do ponto de
vista energético, em detrimento do desempenho. Uma comparação rápida de
resultados obtidos com os benchmarks SPEC ou mesmo o TPC indicam claramente
o ganho de desempenho conseguido a cada nova atualização dos processadores.
74
o
Gerenciamento ç
ã
a
O gerenciamento do hardware do servidor é realizado através de um software de z il
a
gerenciamento normalmente fornecido pelo próprio fabricante do servidor, cujo u
rti
console é baseado na web. O software normalmente é instalado em uma estação de v
e
d
gerenciamento e utiliza o protocolo Simple Network Management Protocol (SNMP). o t
e
Também é possível gerenciar o servidor através de uma placa de gerenciamento ro
j
P
integrada que permite o acesso remoto ao servidor. –
2
o l
Escalabilidade u tí
p
Escalabilidade é a habilidade de um sistema computacional de lidar, de forma a
C
transparente, com um número crescente de usuários ao mesmo tempo. A
escalabilidade em servidores é conseguida com a adição de mais processadores.
75
s
re Dispositivos de armazenamento – storage
o
id
v
r
e \ Histórico
S
e
d \ Situação atual
o
ã
ç
a \ Papel do storage no datacenter
ilz
a
tu
ir
V
O storage é hoje um componente fundamental da infraestrutura de TI, responsável
direto pelo nível dos serviços de armazenamento fornecidos por um datacenter. A
necessidade de suportar o crescimento da massa de dados digital e, ao mesmo
tempo, de aumentar a confiabilidade dos dados – devido a aspectos regulatórios e
de operar cada vez mais em um sistema 24 horas por 7 dias por semana (24 por 7)
–, faz do storage o ponto focal de muitos projetos de virtualização da infraestrutura
de TI. O storage responde pelo requisito de entrada/saída do sistema computacional.
Sistemas de armazenamento
\ Servidores
\ Storage
\ Conectividade
Servidores
Os servidores são onde as aplicações rodam. Os usuários armazenam e recuperam
dados através das aplicações que rodam nos servidores. Os servidores são
compostos por componentes físicos (hardware) e componentes lógicos (software).
76
o
\ Device drivers: softwares especiais que permitem que o SO interaja com ç
ã
a
dispositivos específicos; z il
a
u
\ Volume manager: software que roda no servidor e faz a interface entre o sistema rti
v
de arquivos e o disco físico; e
d
o t
e
\ Sistema de arquivos: relaciona-se à estrutura hierárquica de arquivos; ro
j
P
\ Aplicação: interface entre o usuário e o servidor. O acesso aos dados pode ser feito –
2
por blocos ou por arquivos. O acesso por blocos é o mecanismo básico de acesso aos o
u
l
tí
discos; por sua vez, o acesso por arquivos é uma abstração do acesso por blocos. p
a
C
Storage
Componente principal do sistema de armazenamento, pode utilizar um meio
magnético ou de estado sólido. Discos e fitas utilizam o meio magnético. Discos
ópticos utilizam um meio de estado sólido.
Conectividade
Refere-se à interconexão entre o servidor e o dispositivo de armazenamento (storage). A
conectividade possui componentes físicos (hardware) e componentes lógicos (protocolos).
Figura 2.6
Portas
Arquitetura de
um storage.
Cache Controladora
Disco
77
s
re Os servidores são conectados ao storage localmente ou usando tecnologias
o
id
v
adequadas de comunicação em rede, tais como fibre channel ou iSCSI e permitindo
r
S
e acesso aos discos que compõem o storage. As portas de conexão são estendidas
e
d para os discos, internamente,
o
ã
ç
a
ilz por meio de canais de E/S. Grandes subsistemas de discos podem ter diversas
a
tu portas de conexão, controladoras redundantes e canais de E/S internos, podendo
ir
V
armazenar vários terabytes de dados.
A conexão realizada via rede aumenta a quantidade de servidores que podem ser
conectados ao storage e otimiza o uso dos discos. Outro aspecto importante do uso
do storage em rede é que espaço em disco livre pode ser vinculado a qualquer
servidor conectado ao storage, o que resolve o principal problema do uso local de
discos onde discos subutilizados não podem ser utilizados de maneira convencional
por outros servidores.
Tipos de storage
\ JOBD
\ RAID
\ LUN
\ Unidade lógica
\ Inteligente
JBOD
Se o subsistema de disco não possui controladora interna é considerado um Just a
Bunch of Disks (JBOD). No caso de JBOD as controladoras não possuem a
tecnologia RAID e fazem parte do servidor que estará conectado ao storage.
RAID
Redundant Array of Independent Disks (RAID) consiste em um conjunto de dois ou
mais discos, com dois objetivos básicos: tornar mais rápido o acesso aos dados
gravados em disco – para isso é usada a técnica de divisão de dados (data
stripping); e trazer mais segurança para os dados – neste caso é usada a técnica de
espelhamento (mirroring). Essas duas técnicas podem ser usadas isoladamente ou
em conjunto. Os tipos de RAID mais utilizados são: 0, 1, 2, 3, 4 e 5. Todos são
basicamente a combinação dos RAID 0 e 1, acrescentando outras técnicas para
melhorar o uso dos discos.
LUN
O Logical Unit Number (LUN) é o número usado em um storage para identificar uma
unidade lógica, que é um dispositivo endereçado pelo protocolo SCSI ou similares,
como Fibre Channel ou iSCSI.
78
o
Unidade Lógica ç
ã
a
A partir de um grupo de discos físicos, configurados em RAID, passamos a ter um z il
a
disco único. Esse disco então pode ser dividido em vários “pedaços” de tamanho u
rti
variável; para cada pedaço é associado um número, o Número da Unidade Lógica v
e
d
(LUN). A figura 2.7 mostra um grupamento RAID dividido em várias unidades o t
e
lógicas e os respectivos LUNs. ro
j
P
–
Figura 2.7 2
LUN 0 Servidor 1 o l
Partições/LUNs u tí
p
em um grupo Servidor 1 LUN 0 a
C
RAID.
Espaço
livre
LUN 1
LUN 1 Servidor 2
Servidor 2
Figura 2.8
Partições/LUNs
em um único
disco. Servidor 1
Par 0
tição LUN
Pa 1
r tiçã
o LUN
Pa 2
r tiçã
o LUN
Pa 3
r tiçã
o LUN
Pa 4
r tiçã
o LUN
Partição 0 Servidor 1
Servidor 2 Partições 1 e 2 Servidor 2
Partições 3 e 4 Livres
Inteligente
Um sistema de armazenamento inteligente possui quatro componentes chaves:
front-end, memória cache, back end e discos físicos.
\ Front-end: interface entre o sistema de armazenamento e o servidor. Possui
normalmente portas e controladoras de front-end. As portas executam os
protocolos apropriados.
79
s
re
o
\ Memória cache: nos subsistemas de disco as caches são utilizadas para acelerar
id o acesso de leitura e escrita nos discos físicos. A cache existe no disco e nas
v
r
e controladoras (escrita e leitura). Todo disco possui uma pequena cache que serve
S
e
d para operações de escrita e leitura. A taxa de transferência do canal de I/O para a
o
ã controladora é significativamente mais alta do que a velocidade que a controladora
ç
a
ilz pode escrever ou ler do disco, por isso aqui também vale a ideia da cache.
a
tu
ir \ Back-end: interface entre a memória cache e os discos físicos. Consiste de dois
V
componentes: portas e controladoras de back-end.
\ Discos físicos: os discos físicos são conectados ao back-end com interface SCSI
ou Fibre Channel. O storage inteligente permite o uso de discos misturados como
SCSI, FC ou SATA.
Redes de storage
\ Necessidade
\ DAS, NAS e SAN
\ Protocolo SCSI
A principal diferença entre SAN e NAS advém do fato de que enquanto uma SAN
oferece apenas um meio de armazenamento formado por blocos, sem oferecer um
sistema de arquivos para eles, uma NAS oferece, além do meio físico de
armazenamento, um sistema de arquivos. Apesar dessa diferença, SAN e NAS
podem ser empregados concomitantemente em uma única solução de storage, ou
seja, uma parte do storage pode ser configurada para oferecer blocos para dados e
outra parte oferecer blocos de dados e um sistema de arquivos.
80
o
NAS utiliza seu próprio sistema operacional, normalmente para servir arquivos, ou ç
ã
a
seja, otimizar o I/O para diversos sistemas operacionais. Logicamente, o NAS pode z il
a
servir a mais clientes do que um servidor de arquivos convencional. u
rti
v
e
ARMAZENAMENTO INTERNO d
Figura 2.9 o t
e
Técnicas de I/O. Host ro
j
P
–
2
SAS o l
u tí
SATA
p
SAN e NAS a
C
Storage
SAS
Storage
SATA
SAS
SATA
FC
Quando se compara uma rede do tipo SAN (ou NAS) a uma rede do tipo LAN é
necessário entender algumas diferenças:
\ O overhead de uma rede do tipo SAN é muito menor do que o de uma rede do
tipo LAN.
\ A proteção é uma característica muito mais necessária em uma rede LAN. O
servidor acaba funcionando como um firewall para as redes SAN, o que
simplifica a segurança.
\ Um comportamento mais inteligente para o congestionamento na SAN é muito
mais relevante do que na LAN, onde o TCP/IP simplesmente descarta o pacote;
com SAN este aspecto acaba sendo um problema.
A figura 2.9 esquematiza os principais tipos de técnicas de storage.
Protocolo SCSI
\ Arquitetura do padrão SCSI-3
\ Componentes da arquitetura
\ Initiator
\ Target
\ Subsistema de entrega
81
s
re O protocolo Small Computer System Interface (SCSI) foi desenvolvido para propiciar
o
id
v
um mecanismo de transporte de dados eficiente entre os servidores e os periféricos,
r
S
e como discos e outros recursos. A arquitetura do padrão SCSI-3 (Modelo de
e
d Arquitetura SCSI – SAM3) define um modelo cliente/servidor onde existe um initiator
o
ã
ç (servidor), um target (disco) e um subsistema de transferência de dados que pode
a
ilz ser um cabo paralelo, Fibre Channel ou iSCSI. A arquitetura do SCSI-3 envolve
a
tu comandos específicos, os protocolos de transporte e a interconexão física que
ir
V
possibilita transferir os dados entre o initiator e o target.
SAN
\ FC e FCoE
\ IP
Nas redes SAN, a infraestrutura de rede pode ser Fibre Channel (FC) ou Gigabit
Ethernet, enquanto os dados transportados são do tipo “bloco”. Nas redes NAS, a
infraestrutura é quase sempre Gigabit Ethernet, e os dados armazenados do tipo
“arquivo”. O entendimento de quando utilizar uma ou outra infraestrutura é
complexo e muitas vezes confuso, causando problemas quando soluções que
deveriam ser baseadas em NAS são baseadas em SAN e vice-versa.
SAN FC e FCoE
\ Conceito
\ Protocolo FC
\ Componentes da rede SAN FC
82
o
Inicialmente o uso das redes SAN baseadas no protocolo FC possibilitou a ligação ç
ã
a
dos discos SCSI aos servidores, aumentando a velocidade e o número de z il
a
dispositivos permitidos. Também adicionou suporte para protocolos de várias u
rti
camadas de alto-nível, incluindo SCSI, Asynchronous Transfer Mode (ATM) e IP, v
e
d
sendo o SCSI o mais utilizado. Atualmente, com o surgimento de novas o t
e
funcionalidades e dispositivos, as redes FC estão consolidadas. ro
j
P
–
As redes SAN FC possuem os seguintes componentes: 2
o l
u tí
\ Portas dos nós (nodes ports): nas redes FC os dispositivos são chamados de nós. p
a
Cada nó é fonte ou destino da informação para um ou mais nós. Cada nó requer C
O protocolo FC é o protocolo mais utilizado nas redes do tipo SAN e atende aos
requisitos de desempenho e confiabilidade necessários, sendo implementado em
cinco camadas. As implementações iniciais ofereciam throughput de 100MB/s
(1062.5 Mb/s), que já era bem superior ao padrão Ultra SCSI de 20MB/s, usado em
DAS até então.
O padrão FC pode operar em modo full-duplex, chegando neste caso a 100 MB/s.
Existe também o Fibre Channel over Ethernet, que nada mais é do que o
encapsulamento dos quadros FC usando a rede Ethernet.
83
s
re SAN IP
o
id
v
r \ Conceito
e
S
e
d \ Protocolo iSCSI
o
ã
ç
a
ilz
\ Componentes da rede SAN IP
a
tu Recentemente o padrão Internet SCSI (iSCSI), que utiliza o padrão Ethernet para
ir
V
comunicação na rede de storage, passou a ser uma opção confiável e mais barata. O
protocolo iSCSI é um meio de transportar os pacotes SCSI através do TCP/IP. Os
principais componentes da rede iSCSI são servidores (initiators), targets e uma rede IP.
Storage e virtualização
\ Interdependência
\ SAN e NAS
\ SAN FC e SAN IP
\ Funcionalidades
84
Infraestrutura de rede ç
o
ã
a
z il
\ LAN u
a
rti
v
\ Switch d
e
o t
\ VLAN e j
ro
P
–
Os dispositivos de rede como switches e roteadores são os elementos centrais da 2
o l
conectividade de qualquer rede. Os switches têm importância fundamental por serem os u tí
p
dispositivos normalmente empregados para interconectar os vários equipamentos a
C
(servidores, storages e mesmo os roteadores) de uma infraestrutura de rede local (LAN)
de uma organização. Os switches estão em todo lugar, inclusive dentro das blades.
Os grupos que formam as VLANs podem ser criados de acordo com os recursos de rede.
Os switches podem ser configurados para informar a uma estação de gerenciamento
de rede a respeito de qualquer acesso não autorizado aos recursos de rede. Se
houver necessidade de comunicação entre VLANs é necessário empregar roteadores.
85
s
re física. Isso pode, por exemplo, parar as tempestades de broadcasts causadas por
o
id
v
uma falha em uma placa de rede (NIC) ou aplicativos que o estejam gerando.
r
e
S
e
d As VLANs são tipicamente criadas pelo administrador do datacenter, o qual associa
o
ã
ç portas do switch a uma determinada VLAN. Essas são chamadas de VLANs
a
ilz estáticas. Se o administrador quiser desenvolver um trabalho pensando mais a
a
tu frente e associar todos os endereços de hardware a um banco de dados, pode usar
ir
V
as VLANs dinâmicas. Os switches podem ser configurados para associar VLANs
dinamicamente. Quando uma VLAN se tornar muito grande, podem ser criadas mais
VLANs, para que os broadcasts não consumam muita largura de banda.
Virtualização da rede
\ Switches virtuais
\ Interfaces de redes virtuais
Benefícios da virtualização
\ Redução do Total Cost of Ownership (TCO) ou custo total de propriedade
\ Redução do uso do espaço físico
\ Redução do consumo de energia
\ Isolamento de ambientes de testes, desenvolvimento e produção
\ Flexibilidade na disponibilização de novos servidores
\ Padronização das plataformas
\ Gerenciamento centralizado
\ Simplificação no uso de alta disponibilidade (HA) e recuperação de desastres
\ Computação em nuvem e datacenter dinâmico
86
o
Novos negócios exigem uma infraestrutura de TI ágil e flexível para suportar a ç
ã
a
dinâmica dos processos de negócio. O uso da virtualização pode trazer grandes z il
a
benefícios para a organização com a adequação da sua infraestrutura de TI ao u
rti
negócio, mas requer planejamento e aquisição de novos recursos. Os prováveis v
e
d
benefícios obtidos com a virtualização são: redução do TCO e computação em nuvem. o t
e j
ro
P
Redução do custo total de propriedade –
O custo total de propriedade pode ser reduzido com o uso da técnica de 2
o l
virtualização. Os fabricantes disponibilizam ferramentas que permitem o cálculo do u tí
p
Total Cost of Ownership (TCO), considerando a comparação de uma infraestrutura a
C
de TI com e sem virtualização. Em geral é simples justificar um projeto de
virtualização utilizando a abordagem de TCO, tanto para a taualização da infraestrutura
física existente, como também para a construção de uma nova infraestrutura.
\ Isolamento
instalações, dos
podeambientes
ser muitode teste,
caro desenvolvim
construir entofísicos
ambientes e produção : em para
diferentes muitas
os
ambientes de teste, desenvolvimento e produção. A utilização da virtualização
otimiza o uso dos recursos, pois permite que os ambientes coexistam de maneira
completamente isolada, mesmo executando nos mesmos servidores físicos.
\ Flexibilidade na criação de novos servidores: as máquinas virtuais (servidores
lógicos) podem ser criadas de forma automática em servidores físicos já
existentes. Na prática, a demanda por um novo servidor físico que dependeria de
aprovação, compra e entrega, pode ser atendida por uma máquina virtual pronta
para rodar em qualquer servidor que esteja com folga.
\ Padronização das plataformas: à medida que o hipervisor passa a ser o
elemento central do servidor virtualizado, todo o esforço de padronização da
plataforma fica simplificado, pois a relação com o hardware ocorre através dele.
Diferentes sistemas operacionais podem coexistir no mesmo servidor, sob o
controle do hipervisor.
\ Gerenciamento centralizado: o gerenciamento das máquinas virtuais fica
centralizado em uma única ferramenta, facilitando o gerenciamento, reduzindo os
custos operacionais e promovendo a simplificação do ambiente. Simplifica o uso
de alta disponibilidade (HA) e recuperação de desastres.
87
s
re
o
\ Implantação de técnicas de alta disponibilidade: técnicas como clusters de
id servidores – e o uso de tecnologias de replicação para suportar a recuperação de
v
r
e desastres – podem ser simplificadas com o uso da virtualização. A virtualização
S
e
d permite a alta disponibilidade independentemente do uso de técnicas de cluster,
o
ã facilitando a criação do site secundário e otimizando os recursos alocados para o
ç
a
ilz segundo site. Além disso, permite automatizar os processos de recuperação de
a
tu desastres com a fácil integração promovida por técnicas de replicação do storage.
ir
V
\ Computação em nuvem e datacenter dinâmico: a virtualização é o componente
central do datacenter dinâmico, que por sua vez viabiliza a computação em
nuvem. A computação em nuvem e o datacenter dinâmico se viabilizam à
medida que as soluções de virtualização avançam nos aspectos referentes ao
balanceamento de carga dinâmica, recuperação de falhas, segurança e
interoperabilidade entre sistemas diferentes.
Análise de TCO/ROI
\ Total Cost of Ownership (TCO)
\ Return On Investiment (ROI)
\ Análises de TCO permitem realizar uma justificativa de projeto baseada em números
\ Os principais fabricantes possuem ferramentas próprias de análise de TCO
88
o
projeto introduzindo dados reais de inventário e de uso na ferramenta de ROI, ç
ã
a
obtidos pela ferramenta de levantamento. Essas ferramentas são facilmente z il
a
encontradas através de pesquisa na internet. u
rti
v
e
d
o t
e
Alta disponibilidade ro
j
P
–
\ Alta disponibilidade (HA) 2
o l
u tí
\ Níveis de disponibilidade p
a
C
A alta disponibilidade (HA) e a recuperação de desastres (DR) devem ser pensadas
continuamente, já que acontecem em diversas camadas, onde cada camada
propicia os níveis de disponibilidade adequados para a camada superior.
\ Plataforma: servidores com redundância de fonte e discos;
\ Dados: redes SAN redundantes;
\ Aplicação: cluster failover de aplicação;
\ Site: replicação de site.
Backup e restore
\ Necessidades
\ Aplicativos de backup
\ Mídias
O backup é uma cópia dos dados de produção, criada e retida com o propósito de
manter e fornecer segurança para os dados que a empresa considera importantes. O
restore é o processo de recuperação desses dados. Os serviços de backup e restore
em TI são parte de um processo mais amplo que visa garantir a disponibilidade do
datacenter e da infraestrutura de TI.
Necessidades
O backup/restore precisa ser realizado por várias razões, dentre as quais podemos destacar:
\ Requisitos de negócio;
\ Requisitos legais;
89
s
re
o
\ Proteção contra falhas de hardware;
id
v
r
e \ Proteção contra falhas das aplicações;
S
e
d \ Proteção contra erros dos usuários;
o
ã
ç
a
ilz
\ Recuperação de desastres;
a
tu \ Alcance de níveis de serviço específicos.
ir
V
O aspecto chave para definir a forma de realizar o backup é a natureza dos dados do
backup. Deve-se definir também uma estratégia para recuperação dos dados do
backup e testá-la antes da sua necessidade real. É comum acontecerem surpresas
quando se usa o restore , ou seja, quando há a tentativa de recuperação dos dados.
A própria forma de realizar o restore dos dados deve ser devidamente entendida com
o fabricante do software de backup. A sugestão é incluir o treinamento no restore do
ambiente no momento da realização do treinamento específico da ferramenta de
backup que será utilizada.
Figura 2.10
Storage
Catálogo Processo de
de Metadados
backup.
Servidor de Aplicação Servidor de Backup
e
e cliente do backup Servidor de Mídia
Dados
de backup
Dados
de backup
Biblioteca
de Fita
90
o
Aplicativos de backup ç
ã
a
z il
a
O aplicativo de backup é o software responsável por, a partir de políticas u
rti
determinadas pelas necessidades da instituição, fazer a salvaguarda dos dados v
e
d
estratégicos. As políticas de backup determinam se, quando, onde e por quanto o t
e
tempo o dado será salvo. O software deve possibilitar a realização de backups ro
j
P
completos e periódicos (diário, semanal, mensal etc.). É importante testar os dados –
salvos através do restore, pois em muitos casos o backup é gravado em mídias 2
o l
defeituosas, o que impossibilita a recuperação dos mesmos. u tí
p
a
C
Mídias
91
s
re
o
id
v
r
e
S
e
d
o
ã
ç
a
ilz
a
tu
ir
V
92
2
Roteiro de Atividades
Projeto de virtualização
Atividade 1 – Captura de máquina física para virtual (P2V)
93
s 3. A primeira etapa é selecionar a fonte para a conversão. Você precisa informar o
re
o
id
v
que você quer converter, podendo ser: uma máquina física, uma máquina física
r
S
e remota, um appliance virtual, uma máquina virtual VMware, uma máquina
e virtual Microsoft ou uma imagem de backup de terceiros. Clique em Avançar
d
o
ã
ç
para fazer a seleção.
a
ilz
a
tu
ir
V
4. Informe o tipo de fonte que você pretende utilizar. Selecione Physical Computer e
clique Avançar para converter uma máquina física e transformá-la em uma
emvirtual.
máquina
94
2
5. Informe qual máquina física você irá converter: a remota ou a máquina local. s
e
Nesta atividade, selecione This local machine para que o aluno converta a sua d
a
id
própria máquina física que está utilizando no curso e após, clique em Avançar. v
ti
A
e
d
ro
i
et
o
R
95
s
re 6. A ferramenta de conversão oferece a opção de escolher os discos que serão
o
id
v
convertidos e especificar os seus tamanhos. Por exemplo, caso uma máquina
r
S
e física tenha 160 GB de disco e apenas 30 GB esteja sendo usado, é possível
e
d criar o disco da máquina virtual com apenas os 30 GB utilizados pela máquina
o
ã
ç física. Na atividade, optaremos por manter as opções padrão apresentadas:
a
ilz capturar o disco C: e manter o seu tamanho srcinal no disco da máquina virtual.
a
tu Mantenha marcada a opção para ignorar o arquivo de página e o arquivo de
ir
V hibernação (Ignore Page file and hibernation file) para economizar espaço de
disco e tempo na conversão. Após, clique em Avançar.
96
2
7. Após ter configurado toda a fonte de conversão do VMware Workstation, informe s
e
qual será o destino da máquina virtual que será criada. Clique em Avançar. d
a
id
v
ti
A
e
d
ro
i
et
o
R
8. Informe o tipo de destino que você vai dar à máquina virtual que está sendo criada.
Você pode enviá-la automaticamente para um servidor VMware ESX/ESXi ou
simplesmente gerá-la e depois decidir o que fazer. Selecione
Other Virtual Machine.
97
s
re 9. Identifique a máquina virtual no campo Virtual machine name. Como sugestão
o
id
v
r
você pode colocar o nome P2V-X onde X pode ser o seu nome ou o nome da
e
S máquina utilizada para a atividade.
e
d
o
ã
ç Em Location selecione o diretório onde será armazenada a máquina virtual. Para
a
ilz facilitar, você pode criar uma pasta na área de trabalho chamada P2V-ESR e utilizar
a
tu o botão Browse... para selecioná-la como destino para o armazenamento.
ir
V
Defina VMware Workstation como tipo de máquina virtual que será criada. O
assistente de conversão pode criar máquinas virtuais que serão compatíveis com
vários produtos da VMware. Ao término da configuração desta etapa, clique em
Avançar para prosseguir.
98
2
10.Defina Allow virtual disk files to expand como forma de alocação, para que o s
e
d
disco da mesma se expanda de acordo com a demanda, podendo atingir o a
id
v
tamanho máximo estipulado na etapa de importação. Você também pode alocar ti
A
todo o espaço de disco para uma melhor performance ou dividir o disco em e
d
pedaços de 2 GB. ro
i
et
o
R
99
s
re 11.Na etapa de configuração das redes, o aluno precisará informar as interfaces de redes
o
id
v
r da máquina virtual. A princípio, as interfaces apresentadas são mesmas
as da máquina
e
S física que converteremos. Porém, também é possível modificar configurações
as .
e
d Mantenha as opções padrão conforme a próxima tela e clique emAvançar.
o
ã
ç
a
ilz
a
tu
ir
V
100
2
13.Ao término da configuração, o VMware Workstation questionará se você está s
e
pronto para iniciar, apresentando um sumário com as opções escolhidas nas d
a
id
etapas anteriores, para que você analise e informe se é realmente o que pretende v
ti
A
utilizar. Revise a configuração e clique em Concluir para ser iniciada a tarefa de e
d
criação da máquina virtual a partir de uma fonte física. ro
i
et
o
R
101
s
re
o
16.A máquina virtual que acaba de ser criada é automaticamente adicionada à lista
id das favoritas do VMware Workstation. Clique em Power on this virtual machine
v
r
e para iniciar a máquina virtual e verificar se a conversão ocorreu com sucesso. O
S
e
d login de acesso à máquina é o mesmo da máquina física.
o
ã
ç
a
ilz
a
tu
ir
V
Veja que as mesmas pastas da máquina física são apresentadas na máquina virtual.
102
Estudo de Caso 2
s
e
d
a
id
Planejamento do projeto de virtualização v
ti
Nesta atividade apresentaremos uma empresa fictícia, que busca trabalhar a sua A
e
d
imagem junto à sociedade em ações como redução do consumo de energia e de ro
i
equipamentos físicos. O objetivo é adquirir mais espaço para uma futura expansão e et
o
R
melhorar a gerência dos servidores realizada pela equipe técnica.
Esta atividade será desenvolvida em partes até o final do curso, onde serão
apresentadas, individualmente ou em grupo, as soluções para a consolidação dos
servidores da empresa.
A empresa ABC
Empresa de grande porte do ramo de óleo e gás que planeja uma ação de
marketing, visando elevar sua marca no mercado. O CEO da empresa reuniu a
equipe de Tecnologia da Informação (TI) e apresentou o plano de ação, cujo objetivo
final é alcançar a chamada “TI Verde”. A ação inicial traçada para alcançar este
objetivo é atuar na direção da consolidação dos servidores.
Ambiente
Parque tecnológico com 12 servidores em um ambiente heterogêneo. Os sistemas
operacionais estão distribuídos entre dois grupos, Windows e Linux. Os servidores
disponibilizam para a rede uma gama variada de serviços, desde servidores de
impressão até banco de dados. Os servidores Linux e Windows utilizam hardware
padrão IBM PC com processadores Intel e AMD, onde existem servidores dos tipos
Rack e Torre.
Sistemas Linux
Sistemas Windows
103
s
re Topologia da rede
o
id
v
r
e
Nome Sistema Modelo Processador Memória(GB)
S Operacional
e 32/64 CPU/Core Fabricante Clock Atual Máx
d
o
ã
ç
bits MHz
a Atual Máx
ilz
a
tu Host1 Windows Server IBM 64 01/ 02/ Intel 2048 4 128
ir
V 2008 R2 System abr abr
Enterprise Ed. x3650 M2
Host2 Windows Server Power 64 01/ 01/ Intel 2400 8 24
2008 R2 Edge R300 abr abr
Enterprise Ed.
Host3 Windows Server Power 64 01/ 02/ Intel 2800 8 16
2003 Enterprise Edge 2850 fev fev
x64 Ed.
Host4 Windows 2000 Power 64 01/ 04/ Intel 1400 8 16
SP3 Advanced Edge 6600 fev fev
Server
Host5 Windows NT HP 64 01/ 02/ Intel 2400 4 192
4.0 SP6 Server ProLiant jun jun
ML350 G6
Host6 Red Hat Power 64 01/ 02/ Intel 2400 24 192
Enterprise Linux 3 Edge T710 fev abr
Tabela 2.11
104
Plano de consolidação 2
s
e
Nesta etapa será proposto um modelo de projeto de consolidação, composto de seis d
a
id
passos importantes, sendo que os quatro primeiros serão trabalhados neste curso. v
ti
A
\ Seleção dos hardwares que podem ser virtualizados; e
d
ro
i
\ Seleção dos sistemas operacionais que podem ser virtualizados; et
o
R
\ Seleção dos serviços que podem ser virtualizados;
\ Compilação do levantamento realizado;
\ Planejamento de capacidade do hardware;
\ Desenho do cenário final;
\ Análise de custo e benefício ROI;
\ Desenvolvimento do plano de implementação;
\ Gerência e monitoramento do ambiente.
105
s
re Servidor VMwareESX MSHyper-V CitrixXenServer Tabela 2.3
o
id
v
r
e
HW SO HW SO HW SO
S
e Host1 OK OK OK NÃO OK
d
o
ã
ç Host2 OK NÃO NÃO
a
ilz
a
tu Host3 OK OK OK OK
ir
V
Host4 OK OK
Host5 OK OK OK
Host6 NÃO
Host7 OK NÃO NÃO
Host8 OK OK OK
Host9 OK OK OK
Host10 OK OK OK OK
Host11 OK NÃO OK
Host12 OK OK OK OK
Com base em estudos realizados pela empresa VKernel envolvendo mais de 2.500
empresas e 550 mil máquinas virtuais, foi observado que em média as empresas
reservam 1.9 máquinas virtuais por core de processador e 15.7 máquinas virtuais
por host, conforme mostra a tabela abaixo.
106
Com base neste estudo, a tabela abaixo deve ser preenchida a partir da análise dos 2
s
e
equipamentos que foram aprovados na compatibilidade de hardware realizada na d
a
id
atividade anterior. Liste as máquinas virtuais que serão suportadas por hardware v
ti
seguindo a relação 1,9 para um core de CPU. A
e
d
ro
i
Tabela 2.5 Servidor VMwareESXi MS Hyper-V CitrixXen Server et
o
R
Atual Máximo Atual Máximo Atual Máximo
Host1
Host2
Host3
Host4
Host5
Host6
Host7
Host8
Host9
Host10
Host11
Host12
TOTAL
107
s
re \ Citrix XenServer Tech Specs:
o
id
v
r http://www.citrix.com/English/ps2/products/subfeature.asp?contentID=1681139
e
S
d
e \ VMware ESX HCL:http://www.vmware.com/go/hcl
o
ã
ç
a \ Altere o menu What are you looking forpara Guest/Host OS.
ilz
a Microsoft Hyper-V Guest Support:
tu
ir http://www.microsoft.com/windowsserver2008/en/us/hyperv-supported-
V
guest-os.aspx
\ Digite e acesse estas URLs em:http://urli.st/mqG
Para cada uma das plataformas de virtualização, indique quais hosts poderão ser
aproveitados no plano de virtualização. Aproveite para indicar o total de máquinas
virtuais que serão suportadas pelo hardware existente e o total suportado se for
efetuado o upgrade dos hosts.
108
3
Introdução ao Xen
\ Histórico
\ Versões
Histórico
O Xen foi srcinalmente desenvolvido pelo Grupo de Pesquisa de Sistemas do
Laboratório de Computação da Universidade de Cambridge, como parte do projeto
XenoServer, coordenado por Ian Pratt e Keir Fraser. O nome Xen deriva do grego
xenos, que significa estrangeiro ou desconhecido. O objetivo do projeto XenoServer
era proporcionar uma infraestrutura pública para computação distribuída em larga
escala. O componente fundamental da arquitetura do XenoServer era um hipervisor
denominado Xen, responsável por virtualizar e gerenciar os recursos físicos através de
ambientes virtuais de execução.
109
s
re A primeira versão do Xen foi liberada em 2003 e rapidamente se popularizou, por
o
id
v
duas razões: ser um software livre e oferecer um desempenho muito bom se
r
S
e comparado com as demais soluções de virtualização de sua época. No entanto, por
e
d ser baseada em paravirtualização, sua grande desvantagem era a necessidade de
o
ã
ç modificação do código-fonte dos sistemas operacionais convidados. Isso limitava o
a
ilz seu emprego a sistemas operacionais de código aberto. Atualmente, o Xen oferece
a
tu capacidade para executar máquinas virtuais com sistemas operacionais não
ir
V
modificados (virtualização completa). O Xen é licenciado nos termos da GNU
General Public Licence (GPLv2) e permite que vários sistemas operacionais
hóspedes (convidados) sejam executados em um mesmo sistema hospedeiro.
O Xen pode ser obtido de forma livre a partir dos sites da XenSource (www.xen.org)
ou da Citrix System Inc. (www.citrix.com).
110
Versões n
e
X
o
a
A versão Xen 1.0 corresponde àquela de seu lançamento e, em um curto espaço de o
ã
ç
u
tempo foi substituída pela versão 2.0, já desenvolvida pela XenSource Inc. Essa d
ro
t
versão foi caracterizada por modificações que visavam transformar o Xen em um In
produto competitivo para o mercado de virtualização. Como estratégia de negócios –
3
da XenSource Inc., o hipervisor Xen foi liberado como solução em software livre. lo
u tí
Tanto a versão 1.0 como a 2.0 ofereciam apenas paravirtualização. p
a
C
Em 2005 foi lançada a versão Xen 3.0 que, entre várias modificações, incluía um
melhor suporte a arquiteturas SMP e de 64 bits, uma gama maior de dispositivos de
hardware, além de estender a capacidade de endereçamento de memória de 4 GB
para até 64 GB (suporte PAE36). Entretanto, a alteração mais significativa foi
aproveitar a capacidade de virtualização por hardware dos processadores Intel-VT
(Vanderpool) e AMD-V (Pacífica), permitindo que o Xen suporte virtualização
completa, ou seja, execução de sistemas operacionais hóspedes sem a necessidade
de modificações.
Componentes
\ Hipervisor
\ Domínio convidado privilegiado
\ Domínio convidado não privilegiado
O Xen é composto por três componentes fundamentais, como mostra a figura 3.2:
hipervisor Xen, domínio convidado privilegiado e domínio convidado não
privilegiado. O hipervisor Xen é a camada de base. Sobre essa camada estão um ou
mais sistemas operacionais hóspedes, os quais o hipervisor escalona sobre os
processadores disponíveis. Há sempre no mínimo um sistema operacional convidado
na arquitetura Xen. Essa é uma máquina virtual automaticamente inicializada no
boot do Xen e, na terminologia empregada, corresponde ao domínio convidado 0 ou,
simplesmente, Dom0. Os demais sistemas convidados são denominados de DomU,
onde o “U” vem do inglês unprivileged.
111
s
re Figura 3.2
o DomínioO DomínioU DomínioU
id Componentes do
v
r
S
e
e
... Xen: hipervisor e
d domínios
o
ã
ç convidados.
a
ilz
a
tu
ir
V Hipervisor
Hardware
Hipervisor Xen
O hipervisor Xen é um monitor de máquina virtual do tipo I (baremetal) que executa
entre o hardware e um sistema operacional convidado (figura 3.2). Na prática, o
hipervisor executa diretamente sobre o hardware e se torna um tipo de interface
entre todas as requisições de hardware (processador, interrupções e disco) para os
demais sistemas operacionais. Ao separar os convidados do hardware, o Xen está
apto a executar múltiplos sistemas operacionais de forma segura e independente.
Como já mencionado, o Xen não possui nenhum tipo de driver de dispositivo e atua
apenas controlando os recursos fundamentais do processador, como interrupções,
gerência de memória (MMU) e escalonamento. Cabe ao Dom0 acessar e controlar
112
os dispositivos de E/S através de seus próprios drivers. As requisições de E/S n
e
X
provenientes dos demais domínios convidados são encaminhadas para o Dom0, o
a
como mostra a figura 3.3. o
ã
ç
u
d
ro
t
Por executar um sistema operacional, é possível que um usuário execute um login no In
Dom0 de forma convencional. Entretanto, o Dom0 possui privilégios especiais sobre o –
3
hipervisor e demais domínios convidados. Um administrador de sistemas, ao efetuar o lo
u tí
login no Dom0, tem a capacidade de gerenciar toda a máquina. Por isso, é importante p
a
que o Dom0 seja instalado e configurado para contemplar ao máximo o quesito C
Domínio O
Figura 3.3 Domínio U Domínio U
...
Núcleo código Sistema
Interação entre aberto de arquivo
Hipervisor,
Domínio 0 e Interface Drivers de
de controle dispositivo
Domínios U.
Daemon controle
Hipervisor
Hardware
113
s
re Virtualização no Xen
o
id
v
r \ Modos de operação do processador
e
S
e
d \ Arquitetura de drivers de dispositivos
o
ã
ç
a
ilz
\ Paravirtualização
a
tu \ Virtualização completa
ir
V
\ Híbrida
Paravirtualização é a técnica de virtualização em que o sistema operacional
convidado tem consciência de que está executando sobre um hipervisor e não sobre
o hardware real da máquina. Nesse caso, o sistema operacional é modificado para
não realizar chamadas de sistemas nativas (que na verdade são instruções
privilegiadas do processador), mas sim para executar chamadas ao hipervisor. Já na
virtualização completa, o sistema operacional é iludido para acreditar que está
executando diretamente sobre o hardware, quando na verdade o faz sobre um
hipervisor. O uso destas técnicas no Xen será detalhado a seguir.
114
Figura 3.4 n
e
X
Anéis de Aplicações de usuário
o
a
proteção em o
ã
ç
u
arquiteturas x86. d
ro
t
In
–
Maior nível Núcleo do sistema 3
de privilégio operacional lo
u tí
p
Anel 0 a
C
Anel 1
Anel 2
Anel 3
Não empregado em sistemas
operacionais convencionais
A solução para esse dilema é fazercom que os DomU solicitem ao Dom0 oacesso aos
dispositivos de E/S em nome deles. Para isso o Dom0 tem uma camadade software
adicional denominada backend, que disponibiliza drivers genéricos virtuais para
dispositivos de E/S orientados a bloco e rede. Os DomU têm acesso a esses drivers
genéricos através de outra camada de software, o frontend, que também são drivers
genéricos virtuais. Dessa forma, um DomU realiza requisições de E/S para um driver,
o frontend, da mesma forma que faria para um núcleo Linux. Entretanto, o frontend
é apenas uma interface virtual, sem acesso ao hardware real, que encaminha essas
requisições o backend, delegando a tarefa de E/S para o Dom0. Do backend elas
são reencaminhadas para o driver real, conforme ilustra a figura a seguir.
115
s
re Figura 3.5
o
id
v Domínio O Domínio U Mecanismo de
r
S
e backend e
d
e Driver de bloco (backend) Driver de bloco (frontend) frontend.
o Canal de
ã
ç comunicação
a
ilz Driver de rede (backend) Driver de rede (frontend)
a
tu
ir
V Driver Driver
bloco rede
Hipervisor
Hardware
Paravirtualização
Os sistemas operacionais convencionais, como o Linux e a família Microsoft
Windows, nas arquiteturas x86, implementam as chamadas de sistema através da
interrupção de software int 0x80. Lembre-se de que as aplicações executam no CPL
3 e o núcleo no CPL 0. A paravirtualização no Xen consiste em fazer o hipervisor
executar no anel CPL 0, e o sistema operacional no CPL 1. As aplicações de
usuários continuam a ser executadas no CPL 3.
116
Figura 3.6 Paravirtualização Virtualização completa n
e
X
Implementação de o
a
paravirtualização o
ã
Aplicações de usuário Aplicações de usuário u
ç
e virtualização d
ro
t
completa no Xen. In
Windows –
Linux (modificado) 3
(não modificado)
lo
u tí
p
a
C
Hipervisor hypercall Hipervisor
Intel VTx/AMD-V
Hardware Hardware
Virtualização completa
Técnica de virtualização que permite que os sistemas operacionais convidados
executem sem modificações. Com a virtualização completa, o sistema operacional
não distingue se está executando diretamente sobre o hardware real ou sobre um
hipervisor. Entretanto, para que isso seja possível é necessário que o processador
ofereça suporte à virtualização por hardware (Hardware Assisted Virtualization – HAV).
Virtualização híbrida
Na realidade, existe uma terceira possibilidade de virtualização denominada de
híbrida, mas que, atualmente, está em estágio de pesquisa e desenvolvimento. O
princípio básico é lembrar que são os drivers do dispositivo que realmente executam
operações em dispositivos de E/S. Normalmente, os drivers são um módulo a parte,
separados do núcleo, mas que por questões de desempenho são ligados junto ao
núcleo, formando um código monolítico. O núcleo em si é responsável apenas pelo
recebimento e identificação de interrupções, pela chamada da rotina de tratamento
de interrupções adequada, pela gerência de memória e pelo escalonamento.
117
s
re Sendo assim, a ideia da virtualizaçãohíbrida é explicitar essa separação entre os
o
id
v
drivers de dispositivos e o núcleo. Dessa forma, o núcleo pode executar sem
r
S
e modificações, pois afinal não acessará nenhum dos dispositivos de E/S. Nesse caso, os
e
d drivers de dispositivos passam a ser paravirtualizados, ou seja,eles são alterados para
o
ã
ç funcionar sob a coordenação de um hipervisor e não mais sob a supervisão do núcleo
a
ilz do sistema operacional. Até o período da elaboraçãodeste material (out. 2010), ainda
a
tu não existe nenhuma ferramenta de virtualização que ofereça esse tipo de suportena
ir
V
forma de um produto, se restringindo apenas a trabalhos em fasede desenvolvimento.
Algumas condições devem ser satisfeitas para que a migração aconteça no Xen.
Inicialmente, e relativamente óbvio, é necessário que tanto a máquina física srcem
quanto a de destino estejam executando o daemon de controle xend., ou seja,
executem o hipervisor Xen. Segundo, a máquina física de destino deve possuir
recursos físicos suficientes para atender as demandas do domínio que está sendo
migrado. Por fim, o Xen não emprega nenhum mecanismo, ou método, para efetuar
a migração do sistema de arquivos usado pelo domínio convidado que está sofrendo
a migração e, portanto, considera que está sendo empregado algum tipo de sistema
de arquivos compartilhado, como por exemplo, o NFS. Assim, o domínio convidado
pode migrar de uma máquina física a outra, já que o sistema de arquivos está
localizado fisicamente em uma terceira máquina, o servidor de arquivos.
Tecnicamente, para que a migração direta (live migration) ocorra, é necessário que
a memória do domínio convidado seja copiada para a máquina de destino. Para
evitar a parada, essa cópia é feita de forma iterativa entre a máquina de srcem e
destino, de modo a permitir que a execução continue na srcem até que a cópia seja
concluída e o domínio reinicializado no destino. A migração direta inicia com uma
pré-reserva de recursos de memória na máquina de destino, seguida de uma
transferência de dados iterativa e por demanda, onde são transferidos apenas os
dados modificados entre uma iteração e outra. Enquanto essa cópia vai sendo
118
realizada, o mecanismo de migração direta busca identificar momentos em que seja n
e
X
possível suspender a execução do domínio convidado na máquina de srcem e o
a
reativá-lo na máquina de destino, de forma que isso resulte em um tempo mínimo o
ã
ç
u
de indisponibilidade. Se por ventura tal condição não for identificada, ou se o d
ro
t
número de iterações de atualização for muito alto, o domínio convidado é suspenso In
na srcem para que a migração seja concluída. No entanto, como a cópia de –
3
memória já estava em curso, o tempo de interrupção tende a ser menor do que se lo
u tí
tivesse sido feito de forma regular. p
a
C
119
s
re virtualização de servidores é a virtualização de desktops, de aplicações e também a
o
id
v
computação em nuvem. Dada a importância destas atividades, o Xen oferece
r
S
e soluções para estas classes de aplicação, através da XenSource e da Citrix.
e
d
o
ã
ç XenDesktop
a
ilz O mesmo tipo de tecnologia e de princípio utilizado para virtualizar servidores
a
tu também pode ser empregado em máquinas de usuários finais, os desktops. A ideia
ir
V
fundamental por trás da virtualização dos desktops é centralizar a geração de
imagens e administração de sistemas operacionais empregados pelos usuários
finais. Nesse caso, um usuário final, a partir de um sistema computacional com
recursos modestos, ou mesmo sem muitos cuidados de administração, pode acessar
recursos de uma infraestrutura corporativa de forma segura e funcional. Entretanto,
para realizar esse acesso é necessário que a máquina do usuário final execute um
programa cliente de conexão remota, como o Remote Desktop Connection (RDC).
120
XenApp n
e
X
A virtualização de aplicações (AppV) é o nível mais alto de abstração da o
a
virtualização. Essencialmente, a virtualização de aplicação é a capacidade de usar o
ã
ç
u
um software ou um serviço de forma completamente isolada do sistema operacional d
ro
t
nativo da máquina local. Uma forma pragmática de enxergar a virtualização da In
aplicação é vê-la como um executável único que possui todos os recursos de –
3
softwares (módulos, bibliotecas, chaves de registro etc) necessários à sua execução lo
u tí
sem precisar usar aqueles do sistema operacional. No estágio atual, a virtualização p
a
de aplicações está restrita a sistemas operacionais da família Microsoft Windows. C
Computação em nuvem
A computação em nuvem (cloud computing) é a nova mania do mercado de TI e
existem vários fornecedores e soluções para definir uma infraestrutura voltada para
computação em nuvem. Pode-se citar, entre outros, o Azurre da Microsoft, vSphere da
VMware e o OpenCloud da Citrix. Além das soluções comerciais, existem iniciativas
em software livre como Eucalyptus, Convirture, OpenNebula e o OpenXenCenter.
121
s
re
o
id
v
r
e
S
e
d
o
ã
ç
a
ilz
a
tu
ir
V
122
3
Roteiro de Atividades
Introdução ao Xen
Infraestrutura
O hardware utilizado para as atividades práticas do curso consiste em 12 servidores
Dell tipo blade. Cada máquina possui um disco local, duas interfaces de rede, dois
processadores 4-core AMD Opteron e um módulo de gerenciamento remoto. O disco
local é utilizado tanto para a instalação do hipervisor quanto para o armazenamento
de dados das máquinas virtuais. Já as interfaces de rede são conectadas a dois
switches distintos:
\ A primeira interface conecta-se à rede de produção utilizada durante o curso.
\ A segunda interface é ligada a uma rede secundária ativada em caso de falhas
na rede de produção.
Figura 3.7
123
s
re Tabela 3.8
o Servidores Inter face de gerência Alunos Dupla Grupo
id
v
Organização dos
r
S
e 1 200.130.26.161 2 e 1 1 1 alunos para as
e
d 2 200.130.26.162 4e3 2 atividades
o
ã
ç práticas.
a
ilz 3 200.130.26.163 5e6 3 2
a
tu
ir 4 200.130.26.164 7e8 4
V
5 200.130.26.165 9 e 10 5 3
6 200.130.26.166 11e12 6
7 200.130.26.167 14
13
e 7 4
8 200.130.26.168 15e16 8
9 200.130.26.169 17 e 18 9 5
10 200.130.26.170 19e20 10
11 200.130.26.171 21
22
e 11 6
12 200.130.26.172 23e24 12
Uma vez que isto nem sempre é possível (em especial no ambiente do curso
proposto), a instalação do hipervisor demanda a utilização de mecanismos de
gerenciamento remoto, que forneçam acesso direto aos recursos da máquina e
permitam controlar sua inicialização.
iDRAC
Acesso à interface de gerenciamento web O Integrated Dell
Cada um dos servidores utilizados no curso possui uma interface de gerenciamento Remote Access
Controller permite
iDRAC, acessível através de qualquer navegador web. Para acessar a interface, o acesso remoto
deve-se abrir a URL http://200.130.26.<IP_iDRAC> às blades.
Serão solicitadas credenciais para o acesso, que devem ser preenchidas com as
seguintes informações:
Usuário: aluno
Senha: virtesr
124
A interface de gerenciamento do iDRAC apresentada logo após o login exibe o status 3
s
e
dos componentes do servidor, conforme abaixo: d
a
id
v
ti
A
e
d
ro
i
et
o
R
Console remoto
Uma das funções da iDRAC é prover acesso remoto à máquina com as mesmas
funcionalidades disponíveis a um administrador com acesso físico ao hardware. Para
tanto, deve-se utilizar um console remoto capaz de replicar, via rede, a imagem que
seria exibida no monitor local e emular a utilização de dispositivos como CDs e DVDs.
125
s
re
o
id
v
r
e
S
e
d
o
ã
ç
a
ilz
a
tu
ir
V
Para utilizar a emulação de CD/DVD, deve-se abrir o Virtual Media Wizard no menu
Media. Esta ferramenta simula um dispositivo de CD/DVD na máquina remota
através de uma imagem ISO armazenada localmente. Utilize o botão Browse ao lado
da opção ISO Image e localize o arquivo que será indicado pelo instrutor. O exemplo
a seguir se utiliza da versão XenServer-5.6.0-install-cd.iso em sua estação. Em
seguida, clique no botão Connect CD.
126
Na interface de gerenciamento iDRAC, vá à aba Power Management, selecione 3
s
e
Power On System e ligue a máquina clicando em Apply. A seguir, o terminal remoto d
a
id
deverá mostrar a tela de inicialização da BIOS e iniciar o boot através da imagem de v
ti
CD selecionada. A
e
d
ro
i
et
o
R
127
s
re Ao longo da instalação do XenServer, são feitas diversas perguntas a respeito da
o
id
v
configuração do hipervisor. Estas informações são, em sua maioria, as mesmas
r
S
e solicitadas durante a instalação de sistemas Linux baseados em RedHat. Os passos
e
d são enumerados a seguir:
o
ã
ç
a 1. Selecione o mapa de teclado utilizado na máquina local (br-abnt2) e pressione o
ilz
a botão OK para prosseguir.
tu
ir
V
4. Éservidores
possível instalar o XenServer
da internet ou de umdecompartilhamento
um dispositivo local
NFS.(drive de CD,
Apesar USB),efetuando
de estar de
a instalação de forma remota, a interface iDRAC informa ao servidor de que o
arquivo está conectado localmente. SelecioneLocal media e pressione OK.
5. Alguns recursos No
suplementares. do CD
XenServer são disponibilizados
de instalação, atravéspara
há apenas o pacote de pacotes
permitir migração
de máquinas virtuais entre servidores, instalado por padrão. Selecione a opção
No.
6. Durante a instalação, é possível verificar se a mídia utilizada está em bom estado
ou se apresenta erros. Selecione a opção Skip Verification.
128
7. Defina uma senha utilizada para acessar o hipervisor. 3
s
e
d
a
id
Senha recomendada: v
ti
A
e
d
Usuário: root ro
i
Senha: Virt3sr et
o
R
8. A rede deve ser configurada com a interface eth0 usando DHCP. Esta mesma
interface será utilizada para acesso à rede externa.
10.Na tela Select Time Zone, selecione a opção America e em seguida a opção
São Paulo.
129
s 11.Selecione a opção de Using NTP e em seguida a opção NTP is configured by
re
o
id my DHCP Server.
v
r
e
S
e
d
o
ã
ç
a
ilz
a
tu
ir
V
13.Na etapa New Media selecione a opção Skip para pular a busca por pacotes
suplementares.
130
3
s
e
d
a
id
v
ti
A
e
d
ro
i
et
o
R
131
s
re Atividade 3 – Conhecendo a instalação padrão do XenServer
o
id
v
r
S
e Esta atividade deverá ser realizada individualmente, onde cada aluno acessará
e
d simultaneamente o servidor instalado pela dupla.
o
ã
ç
a
ilz Serão apresentadas algumas características do XenServer conforme a instalação padrão.
a
tu
ir
V
Acesso ao XenServer
O acesso ao hipervisor pode ser feito tanto pelo terminal remoto do iDRAC quanto
por Secure Shell (SSH). Neste último, o endereço de acesso deverá ser o IP
apresentado no console anteriormente – o IP do hipervisor, e não mais o de
gerenciamento do iDRAC.
1. Inicie o software PuTTY, que será o responsável pela conexão SSH da sua estação
com o hipervisor. Preencha o campo Host Name com o endereço IP do hipervisor
recém-instalado.
Comandos de gerenciamento
O XenServer possui uma ferramenta de gerenciamento em linha de comando
chamada xe. Esta ferramenta permite o controle do armazenamento de dados, das
máquinas virtuais, interfaces de redes associadas com as máquinas virtuais e das
características do hipervisor, entre outras.
132
O xe recebe como parâmetro um comando referente à tarefa a ser efetuada, como 3
s
e
no seguinte exemplo: d
a
id
v
# xe host-list ti
A
e
d
uuid ( RO) : b137af0f-ed28-42a2-9579... ro
i
et
name-label ( RW): xenserver-blade-163 o
R
# xe help
Usage: xe<command> [-s server] [-pw passwd] [-p port]
-------------------
snapshot-export-to-template ,
snapshot-reset-powerstate, snapshot-revert,
133
s
re Armazenamento de dados
o
id
v
Durante a instalação, o XenServer particiona automaticamente o disco do servidor
r
S
e utilizado. São reservados para o sistema apenas 4 GB. O restante do disco é alocado
e
d em um volume LVM, dentro do qual podem ser armazenados os dados das
o
ã
ç máquinas virtuais. Para visualizar as informações do LVM, utilize os seguintes
a
ilz comandos no shell do hipervisor:
a
tu
ir # pvdisplay
V
PV Name /dev/sda3
Allocatable yes
Total PE 15449
Free PE 15444
Allocated PE 5
PV UUID q4Zj5f...
# vgdisplay
VG Size 60.35 GB
PE Size 4.00 MB
Total PE 15449
VG UUID FfdWyr-...
134
O XenServer gerencia estes volumes LVM através da noção de Storage Repositories 3
s
e
(SR). Um Storage Repository corresponde a uma área no storage onde são d
a
id
armazenados os discos virtuais de uma máquina virtual, ou as imagens ISO v
ti
utilizadas para instalação de novas máquinas virtuais. Para uma listagem dos A
e
d
Storage Repositories disponíveis, utilize o comando sr-list: ro
i
et
# xe sr-list o
R
name-description ( RW):
name-description ( RW):
135
s
re Note que um dos Storage Repositories disponíveis é do tipo LVM no host local, cujo
o
id
v
UUID consta no nome do Volume Group listado anteriormente. Durante a
r
S
e instanciação de novas máquinas virtuais, os discos serão automaticamente
e
d instanciados dentro deste Storage Repository.
o
ã
ç
a
ilz Configuração de rede
a
tu Por padrão, o XenServer cria para cada interface de rede física uma bridge. Nesta,
ir
V
podem ser associadas as interfaces de rede das máquinas virtuais, permitindo aos
sistemas virtualizados acessarem a rede externa de forma transparente.
As redes disponíveis para as VMs podem ser listadas com o comando network-list:
# xe network-list
with eth1
name-description ( RW):
with eth0
name-description ( RW):
136
Atividade 4 – Configurando o acesso à rede privada 3
s
e
d
a
id
Esta atividade deverá ser realizada em dupla. v
ti
A
e
d
Uma vez que os endereços para acesso ao repositório de ISOs e storage ro
i
encontram-se em uma rede privada 192.168.1.0/24, deve-se incluir uma interface et
o
R
com endereço nesta rede para que o XenServer acesse o dispositivo. Esta
configuração será utilizada posteriormente.
1. No hipervisor, utilize ovi para criar o arquivo /etc/sysconfig/network-scripts/ifcfg-
xenbr0:0 com o seguinte conteúdo, substituindoxyz pelos últimos dígitos do
endereço IP de gerenciamento (de 161 a 172). Salve o arquivo e, em seguida,
reinicie o XenServer (utilize o comandoreboot ou reinicie-o pelo XenCenter):
DEVICE=xenbr0:0
ONBOOT=no
TYPE=Ethernet
IPADDR=192.168.1.xyz
BROADCAST=192.168.1.255
NETMASK=255.255.255.0
NETWORK=192.168.1.0
...
# ping 192.168.1.254
137
s
re Atividade 5 – Instalação do XenCenter
o
id
v
r
S
e Esta atividade deverá ser realizada individualmente.
e
d
o
ã
ç O XenCenter é uma ferramenta capaz de gerenciar múltiplos servidores e máquinas
a
ilz virtuais, disponibilizada gratuitamente pela Citrix.
a
tu
ir 1. Para iniciar a instalação do XenCenter, rode o executável dentro da pasta
V
“sessao3” e aguarde enquanto o software carrega. A tela inicial da instalação
está mostrada abaixo. Clique em Next para avançar.
2. Install
Mantenhaparao iniciar
padrãoa da pasta dedodestino
instalação da instalação
software. e em
Ao término, seguida
clique cliquepara
em Finish em
finalizar o procedimento.
138
Atividade 6 – Conhecendo o XenCenter 3
s
e
d
a
id
Esta atividade deverá ser realizada individualmente. v
ti
A
e
d
Execute o software que por padrão instala o seu atalho no menu Iniciar > Todos os ro
i
programas > Citrix XenCenter. et
o
R
139
s 3. O XenCenter irá mostrar as informações básicas do servidor gerenciado. No canto
re
o
id
v
esquerdo, são listados, para cada servidor, os Storage Repositories disponíveis.
r
e
S
e
d
o
ã
ç
a
ilz
a
tu
ir
V
140
Na aba Storage são detalhadas informações a respeito de cada Storage Repository 3
s
e
disponível. Note que estas informações podem ser obtidas através dos comandos xe d
a
id
sr-list e xe sr-param-get. v
ti
A
e
d
ro
i
et
o
R
141
s
re Da mesma forma, a aba Network apresenta as redes disponíveis para as máquinas
o
id
v
virtuais. A criação e a configuração de alguns parâmetros de rede podem ser feitas
r
S
e diretamente no XenCenter.
e
d
o
ã
ç
a
ilz
a
tu
ir
V
142
Informações sobre a utilização dos recursos do servidor podem ser obtidas na aba 3
s
e
Performance. Note que, com a ausência de máquinas virtuais em execução, os d
a
id
recursos encontram-se subutilizados. v
ti
A
e
d
ro
i
et
o
R
Para criar um novo repositório de imagens ISO no XenCenter, clique no botão New
Storage na barra de ferramentas. No XenCenter, são suportados dois tipos de
repositórios ISO: via protocolos CIFS e NFS. Desta forma, o XenCenter exige a
utilização de um servidor de arquivos para o gerenciamento das ISOs. Neste curso,
será utilizado o protocolo CIFS.
143
s
re
o
id
v
r
e
S
e
d
o
ã
ç
a
ilz
a
tu
ir
V
144
Atividade 8 – Criação de máquinas virtuais 3
s
e
d
a
id
O XenCenter permite criar máquinas virtuais paravirtualizadas a partir de templates v
ti
pré-configurados ou máquinas virtuais “fullvirtualizadas” sem a necessidade de um A
e
d
template pré-configurado. Um template descreve algumas configurações da máquina ro
i
virtual a ser criada (modo de virtualização, tamanho mínimo de memória, disco et
o
R
etc.). A instalação pode ser tanto a partir de uma mídia (drive de CD/DVD do
servidor, imagem ISO) ou através da rede, para alguns sistemas.
1. Utilize a ferramenta de criação de máquinas virtuais pressionando o botão New
VM. Depois, selecione o template do CentOS 5.0 (64-bit) que utilizaremos no
exemplo de instalação de uma máquina virtual paravirtualizada. Clique em Next
para prosseguir.
145
s 2. Defina o nome da nova máquina virtual a ser criada. Este nome deve conter
re
o
id
v
alguma identificação do grupo (ex.: CentOS-Grupo1). Em seguida, clique em Next.
r
e
S
e
d
o
ã
ç
a
ilz
a
tu
ir
V
3. Na etapa Installation Media, marque Install from URL para instalar uma
máquina virtual paravirtualizada através de um repositório on-line. Utilize uma
das URLs a seguir, referentes a espelhos de instalação do CentOS.
\ http://centos.pop.com.br/5/os/x86_64
\ http://mirror.ueg.br/centos/5/os/x86_64
\ http://centos.ufms.br/5/os/x86_64
146
4. Em Home Server , mantenha as opções padrão apresentadas para que a máquina 3
s
e
virtual seja criada no servidor que estamos utilizando. d
a
id
v
5. Em CPU & Memory, atribua 1 e 1024, respectivamente, e clique em Next para ti
A
prosseguir. e
d
ro
i
6. Na etapa Storage, mantenha o tamanho padrão do template do CentOS para que et
o
seja criado um disco rígido virtual para a máquina virtual. Clique em Next para R
continuar.
7. Em Networking, delete a interface Network 1 para que a nova máquina virtual
tenha apenas uma interface de rede. Clique em Next e visualize o resumo das
configurações
em Finish paraantes de iniciar
terminar a faseode
processo de criação
configuração da máquina
(em seguida virtual.virtual
a máquina Clique
será criada).
8. Ao final do processo, será apresentada uma tela com um sumário da
configuração fornecida. Clicando no botão Finish, a nova máquina virtual será
automaticamente criada e iniciada.
147
s 9. Quando uma máquina virtual é selecionada na listagem do XenCenter, são
re
d
o apresentadas as informações referentes a ela.
i
v
r
e
S
e
d
o
ã
ç
a
ilz
a
tu
ir
V
Caso queira instanciar novas máquinas virtuais, os passos serão semelhantes aos
feitos nesta atividade, atentando ao fato da escolha do template certo. A lista de
sistema operacionais convidados suportados pode ser visualizada em: http://www.
citrix.com/English/ps2/products/subfeature.asp?contentID=1681139
148
Para instanciar alguma máquina virtual sem uma pré-definição de template, deve 3
s
e
ser escolhida a opção Other install media na etapa de escolha do template. d
a
id
v
ti
A
e
d
Atividade 9 – Monitoramento de recursos do XenServer ro
i
et
o
R
Durante a instalação da máquina virtual, utilize a aba Performance para monitorar a
utilização de recursos da máquina virtual.
1. Após o fim da instalação da máquina virtual, utilize a aba Console para abrir um
shell com o usuário e senha previamente configurados na máquina virtual. Logo
acima do terminal virtual, abra a lista de opções do campo DVD Drive 1 e
selecione a imagem xs-tools.iso. Esta imagem, disponibilizada internamente pelo
hipervisor, é conectada a um drive de CD/DVD virtual, permitindo a utilização de
mídias de forma similar à da instalação do hipervisor via iDRAC.
# sh /cdrom/Linux/install.sh
# umount /cdrom
149
s
re Após estes comandos, reinicie a máquina virtual e veja a aba
Performance apresentando
o
id
v
as informações mais completas quanto ao consumo da máquina virtual no hipervisor.
r
e
S
e
d
o
ã
ç
a
ilz
a
tu
ir
V
Quando novos discos virtuais são criados para as máquinas virtuais, é alocado
espaço na partição LVM do hipervisor. Nesta etapa, será vista a relação entre os
volumes virtuais gerenciados com o XenServer e a infraestrutura LVM.
Disk 0 VDI:
uuid ( RO) : 007e04...
name-label ( RW): 0
sr-name-label ( RO): Local storage
virtual-size ( RO): 8589934592
150
Utilize o comando lvdisplay novamente para exibir os volumes lógicos do LVM. 3
s
e
Observe que, após a criação da nova máquina virtual, há um novo volume lógico d
a
id
cujo nome corresponde ao UUID do disco da máquina virtual e ao StorageRepository v
ti
Local Storage. A
e
d
# lvdisplay ro
i
et
o
R
…
VG Name VG_XenStorage-fb6efc...
LV UUID ffQPwT...
LV Status available
# open 1
LV Size 8.02 GB
Current LE 2054
Segments 1
Allocation inherit
151
s
re Atividade 11 – Snapshots de máquinas virtuais
o
id
v
r
S
e Um snapshot de uma máquina virtual é uma cópia do seu estado em um
e
d determinado momento. Estas cópias podem ser utilizadas para fins de backup,
o
ã
ç gerando diversas versões funcionais da máquina virtual e recuperando um estado
a
ilz anterior, quando necessário.
a
tu
ir 1. Para criar snapshots, utilize a aba Snapshots com a máquina virtual selecionada.
V
Clique no botão Take Snapshot e na janela aberta, identifique-o no campo Name
e dê a ele uma descrição no campo Description. Ao término, clique em Take
Snapshot para iniciar o procedimento.
2. Com a função Revert To, é possível retornar para algum dos estados previamente
salvos. Em Actions, é possível utilizar um snapshot para criar novas máquinas
virtuais. Um snapshot também pode ser convertido em um arquivo de backup ou
template. Como arquivo de backup, este arquivo pode ser posteriormente
restaurado em caso de perda dos dados no storage; já como template, uma nova
máquina virtual pode ser gerada a partir do snapshot.
152
4
Gerenciamento do Xen
153
s
re na linha de produtos AMD, cita-se Athlon, Semprom, Opteron e Turion 64. Ainda, é
o
id
v
recomendável que seja empregado um processador de 64 bits com frequência de
r
S
e operação superior a 1.5 GHz e de preferência multicore. O Xen suporta até 32
e
d processadores ou núcleos.
o
ã
ç
a
ilz É possível analisar o XenServer como sendo composto por três grandes
a
tu componentes: Domínio 0 (Dom0), Domínio U (DomU) e o hipervisor Xen. O Dom0 é
ir
V
um sistema operacional GNU/Linux com o núcleo modificado para interagir com os
DomU e com o hipervisor. Os requisitos de processador e de hardware são aqueles
de uma instalação Linux convencional, ou seja, não há grandes restrições e
exigências para executar o Dom0.
Apesar das soluções oferecidas pela Intel e pela AMD seguirem um mesmo princípio
de funcionamento, elas são implementadas de diferentes formas, o que torna um
código dependente do processador. Para mascarar essas diferenças, o Xen define
uma camada de compatibilidade denominada de Hardware Virtual Machine (HVM).
154
Memória RAM n
e
X
o
d
\ Capacidade de endereçamento
to
n
e
\ Aplicações m
ia
c
n
\ Dom U re
e
G
\ Dom 0 –
4
ol
\ Hipervisor u
tí
p
a
Como qualquer processo, o Xen tem uma capacidade de endereçar memória limitada C
pelo barramento de endereços do processador. Em sistemas com 32 bits é possível
acessar apenas 4 GB de memória (232). Uma das evoluções do Xen 3.0 foi oferecer
para as arquiteturas de 32 bits suporte ao mecanismo de Physical Address Extension
(PAE) que possibilita acessar até 64 GB de memória. Já para sistemas que possuem
arquiteturas de 64 bits, o limite máximo é de 1 TB de memória RAM. Obviamente, a
quantidade de memória desejável é aquela que permite executar as máquinas virtuais
e as aplicações de uma maneira adequada ao usuário final. A questão é dimensionar
adequadamente essa quantidade de memória, o que envolve custo.
155
s
re Sistemas de armazenamento (storage)
o
id
v
r \ Infraestrutura física de armazenamento
e
S
e
d \ Logical Volume Management (LVM)
o
ã
ç
a
ilz
\ Migração e sistemas de armazenamento
a
tu Quanto ao sistema de armazenamento a ser empregado pelo Xen, novamente, é
ir
V
uma questão que depende da quantidade de máquinas virtuais a serem instanciadas
e das aplicações a serem executadas. Entretanto, há algumas diretrizes gerais que
devem ser consideradas no dimensionamento da capacidade de disco e no tipo de
sistema de armazenamento a ser usado.
Cada máquina virtual tem seu próprio sistema de arquivos e, por consequência,
deve haver espaço em disco suficiente para cada uma delas. O local exato onde os
arquivos serão armazenados, assim como o tipo de sistema de arquivos a ser
empregado em cada uma das partições, depende de uma série de fatores que
devem ser analisados caso a caso. Neste capítulo, serão discutidos os principais
fatores. Em todo caso, é possível afirmar que os sistemas de arquivos e dispositivos
de armazenamento suportados pelo Xen são aqueles oferecidos pelo Dom0 e variam
desde sistemas de arquivos locais a sistemas remotos através do emprego de
Network Attached Storage (NAS) e Storage Area Network (SAN). Lembre de que
NAS possui um sistema de arquivos associado e, usualmente, é acessado via
Network File System (NFS) ou Samba, enquanto um SAN disponibiliza apenas
blocos brutos de dados, sendo acessado através de protocolos específicos como
iSCSI ou Fiber Channel.
156
Outra possibilidade é empregar um sistema de armazenamento remoto. Aqui dois n
e
X
aspectos são particularmente importantes. O primeiro diz respeito à forma pela qual o
d
os dados são lidos e escritos no dispositivo remoto. Nessa transferência podem ser to
n
e
empregados protocolos orientados a blocos, como aqueles empregados pelo Fiber m
ia
Channel (FC) ou pelo iSCSI, ou protocolos orientados a sistemas de arquivos, como c
n
por exemplo NFS, Samba e CIFS. Os protocolos orientados a blocos oferecem melhor re
e
G
desempenho. O segundo aspecto é relacionado com a taxa de transferência da rede de –
4
interconexão. Quanto maior a velocidade e a taxa de transferência, melhor é o ol
u
desempenho. É aconselhável ainda que a rede empregada pelo sistema de tí
p
a
armazenamento não dispute banda passante com outras aplicações e com atividades C
de gerência do sistema, sendo recomendado, portanto, o uso de uma rede de
interconexão exclusiva entre os servidores que executam Xen e o servidor de arquivos.
157
s
re \ Grupo de volume (Volume Group – VG): corresponde ao nível mais alto de
o
id
v
abstração do LVM. Reúne uma coleção de volumes lógicos (LV) em uma mesma
r
S
e unidade de gerenciamento. Em uma analogia com discos tradicionais, é possível
e
d considerar um grupo de volume como um disco que contém várias partições
o
ã
ç (LVs), que por sua vez são compostas por blocos de dados (LEs).
a
ilz
a
tu Dessa forma, um disco físico (PV) é dividido em unidades físicas (PEs) que
ir
V
correspondem às unidades lógicas (LEs). Um conjunto de LEs forma um volume
lógico (LV); por sua vez, um conjunto de LVs forma um grupo de volume (VG). É
importante salientar que os LEs empregados para formar um volume lógico podem
ser provenientes de discos físicos diferentes. Esse tipo de estrutura permite que,
para aumentar a capacidade de armazenamento de uma instalação já existente, seja
suficiente adquirir um novo disco físico, formatá-lo em unidades físicas (PEs) do Figura 4.1
LVM, associá-las a unidades lógicas (LEs) e fazer a distribuição entre os diferentes Logical Volume
volumes lógicos (LVs) conforme a necessidade. É possível ainda retirar unidades Management
lógicas de um volume lógico e atribuí-las a outro. A figura a seguir ilustra a relação (PVs, PEs, LEs,
entre esses elementos. LVs e VG).
Volume Físico Unidades Físicas Unidade lógica Volume lógico Grupo de Volume
(Physical Volume) (Physical Extents) (Logical Extents) (Logical Volume) (Volume Group)
LV1
VG
LV1
LV2
LV2
PV2 PEi LEi
158
Migração e sistemas de armazenamento n
e
X
A migração é uma das grandes facilidades oferecidas pelo Xen. É possível migrar o
d
domínios de um servidor físico a outro, mas com algumas considerações relativas to
n
e
aos domínios 0 e U. Existem duas modalidades de migração: normal e “a quente” m
ia
(live). Na migração normal, o domínio é parado e congelado formando um arquivo c
n
imagem com um contexto de execução, que é transferido para outro servidor é lá é re
e
G
reinicializado. Na migração live, o domínio virtual é transferido para outro servidor –
4
sem a necessidade de interromper a execução. ol
u
tí
p
a
Entretanto, a migração de domínios entre servidores físicos só é possível se o tipo de C
armazenamento configurado no domínio a ser migrado for do tipo remoto, ou seja,
se todas as partições montadas pelo domínio não forem dispositivos físicos acessados
diretamente do Dom0 local. Em uma instalação típica, o Dom0 não sofre migração
e, embora possa empregar sistemas de arquivos remotos via NFS ou mesmo Samba,
ele é instalado diretamente em um disco local empregando um sistema de arquivos
qualquer provido pelo Linux. Já os DomU podem ser migrados “a quente”.
Rede
De maneira similar ao que acontece com os discos físicos, os requisitos de rede de
uma instalação Xen dependem do volume de tráfego de dados gerado pelas
aplicações e do número de máquinas virtuais instanciadas em cada servidor físico.
Tipicamente, uma instalação Xen emprega uma rede do tipo Ethernet. Existe uma
grande variedade de placas de rede Ethernet com seus respectivos drivers para o
Linux. Isso não constitui um problema.
159
s
re Uma característica interessante do Xen, relacionada com a rede, mas não com a
o
id
v
parte física, é a sua capacidade de oferecer e configurar uma infraestrutura de rede
r
S
e virtual. É possível definir interfaces e criar uma topologia de rede permitindo a
e
d comunicação entre os domínios convidados, além de efetuar NAT, bridging e aplicar
o
ã
ç regras de firewall, tudo completamente virtualizado. A infraestrutura virtual é tão
a
ilz flexível e poderosa quanto àquela que pode ser obtida com os comandos Linux brctl
a
tu e iptables. O comando brctl permite criar, gerenciar e monitorar bridges ethernet,
ir
V
enquanto o iptables possibilita a definição de regras de firewall.
O primeiro passo para instalar o Xen é obviamente obtê-lo. Uma instalação Xen é
formada pelo hipervisor, pelo domínio 0 e por domínios U. O hipervisor e o dom0 se
confundem. Já o domU é composto por uma imagem do sistema de arquivos raiz,
um núcleo modificado para o Xen, no caso de paravirtualização, e um arquivo de
configuração que descreve os recursos, como memória, processador e dispositivos
de E/S. A seguir serão discutidos alguns detalhes relacionados com a obtenção e
instalação desses componentes.
No caso da opção por uma distribuição livre do Xen, basta empregar uma
distribuição Linux convencional que tenha suporte ao hipervisor Xen. As
distribuições Linux mais conhecidas são Ubuntu, Fedora, Debian, OpenSuse,
Gentoo, além do XenServer, que é derivado da distribuição CentOS. É possível ainda
usar o Xen com distribuições que não sejam Linux, como por exemplo, OpenSolaris,
FreeBSD, OpenBSD e NetBSD. Assim como vários outros pacotes de software, o Xen
também é disponibilizado de forma binária e pode ser instalado via gerenciadores de
pacotes da distribuição (apt-get, YaST, yum), ou através de seus arquivos fonte em
160
tarball, que precisam ser configurados, compilados e instalados. A escolha entre as n
e
X
distribuições disponíveis, assim como pelas opções de binários pré-compilados ou o
d
tarballs, é feita mais por familiaridade a uma ou outra opção do que por um critério to
n
e
ou requisito técnico específico. m
ia
c
n
Hipervisor e sistemas operacionais para Dom0 re
e
G
O hipervisor Xen, na verdade, é uma camada de software que age como se fosse –
4
uma espécie de micro núcleo. Ele é usado para realizar algumas tarefas ol
u
fundamentais como escalonamento, gerência de memória, e também para tratar tí
p
a
interrupções e gerir as chamadas de sistemas do Xen, denominadas de hypercalls. C
O hipervisor, sozinho, não tem valia, e por isso a sua instalação é sempre confundida
com a instalação do Dom0. Ao instalar o Dom0, o hipervisor é instalado junto. Para o
Dom0, pode ser empregada qualquer uma das distribuições comentadas.
161
s
re virtual para DomU épreciso fornecer um núcleo e definir o sistema de arquivos.
o
id
v
O núcleo pode ser obtido de três formas diferentes:
r
e
S
e \ Utilizar a própria imagem do núcleo do domínio 0;
d
o
ã
ç \ Usar uma imagem de um núcleo já pronta;
a
ilz
a \ Compilar um núcleo.
tu
ir
V
A vantagem das duas primeiras é que empregam um núcleo pronto e funcional,
embora ele possa não ter todos os módulos e funcionalidades desejadas para um
DomU. Esse inconveniente é contornado quando se compila o núcleo, pois, dos
eventuais problemas que possam ocorrer durante a compilação, é possível
customizá-lo para atender aos requisitos do DomU. Um ponto importante a ressaltar
é que independente da forma com que se obtém o núcleo, sua imagem é
armazenada fora do DomU.
162
Uma vez que todos os drivers necessários tenham sido carregados, e tenham sido n
e
X
montados os sistemas de arquivos definitivos, o sistema de arquivos raiz inicial é o
d
substituído pelo sistema de arquivos raiz real, armazenado em disco. É importante to
n
e
salientar que o núcleo (kernel) e o sistema de arquivos raiz (Root FS) são m
ia
desvinculados entre si, assim como ocorre com aqueles montados depois. Por isso é c
n
possível atualizar o núcleo de uma instalação Linux sem a necessidade de reinstalar re
e
G
todo o sistema. –
4
ol
u
Clonagem tí
p
a
Este método parte de uma instalação já existente com um núcleo modificado para C
interagir com o Xen. O primeiro passo é criar um arquivo inicialmente vazio, que
serve como uma espécie de partição virtual de disco, onde os diretórios e arquivos
do root FS serão armazenados. Além desse arquivo, é possível criar outro arquivo
para servir como partição de swap para o DomU. Tipicamente, esses arquivos são
criados com o auxílio do comando Linux dd e formatados logicamente com o
comando mkfs. O resultado final é análogo a ter (vitualmente) duas partições de
disco onde o sistema convidado será instalado.
Agora, com as imagens de um root FS e uma área de swap, basta definir um arquivo
de configuração Xen para mapear e montar estes arquivos como dispositivos de E/S
no sistema operacional convidado (DomU). Esse arquivo de configuração, além da
imagem de um núcleo (vmlinuz) e de um RFS inicial (initrd), define outros
parâmetros como nome da máquina, memória a ser usada pela máquina virtual e
endereço IP. Para executar a máquina virtual, basta empregar o comando Xen xm
com a opção create, passando como parâmetro o nome do arquivo de configuração.
163
s
re As appliances são normalmente disponibilizadas em três formatos de arquivos:
o
id
v
imagem de disco, imagem de partição e imagem comprimida. Na prática, esses
r
S
e formatos são empregados de modo semelhante: deve-se recuperar a imagem,
e
d instalá-la de forma adequada em um sistema de arquivos e, eventualmente, adaptar
o
ã
ç os arquivos de configuração. Os detalhes para instanciar um DomU com uma
a
ilz appliance são normalmente fornecidos nos próprios sites que as disponibilizam.
a
tu
ir
V
Ferramentas específicas às distribuições Linux
As principais distribuições Linux oferecem ferramentas específicas para gerenciar
máquinas virtuais e, em especial, para auxiliar na criação do DomU. Entre as
comumente empregadas pode-se citar:
\ YaST Virtual Machine Management(OpenSUSE): é um módulo que pode ser
instalado junto com o Yast, que permite, de forma gráfica, criar e gerenciar
DomU. Nessa ferramenta é possível escolher entre instalar um sistema
operacional de forma convencional, isto é, via mídia eletrônica (cd/DVD), ou
empregar como modelo uma instalação já existente.
\ Virt-manager (CentOS/Fedora): parte integrante de um conjunto de ferramentas
de gerenciamento e monitoramento de máquinas virtuais denominado de virt-
tools (xen-tools). O virt-manager oferece uma interface gráfica e é normalmente
disponibilizado no menu Aplicações, sub menu Ferramentas de sistema. Seu uso
é bastante intuitivo. Tipicamente, os passos consistem em definir um hardware
virtual (nome do sistema, disco, memória) e, na sequência, escolher o tipo de
instalação a ser feita, entre as opções baseadas em uma appliance ou instalação
via mídia eletrônica (cd/DVD).
\
debootstrap (Debian/Ubuntu):
de apt-get. Essencialmente, pacote que permite
o deboostrap pode serque
instalado
se façano sistema através
a instalação de um
sistema em um diretório qualquer. O sistema de arquivos gerado por esse
procedimento corresponde ao root FS do DomU que está sendo gerado.
Qemu
\ Drivers virtuais
\ Software livre
\ Emulador de processadores
164
O Qemu é um software livre (licença GNU LGPL) que emula uma série de n
e
X
processadores do mercado e que também oferece um conjunto bastante grande de o
d
dispositivos de E/S virtuais, ou seja, na prática o Qemu é o hardware de uma to
n
e
máquina virtual. Uma forma simples para gerar uma imagem para DomU é instalar m
ia
o Qemu e, a partir dele, fazer a instalação do sistema operacional desejado para o c
n
DomU. Uma vez concluída a instalação, é possível copiar o sistema de arquivos re
e
G
gerado nessa instalação para ser usado como sistema de arquivos do DomU. A –
4
imagem do núcleo a ser empregada no DomU pode ser a do Dom0 ou de outro ol
u
núcleo compatível com o Xen. Por fim, como nos casos anteriores, é necessário criar tí
p
a
um arquivo de configuração que defina os recursos da máquina virtual (memória C
RAM, disco e rede) e que descreva onde estão os arquivos imagem do núcleo e do
sistema de arquivos.
Comando de linha
O comando de linha xm (xen management) é o mecanismo fundamental para se
trabalhar com um sistema composto por um domínio 0 e vários domínios U. Sua
interface é através de um console no domínio 0, que pode ser obtido de forma
remota (SSH, por exemplo). A partir do comando xm é possível criar, examinar e
terminar domínios, obter informações sobre domínios e adicionar e remover
dinamicamente dispositivos de bloco e de rede. Fazem parte dos comandos de linha
xenstore, xenmon, xenperf, xentrace e xentop.
165
s
re Além das iniciativas de projeto de código aberto existem ferramentas específicas para
o
id
v
distribuições, produtos comerciais em licenças freeware ou proprietárias.
r
e
S
e
d Virt-manager
o
ã
ç RedHat e Fedora oferecem ferramentas customizadas para a criação e
a
ilz gerenciamento de máquinas virtuais Xen. Nessas distribuições existem as opções de
a
tu linhas de comando (virsh e virt-install) e uma interface gráfica, o Virtual Machine
ir
V
Manager, ou simplesmente, virt-manager. O virt-manager é uma interface gráfica
que pode ser executada em um desktop e oferece facilidades para criar, monitorar o
desempenho e visualizar recursos e estatísticas dos domínios convidados. A criação
de domínios é feita de forma simplificada através de um “assistente de instalação”
(wizard) que permite a definição de recursos do hardware virtual, guiando a
instalação do sistema. O virt-manager possui embutido um cliente VNC, que
possibilita o acesso a uma console gráfica e a um domínio convidado. A distribuição
SUSE também oferece, através do YaST2, uma ferramenta gráfica intuitiva para se
trabalhar com domínios convidados. Essas ferramentas são as mais empregadas na
linha de distribuições Linux; entre as distribuições mais difundidas em servidores
virtualizados Xen está a CentOS (derivada da RedHat), e as da Novell, que
empregam o SUSE.
Figura 4.2
Telas de
apresentação do
virt-manager.
Xen Center
Citrix XenCenter é uma aplicação Windows que oferece uma interface gráfica para
gerenciar o Citrix XenServer, cujas principais funcionalidades são a criação, o
gerenciamento e o monitoramento de máquinas virtuais. De forma similar às
interfaces gráficas das distribuições Linux, o XenCenter permite a conexão a
domínios convidados, através de uma interface gráfica. O grande diferencial do
XenCenter em relação às demais ferramentas é o fato de permitir a realização de
migrações de máquinas virtuais e controlar o balanceamento de carga (de forma
gráfica). É possível fazer o download do Citrix XenCenter na página oficial da Citrix
Inc. A figura a seguir mostra telas do Xen Center.
166
Figura 4.3 n
e
X
Telas de o
d
apresentação do to
n
e
XenCenter. m
ia
c
n
re
e
G
–
4
ol
u
tí
p
a
C
167
s
re Uma consequência da migração e da alta disponibilidade é o fato de um sistema
o
id
v
hóspede, e mesmo o hipervisor, não terem uma licença vinculada a uma máquina
r
S
e física. A solução consiste em ter um conjunto de licenças compartilhado pelas
e
d máquinas e hipervisores. Nesse caso, um sistema pode recuperar a licença liberada
o
ã
ç em função da falha de outro. Para que esse mecanismo funcione, surge a ideia de
a
ilz um servidor de licenças. No caso específico do Xen, o hipervisor possui licenças
a
tu para o uso das versões Advanced, Enterprise e Platinum, além de licenças de
ir
V
sistemas operacionais proprietários e de aplicações, dependendo do caso. O servidor
de licenças deve ser uma máquina Windows Server 2008.
Por fim, as imagens ISO a serem utilizadas nos domínios U precisam estar
armazenadas em algum local. A solução é armazená-las em um local acessível por
qualquer máquina. Surge então a noção de um repositório de imagens ISO, que
usualmente emprega um sistema de armazenamento remoto.
168
Figura 4.4 XCP foi srcinalmente derivado do Citrix XenServer. Hoje, o código do XCP está
Arquitetura XCP. licenciado sob a Licença Pública Geral GNU (GPL2), e disponível sem custo, tanto
Fonte: Citrix. de srcem quanto de formato binário. XCP é e sempre será de código aberto, unindo
a indústria e o ecossistema Xen para acelerar a adoção de tecnologias de
virtualização e computação em nuvem, trabalhando ativamente com open source e
padrões abertos para ajudar a superar os desafios da mobilidade em nuvem.
169
s
re
o
id
v
r
e
S
e
d
o
ã
ç
a
ilz
a
tu
ir
V
170
4
Roteiro de Atividades
Gerenciamento do Xen
Atividade 1 – Dispositivo de armazenamento remoto
Para possibilitar a movimentação de uma máquina virtual entre dois servidores distintos,
é necessária a existência de um dispositivo de armazenamento compartilhado pelos
servidores. Isto pode ser feito através do compartilhamento de rede como NFS ou com
dispositivos de disco remotos. Neste curso, é utilizado um dispositivo de storage HP com
5 discos de 750 GB ligados em RAID 5. O acesso ao storage é feito através do protocolo
iSCSI, encapsulando comandos SCSI através da rede padrão do sistema.
Esta etapa deverá ser efetuada apenas pelas máquinas cujo IP de gerenciamento
tem final ímpar, devido ao compartilhamento de um mesmo volume por mais de um
hipervisor, necessário para o agrupamento em pools.
1. No XenCenter, utilize a função New Storage. Selecione a opção Software iSCSI.
171
s
re
o
2. Preencha o campo Target Host com o endereço 192.168.1.253 e clique no
id botão Discover IQNs. Em Target IQN, selecione a opção correspondente ao IP
v
r
e 192.168.1.253 e clique em Discover LUNs. Selecione o Target LUN de acordo
S
e
d com a tabela a seguir.
o
ã
ç
a
ilz Grupos IPdegerenciamento TargetLUN Tabela 4.6
a
tu Endereço IP das
ir 1 200.130.26.161 1
V
partições do
2 200.130.26.163 2 storage.
3 200.130.26.165 3
4 200.130.26.167 4
5 200.130.26.169 5
6 200.130.26.171 6
172
4
3. Em seguida, o XenCenter confirmará a criação de um novo volume LVM no s
e
dispositivo selecionado. Deve-se tomar cuidado para apenas uma das máquinas d
a
id
que utilizam um mesmo Target LUN fazer a inicialização do volume. Para tanto, v
ti
A
apenas as máquinas de IP de gerenciamento com final ímpar deverão clicar no e
d
botão Finish. Após a inicialização, o novo Storage Repository estará na listagem ro
i
do XenCenter. et
o
R
173
s
re Atividade 2 – Criação de pools
o
id
v
r
S
e Esta atividade deverá ser realizada em grupo.
e
d
o
ã
1. Para criar um novo pool, é necessário que o XenCenter esteja conectado aos
ç
a servidores que irão pertencer ao grupo. Utilize o botão Add New Server para
ilz
a adicionar ao XenCenter o hipervisor cujo endereço de gerenciamento é o próximo
tu
ir número par. Em seguida, na barra de ferramentas clique no botão New Pool.
V
Identifique-o de acordo com a tabela abaixo e clique em Next.
174
4
2. Indique um servidor master para o pool. O XenCenter automaticamente efetuará s
e
d
a conexão do segundo servidor com o S torage Repository criado anteriormente. a
id
Clique em Finish para concluir a criação do pool. Em seguida, o novo pool v
ti
A
aparecerá na listagem do XenCenter juntamente com os hipervisores associados. e
d
ro
i
et
o
R
As máquinas virtuais devem estar paradas para que seja possível mover seus
discos de Storage Repository.
175
s
re
o
id
v
r
e
S
e
d
o
ã
ç
a
ilz
a
tu
ir
V
Uma vez que os discos virtuais das máquinas virtuais encontram-se no dispositivo
compartilhado, é possível efetuar a migração on-line dentro de um pool.
1. Inicie as máquinas virtuais e observe que, por padrão, elas são inicializadas em
seu Home Server. No menu VM, utilize a opção Migrate to Server para efetuar
a migração.
2. Contabilize o tempo gasto entre o início e o fim da migração. No shell do
hipervisor, utilize o comando ping com o IP da máquina virtual a ser migrada,
para estimar o tempo durante o qual a máquina virtual permaneceu inacessível.
3. Na aba Performance dos servidores, observe os gráficos de desempenho durante
o período da migração.
176
1. No menu Tools, selecione o item License Manager. Selecione um dos servidores 4
s
e
e pressione o botão Assign License. d
a
id
v
2. Selecione a versão Platinum Edition e preencha o campo Name com o endereço ti
A
do servidor de licenças (192.168.1.249). e
d
ro
i
et
o
R
177
s
re
o
2. Em seguida, selecione o Storage Repository iSCSI. Este dispositivo será utilizado
id para monitorar o funcionamento das máquinas virtuais.
v
r
e
S
e
d
o
ã
ç
a
ilz
a
tu
ir
V
178
4
5. No shell do primeiro hipervisor, use o comando ping com o IP de uma máquina s
e
virtual sendo executada em outro servidor do mesmo pool. d
a
id
v
6. Utilize a interface de gerenciamento iDRAC via navegador para forçar o ti
A
e
desligamento de um dos servidores. Selecione a opção Power Off System. d
ro
i
et
o
R
179
s
re
o
id
v
r
e
S
e
d
o
ã
ç
a
ilz
a
tu
ir
V
180
4
3. Em seguida, utilize o botão Configure WLB para alterar os valores padrão. s
e
d
a
id
v
ti
A
e
d
ro
i
et
o
R
181
s
re
o
5. Em Automation/Power Management, selecione as opções Automatically apply
id Optimizations e Power Management recomendations.
v
r
e
S
e
d
o
ã
ç
a
ilz
a
tu
ir
V
182
4
7. Na seção Advanced, altere os valores conforme abaixo. s
e
d
a
id
Minutos: 1 v
ti
Recomendações: 1 A
e
d
Nível mínimo de gravidade de uma recomendação: Low ro
i
Agressividade com que as recomendações serão aplicadas: High et
o
R
Estas alterações forçam o WLB a trabalhar de forma mais imediata quando ocorrem
modificações no desempenho das máquinas virtuais.
183
s
re
o
id
v
r
e
S
e
d
o
ã
ç
a
ilz
a
tu
ir
V
184
5
Introdução ao VMware
\ Produtos
\ VMware vSphere
\ VMware vCenter
\ VMware hipervisor
185
s
re Na parte de infraestrutura, o vCenter é composto por diversos produtos: vCenter
o
id
v
Server, Heartbeat, Operations, Orchestrator, CapacityIQ, Site Recovery Manager
r
S
e (SRM), Configuration Manager, Lab Manager e Converter. Já em aplicações existem
e
d o vCenter Application Discovery Manager, AppSpeed e VMware Studio. Para o
o
ã
ç gerenciamento de negócios, há o vCenter Chargeback e o Service Manager.
a
ilz
a \ VMware Hipervisor: Hipervisor bare-metal da arquitetura VMware, funciona
tu
ir diretamente sobre o servidor físico, sem a necessidade de um sistema operacional.
V
Permite isolar o sistema operacional/aplicativo do hardware, possibilitando
carregar vários aplicativos em um único servidor físico sem a possibilidade de
que um mau funcionamento de um aplicativo possa interferir no outro.
vSphere
\ Conceito
\ Componentes da solução
186
Figura 5.1 Aplicativosexistentes Futurosaplicativos re
a
w
VMware M
APL APL APL APL APL APL APL APL V
vSphere. o
a
o
ã
ç
u
VMware vCenter Suite d
o
rt
n
I
–
VMware vSphere 4.0 5
lo
u
Disponibilidade Segurança Escalabilidade ít
p
a
Serviços de vMotion vShield Zones DRS C
aplicativos Storage vMotion
VMSafe Adição dinâmica
HA
Tolerância a falhas
Recuperação de dados
Nuveminterna Nuvemexterna
Serviços de infraestrutura
\ vCompute
\ vStorage
\ vNetwork
vCompute
O VMware vCompute oferece os serviços de infraestrutura que virtualizam recursos
de servidor com eficiência e os incorporam a conjuntos lógicos (pools) que podem
ser alocados com precisão em aplicativos.
\ VMware ESXi: oferece uma camada de virtualização robusta e de bom
desempenho, que abstrai os recursos de hardware do servidor e permite o
compartilhamento destes recursos entre várias máquinas virtuais. Os recursos de
gerenciamento de memória
taxas de consolidação e bome desempenho
programação de
do aplicativo.
VMware ESX e ESXi oferecem
\ VMware Distributed Resource Scheduler (DRS): incorpora recursos de
computação em vários clusters e os aloca dinamicamente nas máquinas virtuais,
reduzindo a complexidade do gerenciamento por meio de automação, com base
nas prioridades de negócio.
187
s
re \ VMware Distributed Power Management (DPM): incluído no VMware DRS,
o
id
v
automatiza o uso eficiente de energia nos clusters do VMware DRS, por meio da
r
S
e otimização contínua do consumo de energia do servidor dentro de cada cluster.
e
d
o
ã
ç vStorage
a
ilz O VMware vStorage é composto pelos serviços de infraestrutura, que abstraem os
a
tu recursos de armazenamento (storage) da complexidade dos sistemas subjacentes de
ir
V
hardware, para proporcionar um uso mais eficiente da capacidade de
armazenamento em ambientes virtualizados .
vNetwork
O VMware Network proporciona mecanismos para administrar e gerenciar redes em
ambientes virtuais. O VMware vNetwork Distributed Switch simplifica e melhora o
provisionamento, a administração e o controle da rede de máquinas virtuais em
ambientes VMware vSphere. Além disso, permite que switches virtuais distribuídos
por terceiros (como o Cisco Nexus 1000v) sejam usados em ambientes VMware
vSphere, oferecendo aos administradores de rede interfaces familiares para controle
da qualidade do serviço no nível da máquina virtual.
Serviços de aplicativos
\ Disponibilidade
\ Segurança
\ Escalabilidade
Disponibilidade
Os serviços de disponibilidade permitem que o setor de TI forneça aplicativos com
níveis variados de alta disponibilidade, de acordo com a prioridade e a necessidade,
sem precisar de hardwares complexos redundantes, nem software de cluster.
188
\ VMware Storage vSphere: elimina a necessidade de programar o tempo de re
a
w
inatividade de aplicativos em virtude da manutenção de servidor planejada, ou M
V
durante as migrações de armazenamento por meio da migração “a quente” de o
a
discos de máquinas virtuais, sem interrupção das atividades dos usuários, nem o
ã
ç
perda de serviço. u
d
o
rt
\ VMware High Availability (HA): oferece a inicialização automática e econômica n
I
–
em minutos para todos os aplicativos, em caso de falhas de hardware ou do 5
sistema operacional. lo
u
ít
p
a
\ VMware Fault Tolerance: oferece disponibilidade contínua para qualquer aplicativo C
sem perda de dados nem tempo de inatividade, em caso de falhas de hardware.
\ VMware Data Recovery: permite backup e recuperação simples e econômica de
máquinas virtuais, sem agentes externos ou de terceiros.
Segurança
Os serviços de segurança permitem que a infraestrutura de TI forneça aplicativos com
o nível apropriado de políticas de segurança de forma operacionalmente eficiente.
\ VMware vShield Zones: simplifica a segurança de aplicativos ao utilizar políticas
de segurança corporativa no nível do aplicativo em um ambiente compartilhado,
mantendo ao mesmo tempo a confiabilidade e a segmentação de rede de
usuários e dados confidenciais.
\ VMware VMsafe: permite o uso de produtos de segurança que funcionam em
conjunto com a camada de virtualização para oferecer às máquinas virtuais
níveis mais altos de segurança do que os oferecidos por servidores físicos.
Escalabilidade
Os serviços de escalabilidade fornecem o volume adequado de recursos a cada
aplicativo, com base nas necessidades, sem interrupções.
\ VMware DRS: balanceia dinamicamente a carga de recursos do servidor para
oferecer a quantidade certa de recursos a cada aplicativo, com base na
prioridade dos negócios, permitindo que o consumo de recursos por um
aplicativo cresça ou diminua, conforme a necessidade.
\ Adição dinâmica: permite a adição de CPU e memória a máquinas virtuais
quando necessário, sem interrupções, nem tempo de inatividade.
\ Conexão dinâmica: permite a adição ou a remoção de armazenamento virtual e
dispositivos de rede em máquinas virtuais, sem interrupção e tempo de inatividade.
\ Extensão dinâmica de discos virtuais: permite a adição de armazenamento virtual
para a execução de máquinas virtuais sem interrupções nem tempo de inatividade.
189
s
re vApp
o
id
v
Entidade lógica formada por uma ou mais máquinas virtuais, que usa o Open
r
S
e Virtualization Format para especificar e encapsular todos os componentes de um
e
d aplicativo de vários níveis, assim como as políticas operacionais e os níveis de
o
ã
ç serviço associados. O vApp oferece aos proprietários de aplicativos uma forma
a
ilz padrão de descrever as políticas operacionais de um aplicativo que o sistema
a
tu operacional em nuvem pode interpretar e executar automaticamente. O vApp pode
ir
V
incluir qualquer aplicativo executado em qualquer sistema operacional. Ele oferece
um mecanismo para que os clientes movam seus aplicativos entre nuvens internas
ou externas com os mesmos níveis de serviço.
vSphere hipervisor
\ Hipervisor nativo
\ Permite executar diversos sistemas operacionais em um único servidor
\ Isolamento entre as máquinas virtuais
Figura 5.2
Servidor VMware
Aplicativo Aplicativo
Vsphere (ESXi).
ESX Server
Hardware
190
O ESXi é gratuito e com um licenciamento simples, pelo site da VMware. Suporta o re
a
w
gerenciamento centralizado com o vCenter e as demais capacidades oferecidas pelo M
V
Vsphere, como a movimentação de máquinas virtuais, o balanceamento de carga e o
a
Figura 5.3 a alta disponibilidade. O VMware ESX é composto por um sistema operacional o
ã
ç
Arquitetura do denominado de VMkernel (figura 5.3), em que os processos são executados, u
d
o
rt
hipervisor. incluindo máquinas virtuais, aplicações de gerenciamento e agentes. n
I
–
5
lo
u
ít
p
Agente CIM vpxa SNMP a
C
VM VM VM
CIM plugins hostd DCUI syslog VMX VMX VMX
de terceiros
VMM VMM VMM
API Universal
Boot from SAN: o VMware EXSi suporta inicialização pela rede a partir da versão 4.1.
Integração com Active Directory (AD): o VMware ESXi utiliza uma licença VI em
conjunto com o Virtual Center, que permite a autenticação dos usuários através do
AD. Nesta configuração, os usuários podem se logar diretamente no hospedeiro ESXi
e autenticarem-se com nome e senha locais.
191
s
re Tipos de arquivos VMware
o
id
v
r
S
e A solução VMware VSphere utiliza diversos tipos de arquivos para armazenar as
e
d máquinas virtuais, configuração e snapshots. As extensões utilizadas são:
o
ã
ç
a \ <Nome_da_MV>.vmx (Configuração): arquivo que contém todas as informações
ilz
a de configuração e definições do hardware da máquina virtual.
tu
ir
V \ <Nome_da_MV>.nvram (BIOS): arquivo que contém o BIOS Phoenix da
máquina virtual, usado durante o boot da máquina virtual.
\ vmdk: quatro diferentes tipos de arquivos “Virtual Disk Data” que podem ser
usados pelas máquinas virtuais.
\ <Nome_da_MV>.flat.vndk: arquivo que contém os dados do disco virtual,
gerado quando um HD virtual é criado. O tamanho do arquivo dependerá da
forma de definição, que pode ser thick disk ou thin disk.
\ <Nome_da_MV-nº_sequencial>.delta.vmdk: tipo de arquivo criado quando um
snapshot é gerado e o arquivo flat.vmdk se torna read-only e qualquer alteração
no HD virtual é gravada neste arquivo (delta.vmdk). É criado com 16 MB e
incrementado de 16 em 16 MB, chegando ao tamanho máximo do arquivo flat.
\ <Nome_da_MV>-rdm.vmdk: arquivo de mapeamento para o RDM (Raw Device
Mapping) que gerencia o mapeamento de dados para os dispositivos RDW. A
camada de virtualização de armazenamento passa para a máquina virtual o
dispositivo mapeado como um dispositivo SCSI virtual. Um arquivo desse tipo é
criado para cada RDM gerado para a máquina virtual.
\
ctk.vmdk:Seu
vSphere. arquivo utilizado
tamanho pelo recurso
é determinado Changed
pelo Block
tamanho Tracking
do HD virtual,(CBT),
sendodode
aproximadamente 5 MB para cada 10 GB. Um arquivo desse tipo vai existir para
cada HD virtual que tenha o CBT ativado.
\ <Nome_da_MV>.vmsn (Estado do snapshot): tipo de arquivo usado com
snapshots para armazenar o estado de uma máquina virtual. Um arquivo é
criado para cada snapshot da máquina virtual e destruído automaticamente
quando o snapshot é destruído. O tamanho do arquivo variará dependendo da
inclusão ou não do estado da memória da máquina virtual no snapshot.
\ <Nome_da_MV>.vmsd (Metadados do snapshot) – tipo de arquivo usado com
snapshots para armazenar os metadados eoutras informações sobre cada snapshot
ativo em uma máquina virtual. Esse arquivo é iniciado com tamanho zero, sendo
atualizado a cada snapshot criado ou destruído. Independente da quantidade de
snapshots gerados, existe apenas um arquivo desse tipo para cada máquina virtual.
192
\ <Nome_da_MV>.vswp (Memória swap): tipo de arquivo criado quando uma re
a
w
máquina virtual é ligada (power on). O arquivo swap é usado quando falta M
V
memória física do host e para permitir overcommitement. Seu tamanho é o
a
determinado pela quantidade de memória definida para a máquina virtual menos o
ã
ç
qualquer quantidade de memória eventualmente reservada pela máquina virtual. u
d
o
Só é usada se não houver mais memória real disponível, podendo ocupar n
rt
I
grandes espaços em disco. Lembre-se de que a máquina virtual não ligará se não –
5
houver espaço suficiente para o arquivo swap. É destruído quando a máquina lo
u
virtual é suspensa ou desligada. Pode ser armazenado em datastore separado. ít
p
a
C
\ <Nome_da_MV>.vmss (Suspend): tipo de arquivo usado quando uma máquina
virtual é suspensa. Serve para manter o conteúdo da memória no momento da
suspensão, e permitir que, no retorno, volte no mesmo estado em que parou. Seu
tamanho será muito próximo ao tamanho da memória RAM disponível para a
máquina virtual. É destruído quando a máquina virtual é desligada (power off).
\ vmware-nº_sequencial.log: arquivos que registram a atividade de uma máquina
virtual. Como todo arquivo de log, tem como principal utilidade auxiliar na
depuração de eventuais erros.
\ <Nome_da_MV>.vmxf: arquivo suplementar de configuração que não é usado pelo
ESX, mas é mantido por motivos de compatibilidade com o VMware Workstation.
Snapshot de uma máquina virtual: instantâneo tirado em um determinado
momento. Serve, principalmente, para testes e depuração de possíveis erros. Como
exemplo, antes de instalar qualquer software que possa interferir no funcionamento
da máquina virtual, deve-se tirar um snapshot. Caso dê erro no software, basta
retornar ao estado anterior com o uso do snapshot.
thick disk/thin disk: são os HDs virtuais que para as máquinas virtuais parecem
possuir um tamanho, mas na verdade ocupam apenas o espaço que estão usando,
isto é, um um HD virtual que foi definido com 10 GB e só está usando metade,
ocupa, no host, apenas 5 GB e para a máquina virtual aparenta ter 10 GB. Os thick
disks ocupam todo o espaço definido.
RDM (Raw Device Mapping): arquivo especial existente em volumes VMFS (Virtual
Machine File System) que agem como proxy para os dispositivos raw. Permite
acesso aos dispositivos de armazenamento, por exemplo, discos, diretamente sem
passar pelos cachês e buffers do sistema operacional.
193
s
re Changed Block Tracking (CBT): recurso que mantém uma relação de blocos em
o
id
v
disco que sofreram alteração, a partir de um determinado momento. Permite um
r
S
e ganho no desempenho aos softwares de backup incremental.
e
d
o
ã
ç A solução VMware Workstation, que opera no Linux ou Windows, utiliza as
a
ilz seguintes extensões:
a
tu
ir \ log – VMware Workstation log file
V
194
5
Roteiro de Atividades
Introdução ao VMware
Atividade 1 – Instalação do VMware ESXi
Esta atividade deverá ser realizada em dupla, porém apenas um dos alunos da
dupla efetuará a instalação do hipervisor no servidor.
195
s 2. Tela de boas-vindas – o usuário deve concordar com os termos de uso do produto
re
o
id
v
antes de prosseguir com a instalação e clicar em Next.
r
e
S
e
d
o
ã
ç
a
ilz
a
tu
ir
V
5. Confirmação da instalação – nesta etapa, o ESXi já estará pronto para ser instalado
no servidor. Aperte F11 para iniciar a instalação e aguarde a sua finalização.
6. Instalação completa – caso tudo ocorra com sucesso, uma tela informará que o
ESXi foi instalado com sucesso e será necessário apertar Enter para reiniciar o
servidor. A instalação padrão do hipervisor faz com que ele opere no modo de
avaliação por 60 dias. Para utilizar o ESXi, é preciso se registrar no site da
VMware para receber uma licença do produto. Assim como na instalação do
XenServer, a imagem ISO deve ser desconectada através doVirtual Media Wizard.
196
5
s
e
d
a
id
v
ti
A
e
d
ro
i
et
o
R
Esta atividade deverá ser realizada em dupla, porém apenas um dos alunos da
dupla efetuará a configuração do hipervisor no servidor.
Acesso ao hipervisor
O acesso ao hipervisor recém-instalado pode ser feito através do console iDRAC, de
um browser, pelo vSphere PowerCLI ou pelo protocolo SSH. No caso do SSH, o
acesso é feito ao Shell personalizado Remote Tech Support Mode. Mas antes é
necessário habilitar o serviço no hipervisor, que vem desabilitado por padrão, por
motivos de segurança.
197
s
re O primeiro acesso ao hipervisor deverá ser realizado através do console iDRAC, o
o
id
v
mesmo utilizado para a instalação do ESXi.
r
e
S
e 1. Customização do sistema – aperte o botão F2 para acessar o menu System
d
o Customization. Faça login com o usuário root. No primeiro login não é necessário
ã
ç informar senha, mas por medida de segurança essa operação precisa ser feita
a
ilz
a após a primeira entrada no sistema. Em System Customization é possível
tu
ir configurar algumas opções do seu hipervisor, tais como: senha de acesso do
V
administrador, rede de gerência, teclado, consulta a informações para suporte,
visualização dos logs do sistema, entre outros. Nesta atividade, apenas iremos
configurar uma senha de acesso e verificar a interface de rede física atribuída
para o host por padrão.
2. Configurando a senha de acesso – vá ao menu Configure Password e aperte o
botão Enter para configurar uma senha de acesso ao usuário root. Essa senha
precisa conter 8 ou mais caracteres, letras maiúsculas e minúsculas, números e
outros caracteres. Como padrão, configure a senha Virt3srVirt3sr.
198
3. Rede de gerenciamento – em System Customization, vá ao menu Configure 5
s
e
Management Network para visualizar as configurações da rede de gerenciamento d
a
do hipervisor. Na próxima janela, clique em Network Adapters para visualizar as id
v
ti
interfaces de gerenciamento deste host. Note que por padrão o ESXi atribui a e
A
problemas.
Remote TSMAtive o Remote
(SSH)
Tech Support (SSH), para ficar habilitado como
is Enabled.
199
s
re Comandos de gerenciamento
o
id
v
No VMware ESXi, algumas atividades de gerenciamento são disponibilizadas através
r
S
e de diversos comandos do Shell. Os exemplos a seguir são da versão 4.1 do
e
d hipervisor. O gerenciamento é feito através dos comandos com prefixo esxcfg- e dos
o
ã
ç comandos com prefixo esxcli.
a
ilz
a
tu Em algumas versões do VMware ESX e na documentação, o prefixo dos
ir
V
comandos é vicfg-.
5. Faça login no hipervisor via SSH através do PuTTY disponível na sua estação.
+Host :
\==+Hardware Info :
|----Serial Number..............GH9VJK1
|----Hardware Uptime............255989793281
|----Ipmi Supported.............true
\==+PCI Info :
\==+All Pci Devices :
...
200
Devido ao grande volume de dados, recomenda-se utilizar o esxcfg-info em conjunto 5
s
e
com o comando grep através do operador | (pipe) para obter informações específicas. d
a
id
Outra opção é utilizar o comandoless para ver a saída de forma paginada. v
ti
A
# esxcfg-info | grep “System UUID” e
d
ro
i
|----System UUID.................... 4c924016-d72d-... et
o
R
Armazenamento de dados
Datastore No ESXi, os dispositivos de armazenamento são gerenciados através do sistema
Representações VMFS. Estes dispositivos são agrupados em unidades lógicas chamadas datastores,
virtuais dos onde são armazenados os dados das máquinas virtuais.
recursos físicos de
storage.
Na instalação padrão do ESXi, é criado um espaço de armazenamento ( datastore1),
acessível pelo caminho /vmfs. Dentro do subdiretório Volumes são armazenados os
dados das máquinas virtuais.
# ls /vmfs
devices volumes
Configuração de rede
No VMware ESXi, o acesso de uma máquina virtual à rede externa é feito através de
um Virtual Switch (vSwitch). Cada interface de rede de uma máquina virtual é
associada a um vSwitch. Em cada um deles, é possível definir políticas de acesso à
rede externa, configurações de firewall etc. Com a utilização de vários switches
virtuais é possível criar configurações com redes isoladas, controlar tráfego de rede
de grupos de máquinas virtuais, criar redes isoladas ou com configurações de
segurança distintas.
A configuração do vSwitch padrão pode ser obtida noshell com o seguinte comando:
# esxcfg-vswitch -l
VM Network 0 2 vmnic0
201
s
re As outras duas portas são ocupadas pela rede padrão das novas máquinas virtuais e
o
id
v
pelo console do hipervisor.
r
e
S
e
d É importante observar que, uma vez que as ferramentas de acesso executam
o
ã
ç neste console, deve-se tomar cuidado ao configurar o switch virtual padrão, sob o
a
ilz risco de perder a capacidade de acesso remoto.
a
tu
ir
V
Outros comandos mais específicos permitem gerenciar e obter informações sobre
recursos específicos como interfaces de rede:
# esxcfg-nics -l
A VMware oferece o vSphere Client para que seja fácil a tarefa de gerenciar os hosts
que fazem parte do vSphere, máquinas virtuais e opcionalmente o VMware vCenter
Server com uma única interface. Ele pode ser instalado para gerenciar um único
host vSphere (ESX ou ESXi) ou vários através do vCenter Server.
1. Para iniciar a instalação do vSphere Client, rode o executável dentro da pasta
“sessao5”, aguarde enquanto o software carrega e em seguida clique em Next
para avançar.
2. Clique em Next para aceitar o acordo das patentes do software, e em seguida
selecione I agree to the terms... para aceitar o acordo de licenças do software.
Clique em Next.
3. Na etapa seguinte, preencha os campos solicitados com os seus dados e clique
em Next.
4. Em Destination Folder mantenha o caminho padrão da instalação e clique emNext.
5. Clique em Install para iniciar a instalação e aguarde o término do processo para
completar a instalação clicando em Finish.
202
Atividade 4 – Utilização do vSphere Client 5
s
e
d
a
id
Esta atividade deverá ser executada individualmente. Cada aluno acessará o v
ti
hipervisor a partir da sua estação. A
e
d
ro
i
A tela inicial do vClient solicita o endereço IP do hipervisor (gerenciar um servidor) et
o
R
ou servidor vCenter (gerenciar vários servidores) ao qual ele irá se conectar,
juntamente com as credenciais de acesso.
1. Informe o endereço IP do hipervisor da dupla e utilize as credenciais de usuário
que foram criadas na instalação.
2. Em seguida, será exibido um alerta sobre o certificado SSL utilizado pelo host.
Selecione Install this certificate... e clique no botão Ignore.
203
s 3. Após alguns segundos, a tela inicial do vClient será exibida. Selecione o item
re
o
id Inventory localizado no centro. Em seguida, à esquerda são apresentados os
v
r
S
e servidores físicos e as máquinas virtuais disponíveis, enquanto as informações
e referentes a cada item são agrupadas em abas.
d
o
ã
ç
a
ilz
a
tu
ir
V
204
5
5. Na aba Resource Allocation são listadas as máquinas virtuais e a quantidade de s
e
recursos (memória, processador, disco) utilizada por cada uma delas. d
a
id
v
ti
A
e
d
ro
i
et
o
R
205
s
re
o
7. Informações a respeito do sistema e configurações do hipervisor são
id apresentadas na aba Configuration. No grupo de configurações de hardware
v
r
e estão agrupadas as configurações que envolvem dispositivos físicos do servidor
S
e
d ou arquivos apresentados como tais para as máquinas virtuais, como a
o
ã infraestrutura de rede virtual e os repositórios de dados. Na aba Software estão
ç
a
ilz disponíveis as configurações relativas ao comportamento do sistema:
a
tu inicialização de máquinas virtuais, firewalls etc.
ir
V
206
5
9. No link Networking é apresentada a infraestrutura de rede virtual. Note as três s
e
d
portas ocupadas do switch. a
id
v
ti
A
e
d
ro
i
et
o
R
207
s 11.Em Network Adapters são listados os dispositivos físicos de rede sobre os quais
re
o
id
v
é configurada a infraestrutura de rede. Note que durante a instalação o
r
S
e dispositivo vmnic1 não é associado a nenhum switch.
e
d
o
ã
ç
a
ilz
a
tu
ir
V
12.No link Security Profile são exibidas as configurações de firewall aplicadas aoESXi.
208
Atividade 5 – Configuração do repositório compartilhado de ISOs 5
s
e
d
a
id
Esta atividade deverá ser executada por um dos alunos da dupla. v
ti
A
e
d
Para efetuar a instalação de máquinas virtuais no VMware ESXi, pode-se utilizar os ro
i
dispositivos físicos do hipervisor ou imagens ISO armazenadas em algum repositório et
o
R
de dados. Uma vez que isto envolve a simulação de um dispositivo da máquina
virtual (como o drive de CD/DVD), esta funcionalidade é implementada peloVMKernel.
209
s
re
o
2. Na janela de propriedades do switch virtual, clique no botão Add.
id
v
r
e
S
e
d
o
ã
ç
a
ilz
a
tu
ir
V
210
5
4. Na janela seguinte, identifique a interface que está sendo criada, responsável s
e
pela conexão com o repositório de Isos. O VMkernel utilizará esta conexão para d
a
id
transferência “a quente” de máquinas virtuais. v
ti
A
e
d
ro
i
et
o
R
211
s
re
o
6. Na última tela, é apresentada a configuração que será aplicada ao vSwitch0.
id Confirme com o botão Finish.
v
r
e
S
e
d
o
ã
ç
a
ilz
a
tu
ir
V
Após esta configuração, a interface VMkernel criada tem acesso à rede onde se
encontra o repositório de ISOs. O protocolo NFS é utilizado para acesso a datastores
remotos no ESXi.
212
Criação do datastore 5
s
e
Neste momento, é possível criar novos datastores acessíveis através de NFS. d
a
id
Observe que deve existir uma porta do tipo VMkernel para cada switch virtual que v
ti
possui datastores. A
e
d
ro
i
Para conectar a instalação do ESXi ao datastore que contém as imagens ISO, siga o et
o
R
seguinte roteiro:
1. Com o hipervisor selecionado, navegue até a aba Configuration, acesse o link
Storage na seção Hardware e, em seguida, clique no link Add Storage.
Folder: /isos
213
s
re
o
4. Confirme a criação do datastore. Em seguida, o novo repositório será
id apresentado na listagem do vClient. Utilize o botão direito e acesse a opção
v
r
e Browse Datastore para visualizar os arquivos disponíveis.
S
e
d
o
ã
ç
a
ilz
a
tu
ir
V
Um dos alunos do grupo deverá instalar o Windows Server 2008, que será
utilizado no Roteiro de Atividades 6.
Para a máquina virtual onde será instalado o Windows Server 2008, utilize as
seguintes configurações:
Nome: WinServer2008
Datastore: datastore1
Memória: 2GB
CPU: 2
1. Na aba Getting Started acesse o link Create a new virtual machine.
214
5
2. O vClient oferece dois tipos de assistentes. Na opção Typical são solicitadas s
e
apenas informações típicas para a criação da nova máquina virtual. Em Custom, d
a
id
é possível configurar de forma mais detalhada a nova máquina. Independente do v
ti
A
tipo de assistente selecionado, as configurações da VM podem ser alteradas e
d
posteriormente. Mantenha a opção Typical e clique em Next. ro
i
et
3. Defina o nome da nova máquina virtual. Este nome deve conter alguma o
R
identificação do grupo (exemplo: MV-Ubuntu-GP1). Em seguida, clique em Next.
215
s 5. Selecione o tipo de sistema operacional que será instalado e clique em Next.
re
o
id
v
r
e
S
e
d
o
ã
ç
a
ilz
a
tu
ir
V
216
7. Selecione a opção Edit the Virtual Machine Settings para editar a configuração 5
s
e
da máquina virtual após o término de sua criação. Confirme a criação da d
a
máquina virtual no botão Continue. id
v
ti
A
e
d
ro
i
et
o
R
217
s
re
o
9. Em New CD/DVD, selecione a opção Datastore ISO File e clique no botão
id Browse. Navegue no repositório repositório-de-isos e selecione a imagem de
v
r
e instalação. Em seguida, selecione a opção Connected at power on para que o
S
e
d ESXi simule o drive virtual já durante a inicialização da máquina. Utilize o botão
o
ã Finish para encerrar a configuração.
ç
a
ilz
a
tu
ir
V
218
5
10.Em seguida, a máquina virtual será listada no inventário do vClient. Na aba s
e
Summary , utilize o link Power On para inicializar a máquina. Utilize a aba d
a
id
Console ou o botão Open Console para ter acesso à nova máquina virtual. v
ti
A
e
d
ro
i
et
o
R
219
s
re Atividade 7 – Criação de snapshots
o
id
v
r
S
e Nesta atividade os dois alunos acessarão o hipervisor simultaneamente.
e
d
o
ã
1. Para efetuar a criação de um snapshot de uma máquina virtual, selecione uma máquina
ç
a virtual no inventário e utilize o botão
Create Snapshotna barra de ferramentas.
ilz
a
tu
ir
V
220
O progresso da criação do novo snapshot será exibido na listagem de tarefas 5
s
e
pendentes do vClient. d
a
id
v
ti
A
e
d
ro
i
et
o
R
221
s
re Atividade 8 – Comandos de gerenciamento de MVs
o
id
v
r
S
e Nesta atividade os dois alunos acessarão o hipervisor simultaneamente.
e
d
o
ã
ç As máquinas virtuais criadas no ESXi podem ser administradas via linha de
a
ilz comando do Shell remoto ou através do vSphere PowerCLI.
a
tu
ir
V
Gerenciando o ESXi através do vSphere PowerCLI
Nesta atividade os alunos de uma dupla acessarão simultaneamente o hipervisor
através do PowerCLI da sua estação.
222
3. VMware Patents, EULA, Destination Folder – clique em Next para aceitar os 5
s
e
termos das patentes do produto. Depois, aceite os termos de licença do usuário d
a
final e avance. Mantenha a pasta de destino padrão, avance e clique em Install id
v
ti
para começar a transferência dos arquivos. Ao término da instalação, clique em e
A
Finish e inicie o software pelo atalho criado no seu desktop. A tela inicial é d
ro
i
mostrada na imagem abaixo. et
o
R
Conectando ao hipervisor
1. Conecte-se ao servidor recentemente instalado pela dupla com o comando
Connect-
VIServer –Server <Endereço_do_Servidor>. <Endereço_do_Servidor> corresponde
ao endereço IP ou nome DNS do vCenter ou host vSphere. Quando solicitado, entre
com o usuárioroot e a senha configurada na instalação do hipervisor.
223
s
re
o
id
v
r
e
S
e
d
o
ã
ç
a
ilz
a
tu
ir
V
224
5
3. É possível listar os datastores disponíveis ao host vSphere. No caso da imagem s
e
abaixo, apenas o datastore1, que é o datastore armazenado no disco rígido local, d
a
id
foi listado. v
ti
A
e
d
ro
i
et
o
R
4. No VMware ESXi, o acesso de uma máquina virtual à rede externa é feito através
de um Virtual Switch (vSwitch). Cada interface de rede de uma máquina virtual é
associada a um vSwitch. Em cada um deles, é possível definir políticas de
acesso à rede externa, configurações de firewall etc. Com a utilização de vários
switches virtuais é possível criar configurações com redes isoladas, controlar o
tráfego de rede de grupos de máquinas virtuais e criar redes isoladas ou com
configurações de segurança distintas.
As configurações dos adaptadores de rede do host podem ser obtidas através do
comando Get-VMHostNetworkAdapter, configurações do vSwitch padrão através
do comando Get-VirtualSwitch e dos grupos de portas virtuais através do
comando Get-VirualPortGroup.
225
s
re Operações com máquinas virtuais
o
id
v
1. Para listar as máquinas virtuais e algumas de suas propriedades que estão
r
S
e disponíveis no host vSphere, utilize o comando Get-VM. O comando lista o nome
e das máquinas virtuais, o estado de energia, o número de vCPUs e a quantidade
d
o
ã
ç
de memória em MB utilizados.
a
ilz
a
tu
ir
V
Set-VM
Start-VM
Stop-VM
Restart-VM
Get-HardDisk
Copy-HardDisk
New-HardDisk
Remove-Snapshot
226
Ajuda com os comandos 5
s
e
1. Caso seja necessário visualizar todos os parâmetros de um determinado comando d
a
do PowerCLI, o usuário poderá utilizar o comando Get-Help para isto. Execute o id
v
ti
comando em conjunto com o parâmetro –Full e o comando more através do A
e
d
operador | (pipe) para obter a saída de forma paginada, conforme o exemplo ro
i
abaixo, onde foram listadas as propriedades do comando Get-VM. et
o
R
Get-Help <comando> -full | more
# ls
227
s Test Linux Machine-000002.vmdk Test Linux Machine.vmsd
re
o
id
v
r Test Linux Machine_1-flat.vmdk Test Linux Machine.vmx
e
S
e Test Linux Machine_1.vmdk Test Linux Machine.vmxf
d
o
ã
ç Test Linux Machine-8b156088.vswp vmware-1.log
a
ilz
a
tu Test Linux Machine-flat.vmdk vmware-2.log
ir
V
Test Linux Machine.nvram vmware.log
# du -h *.vmdk
64K Test Linux Machine-000001-delta.vmdk
PCPU USED(%): 2.9 0.7 0.3 0.1 0.2 0.1 0.0 0.1 AVG: 0.5
PCPU UTIL(%): 3.1 0.8 0.4 0.2 0.3 0.2 0.1 0.1 AVG: 0.6
228
ID GID NAME NWLD %USED %RUN %SYS %WAIT %RDY 5
s
e
7 7 helper 80 0.02 0.02 0.00 8000.00 0.01 d
a
id
v
8 8 drivers 10 0.01 0.01 0.00 1000.00 0.00 ti
A
e
d
53 53 vmkiscsid.4271 2 0.01 0.01 0.00 200.00 0.00 ro
i
et
49 49 storageRM.4262 1 0.00 0.00 0.00 100.00 0.00 o
R
Utilize as teclas:
\ Tecla d – exibe a utilização de cada um dos adaptadores de armazenamento
configurados.
\ Tecla m – exibe a utilização de memória das máquinas virtuais e processos
do VMkernel.
229
s
re
o
id
v
r
e
S
e
d
o
ã
ç
a
ilz
a
tu
ir
V
230
6
Gerenciamento do VMware
Componentes do gerenciamento
\ Componentes da arquitetura
\ VMotion
\ Alta Disponibilidade (HA)
\ Balanceamento dinâmico de recursos (DRS)
\ Consolidated Backup (VCB)
\ Storage VMotion
\ Site Recovery Manager (SRM)
Figura 6.1
VIClient VIWebAccess VISDK
Componentes
da arquitetura DRS HA Consolidated
backup
VMware.
Virtual Center Management Server
virtual machines
enterprise
servers
enterprise
network
enterprise
storage
231
s
re Componentes da arquitetura VMware:
o
id
v
r
e
\ Servidor VMware ESXi: camada de virtualização que executa em servidores
S físicos e possibilita que os principais recursos do servidor sejam provisionados
e
d
o para múltiplas máquinas virtuais.
ã
ç
a
ilz \ VMware Virtual Center Management Server (vCenter Server): permite o
a
tu gerenciamento de todo o ambiente virtual, automação operacional e otimização
ir
V de recursos. É executado em um servidor Windows. A partir da versão 2.01
(patch 2) pode ser utilizado em cluster.
\ VMware Update Manager: automatiza o gerenciamento de atualizações
(upgrades) e correções (patches) em servidores ESX e máquinas virtuais que
executam nesses servidores. É importante conferir na documentação os sistemas
suportados. É um plugin do vCenter e o cliente deve ser instalado em máquina
Windows. Permite criar regras de atualização e correção, e a sua instalação é
recomendada em hardware de 64 bits.
\ VMware VMFS (Virtual Machine File System): sistema de arquivos para
máquinas virtuais. Permite que vários servidores ESXi acessem simultaneamente
o sistema de armazenamento da máquina virtual. Cada máquina virtual é
encapsulada em um pequeno conjunto de arquivos e o VMFS é o sistema de
arquivos. É possível conectar até 32 servidores ESXi em um volume VMFS. A
figura a seguir ilustra o funcionamento do VMFS.
Figura 6.2
Virtual Machine
Máquinas virtuais Máquinas virtuais Máquinas virtuais File System
ESXi Server ESXi Server ESXi Server
(VMFS).
VMFS VMFS VMFS
Storage compartilhado
232
\ VM: instância de máquina virtual, ou seja, cada máquina virtual possui seu re
a
w
próprio hardware virtual e sistema operacional. M
V
o
\ VI Client: interface que permite que usuários e administradores conectem-se ao servidor.
d
ot
n
\ VI Web Access: interface web para o gerenciamento das máquinas virtuais e e
m
console de acesso remoto. ia
c
n
re
\ VMware Infrastructure SDK: propicia uma interface padrão para o VMware, e
G
permitindo que terceiros desenvolvam soluções para a infraestrutura VMware. –
6
o
l
\ Recurso de Balanceamento de Carga (Distributed Resource Scheduler – DRS) u
ít
p
a
\ Alta Disponibilidade (High Availability – HA) C
\ Consolidated Backup
VMotion
\ Movimentação de máquinas virtuais
\ Sem impacto no funcionamento da máquina virtual
\ Utilizada para alta disponibilidade e balanceamento de recursos
A figura a seguir ilustra o funcionamento do VMotion, um recurso básico para o
funcionamento da alta disponibilidade e do balanceamento dinâmico de recursos
das soluções de virtualização da VMware. O VMotion permite a migração de
máquinas virtuais em tempo real. Exige a utilização de um storage compartilhado
por vários servidores, onde a máquina virtual é encapsulada por um conjunto de
arquivos armazenados neste storage. A migração realizada com o VMotion permite,
por exemplo, que máquinas virtuais sejam transferidas de servidores muito
carregados para servidores ociosos.
Figura 6.3
VMware VMotion.
Tecnologia VMotion
Hardware Hardware
233
s
re \ Priorizar migrações “a quente” (live) para a utilização de recursos como alta
o
id disponibilidade;
v
r
e
S
d
e \ Manter uma trilha de auditoria com detalhes da migração.
o
ã
ç
a
ilz Requisitos necessários para a utilização do VMotion:
a
tu
ir \ Sistema de arquivos VMFS;
V
Figura 6.4
Alta
Disponibilidade.
ESX ESXi
Server
Server ESXSer
ESXiServer
ver ESXSer
ESXiServer
ver
Pool de recursos
234
Balanceamento dinâmico de recursos (DRS) re
a
w
M
\ Distribuição automática de MVs com base na carga de trabalho V
o
d
\ Visa melhorar o desempenho dos serviços ot
n
e
m
O balanceamento dinâmico de recursos (Distributed Resource Scheduler – DRS) do ia
c
n
VMware permite que as máquinas virtuais possam ser redistribuídas para outros re
e
servidores mediante algumas regras previamente estabelecidas que visam, G
–
normalmente, a melhoria do desempenho. 6
o
l
u
ít
p
O DRS monitora dinamicamente a carga de trabalho das máquinas virtuais que a
C
estão em execução e a utilização dos recursos dos servidores físicos. Ele também
verifica o uso dos recursos considerando políticas predefinidas pelo administrador e,
se for o caso, aloca e distribui dinamicamente no hardware a carga de trabalho das
máquinas virtuais.
Figura 6.5
Distributed
Resource
Scheduler (DRS).
Pool de recursos
Storage VMotion
\ Conceito
\ Características
\ Requisitos
O Storage VMotion do VMware possibilita a migração “a quente” de arquivos de
discos das máquinas virtuais entre diferentes unidades de storage, isto é, sem a
necessidade de interromper os sistemas envolvidos. O objetivo da migração é
permitir um melhor desempenho dos acessos aos arquivos, quer seja por movê-los
235
s
re para a máquina onde os processos realizam maior número de acessos, ou para
o
id
v
reduzir tráfego e latência de rede. A migração pode ser feita empregando os
r
S
e protocolos FC ou iSCSI. Para empregar o VMware Storage Motion é preciso instalar o
e
d VMware vCenter Server e o vCenter Agent.
o
ã
ç
a
ilz Site Recovery Manager (SRM)
a
tu
ir \ Conceito
V
\ Funcionalidades
236
Infraestrutura de TI re
a
w
M
V
Os principais blocos da infraestrutura de TI para o VMware são: servidores (hosts), o
d
redes de storage (SAN ou NAS) e redes locais (LAN). Esses blocos já foram ot
n
apresentados de forma genérica no capítulo 2. Aqui serão tratados apenas aspectos e
m
específicos de infraestrutura relacionados ao VMware. ia
c
n
re
e
G
–
Arquitetura do servidor 6
o
l
u
ít
p
Os servidores são responsáveis pelo processamento no datacenter . Com a virtualização, a
C
os fabricantes Intel e AMD fizeram um grande esforço para compensar no hardware
(processador) a perda de desempenho ocasionada pelo custo computacional exigido
pela virtualização. O resultado disso é que osnovos processadores oferecem um bom
desempenho mesmo com o emprego de camadas de virtualização.
Processador e memória
O VMware é intensivo em utilização de CPU, portanto:
\ Deve sempre ser considerada a aquisição de processadores de maior
desempenho, considerando a opção quadcore.
\ No VMware ESXi as necessidades de processamento das máquinas virtuais são
distribuídas pelos diversos núcleos.
\ O VMware é intensivo quanto ao consumo de memória, portanto:
\ Para o cálculo do tamanho da memória deve ser considerado o número de
máquinas virtuais, a quantidade de memória necessária para cada máquina
virtual e uma capacidade adicional para migração.
\ A memória consumida pelo hipervisor varia de acordo com o número de
máquinas virtuais e com a memória alocada para cada uma.
\ A memória empregada varia de 384 MB a 32 GB por máquina virtual. Em
um cenário “pesado”, o hipervisor pode precisar de 1 GB.
237
s
re Armazenamento (storage)
o
id
v
r
S
e Uma rede SAN típica utilizada com o VMware é ilustrada a seguir.
e
d Figura 6.7
o
ã
ç 4 Rede SAN com
a
ilz VMware.
a
tu
ir
V
2
5
1 3
DNS
7 6
238
Um disco virtual dentro de uma máquina virtual é localizado em um ou mais re
a
w
volumes no storage físico, e tratado como um volume VMFS ou RDM. M
V
o
d
O raw device é um volume lógico usado pela máquina virtual, mas que não está ot
n
formatado com VMFS ou NFS. O RDM é um arquivo especial que atua como um e
m
tipo de proxy para o raw device, mapeando o volume lógico diretamente para a ia
c
n
máquina virtual. re
e
G
–
A máquina virtual acessa o datastore através de comandos SCSI, que permitem 6
o
l
acessar o disco virtual. Estes comandos são empacotados de várias formas u
ít
p
diferentes, dependendo do protocolo que o servidor ESX utiliza para se conectar ao a
C
dispositivo de storage. O VMFS foi projetado para gerenciar múltiplos acessos e
pode coordenar os acessos aos arquivos do disco virtual e aos arquivos internos de
informação (metadados). O controle de acesso permite limitar o acesso dos
servidores ESX a determinados volumes.
239
s
re Principais funcionalidades e limitações de um software iSCSI:
o
id
v
r \ Não oferece suporte para inicialização do servidor ESX;
e
S
e \ O initiator por software suporta somente uma única interface de rede
d
o
ã
ç (denominada vmhba40);
a
ilz
a \ Não é possível executar balanceamento de carga por software com
tu
ir configurações de múltiplas interfaces de rede (NIC teaming). Essa configuração
V
permite apenas failover;
\ Suporte para os mecanismos VMotion, VMware HA e VMware DRS, mas não
para Microsoft Cluster Server;
\ Possui suporte para RDM.
O sistema de armazenamento baseado em Internet SCSI (iSCSI) simplifica o storage
e reduz o custo inicial de uma solução de storage, e mesmo o TCO, quando
comparado com a solução baseada em Fibre Channel (FC). Com a chegada do padrão
10 Gbit/s Ethernet, acredita-se que o padrão iSCSI tomará ainda mais espaço no
mercado de redes de armazenamento. A rede iSCSI também trata de aplicações que
utilizam blocos de dados como elementos padrão de transferência de E/S.
240
Rede Local – Local Area Network (LAN) re
a
w
M
\ Opções V
o
d
o
\ Switches virtuais t
n
e
m
\ NICs virtuais ia
c
n
re
e
As opções de rede são providas pelo ESX e gerenciadas pelo VMware Virtual Center. G
–
Com a rede virtual é possível criar redes virtuais dentro de um servidor ESX ou 6
o
l
através de múltiplos servidores. Os dois componentes de uma rede virtual são: u
ít
p
a
\ Switches virtuais: é possível criar até 248 switches virtuais em um servidor C
ESXi. As funcionalidades de um switch virtual são as mesmas de um de switch
convencional de camada 2, suportando inclusive VLANs com controle por portas.
O protocolo spanning tree não é necessário, pois a topologia de rede permitida é
de apenas um nível.
\ Interfaces virtuais de rede: as Network Interconnection Cards (NICs) permitem
conectar as máquinas virtuais entre si e com o console e a rede externa, como
ilustra a próxima figura. As placas de redes físicas funcionam como uplinks para
as portas do switch virtual para o switch físico. Com o uso da configuração NIC
Teaming, é possível conectar um switch virtual a múltiplos adaptadores Ethernet.
As máquinas virtuais podem ser configuradas com uma ou mais interfaces
virtuais de rede, cada uma com seu endereço IP e endereço MAC.
Virtualização Console
de serviço
da rede com o
Adaptadores
VMware.
Ethernet
virtuais {
Switches
virtuais
ESX Server 3
{
{
Adaptadores
Ethernet
físicos
241
s
re
o
id
v
r
e
S
e
d
o
ã
ç
a
ilz
a
tu
ir
V
242
6
Roteiro de Atividades
Gerenciamento do VMware
Atividade 1 – Instalando o vCenter
1. Através
vCenter.do
NavClient,
barra deiremos configurar
ferramentas o CD/DVD
do vClient virtual
clique para montar
no menu a ISO do
CD/DVD, selecione o
CD/DVD Drive1 e em seguida Connect to ISO image on a datastore .
243
s 2. Em Browse Datastore, entre emServidor de ISOse selecione a ISO do VMware vCenter.
re
o
id
v
r 3. Se o procedimento for realizado corretamente, o drive de DVD apresentará a
e
S logomarca da VMware.
e
d
o
ã
ç
a
ilz
a
tu
ir
V
244
6
8. Na tela Database Options, mantenha a opção padrão selecionada para instalar o s
e
MS SQL Server 2005 Express e clique em Next. d
a
id
v
ti
A
e
d
ro
i
et
o
R
245
s 14.Clique em Install, aguarde o fim do processo de instalação e clique em Finish
re
id
o para concluir. Em seguida será iniciado o processo de instalação do SQL Server
v
r
e 2005 Express. Aguarde o processo finalizar para concluir a instalação.
S
e
d
o
ã
ç Atividade 2 – Gerenciando datacenters com o vCenter
a
ilz
a
tu Antes de iniciar esta atividade, a turma deverá se dividir em grupos de 4 alunos,
ir
V
onde cada grupo formará um datacenter, que será composto de 2 hipervisores e 4
máquinas virtuais.
Os próximos passos desta atividade deverão ser realizados apenas pelo primeiro
aluno do grupo, enquanto os demais deverão acompanhar o procedimento.
246
Os próximos passos desta atividade deverão ser realizados em dupla, com cada 6
s
e
dupla adicionando o seu servidor ao datacenter. d
a
id
v
ti
A
e
d
1. Selecione o datacenter criado e adicione o servidor da dupla através do
Addlink
a host. ro
i
et
2. Será solicitado o IP de gerenciamento do hipervisor, bem como as credenciais R
o
para acesso.
247
s
re 7. Utilizando o vCenter, novas funcionalidades são habilitadas no vClient. Na aba
o
id Maps é apresentada a infraestrutura do datacenter, com as conexões dos
v
r
e servidores às redes virtuais e datastores.
S
e
d
o
ã
ç
a
ilz
a
tu
ir
V
248
6
funcionalidades do datacenter. s
e
d
a
id
v
ti
A
e
d
ro
i
et
o
R
249
s
re Atividade 3 – Configurando acesso ao storage
o
id
v
r
S
e Esta atividade deverá ser realizada em dupla.
e
d
o
ã
ç Para viabilizar a migração de máquinas virtuais, é necessário configurar o acesso ao
a
ilz sistema de storage compartilhado. Para tanto, é necessário que o VMkernel tenha
a
tu acesso à rede onde encontram-se as interfaces de acesso da controladora do
ir
V
storage, no caso do curso, controladora iSCSI. O seguinte roteiro ilustra como fazer
esta configuração e criar um sistema VMFS nos discos compartilhados.
1. Selecione o hipervisor da dupla, acesse a aba Configuration, clique no link
Networking, acesse as propriedades do vSwitch0 e crie uma nova interface
VMKernel conectada ao vSwitch0 e que terá acesso ao storage. É recomendado pela
VMware que o hipervisor tenha uma interface de rede dedicada para fazer o vMotion.
250
2. Configure o Storage Adapter que fará a conexão com o storage. Na seção 6
s
StorageAdapters, localize e selecione o adaptador iSCSI Software Adapter. Use a d
e
a
opção Properties no segundo painel para abrir as configurações deste item. id
v
ti
A
e
d
ro
i
et
o
R
4. Em seguida, abra a aba Dynamic Discovery e utilize o botão Add para solicitar a
descoberta das LUNs disponíveis no endereço IP do servidor.
251
s 5. Preencha com o endereço192.168.1.253 e porta3260. Confirme com o botãoOk.
re
o
id
v
r 6. O novo endereço aparecerá na listagem da aba Dynamic Discovery. Clique no
e
S botão Close para iniciar a descoberta de dispositivos. Em seguida, o vClient
e
d
o solicitará um scan no novo dispositivo. Clique no botão Sim.
ã
ç
a
ilz 7. Os LUNs disponíveis no storage serão agora listados na janela do vClient.
a
tu
ir
V
8. Na seção Storage da aba de configuração, utilize o link Add Storage para criar
um
paravolume VMFS
criar um em VMFS
volume um dosnoLUNs disponíveis no storage. Selecione Disk/Lun
Storage iSCSI disponível para o curso. Em
seguida, clique em Next.
252
6
9. Na lista de LUNs apresentados, selecione o volume referente ao seu grupo s
e
conforme descrito abaixo. d
a
id
v
ti
A
Grupo1 gL UN1 Grupo2gL UN2 Grupo3g LUN3 e
d
Grupo4 g LUN4 Grupo5 g LUN5 Grupo6g LUN6 ro
i
et
o
R
253
s
re
o
11.Preencha o nome do volume como será visto pelo vClient. Ex.: Storage iSCSI,
id Shared iSCSI.
v
r
e
S
e 12.Na tela de formatação da LUN deixe o padrão máximo permitido e clique em
d
o
ã
Next. Confira as configurações e confirme com o botão Finish. Aguarde a criação
ç
a
ilz
do sistema de arquivos.
a
tu
ir
V
254
6
13.Observe novamente a aba Maps do datacenter para localizar o novo volume. s
e
d
a
id
v
ti
A
e
d
ro
i
et
o
R
255
s
re Atividade 4 – Migração de máquinas virtuais
o
id
v
r
S
e Esta atividade deverá ser realizada em dupla.
e
d
o
ã
ç Uma vez configurado o armazenamento compartilhado entre os hosts, é possível efetuar
a
ilz a migração das máquinas virtuais entre eles. Para tanto, deve-se, primeiramente, mover
a
tu as imagens de disco das máquinas virtuais para o dispositivo compartilhado.
ir
V
1. Desative a máquina virtual (Linux) que será migrada para o storage compartilhado.
2. Com a máquina virtual selecionada, vá à aba Summary e dentro da seção
Resources observe a localização da máquina virtual. No final desta prática este
item deverá ser verificado para se certificar de que o procedimento foi executado
corretamente. Após, selecione a opção Migrate para iniciar a migração.
256
3. Escolha a opção Change Datastore e clique em Next. Após, selecione o datastore 6
s
e
criado e clique em Next. d
a
id
v
ti
A
e
d
ro
i
et
o
R
257
s
re
o
id
v
r
e
S
e
d
o
ã
ç
a
ilz
a
tu
ir
V
258
6
s
e
d
a
id
v
ti
A
e
d
ro
i
et
o
R
Utilize também a ferramenta ping, com o comando mostrado abaixo, para estimar o
tempo de downtime da máquina virtual durante a migração.
C:\Documents and Settings\Aluno>ping endereço_ip -t
259
s
re Atividade 5 – Alta Disponibilidade com ESXi
o
id
v
r
S
e Esta atividade deverá ser realizada em dupla.
e
d
o
ã
ç O mecanismo de tolerância a falhas é habilitado apenas para máquinas virtuais
a
ilz selecionadas pelo administrador. Para estas, é mantida uma cópia em execução em
a
tu outro host. Em caso de falhas, esta cópia entra em funcionamento imediatamente,
ir
V
diminuindo o tempo de recuperação de falhas.
260
6
2. Selecione a interface vmnic1 para adicioná-la à rede virtual e clique em Next. s
e
d
a
id
v
ti
A
e
d
ro
i
et
o
R
3. Mova a nova interface para o grupo Standby Adapter, para isso selecione-a e
clique no botão Move Down. Clique em Next para prosseguir e em seguida,
clique em Finish para finalizar o assistente de adição da interface.
261
s
re
o
4. A nova configuração do switch irá incluir a segunda interface como possível
id interconexão com a rede externa em caso de falhas.
v
r
e
S
e
d
o
ã
ç
a
ilz
a
tu
ir
V
A partir deste ponto, esta atividade deverá ser realizada pelo grupo.
262
6. Para habilitar o mecanismo de alta disponibilidade do ESXi, devem-se agrupar os 6
s
hosts em Clusters. Selecione a aba Summary do datacenter criado anteriormente d
e
a
e clique no link Create a Cluster. id
v
ti
A
e
d
ro
i
et
o
R
263
s
re 8. Em seguida, clique em Enable Host Monitoring para ativar a opção de
o
id
v
monitoramento do servidor. Na caixa Admission Control, selecione a opção
r
S
e Disable para manter ligadas as máquinas virtuais mesmo quando não há mais
e
d servidores de failover para elas.
o
ã
ç
a
ilz
a
tu
ir
V
264
É possível configurar o VMware ESXI para monitorar o funcionamento das máquinas 6
s
e
virtuais. Neste caso, quando uma MV deixa de responder a uma quantidade de d
a
id
heartbeats, ela é reinicializada. Esta opção não será utilizada neste capítulo. v
ti
A
10.Mantenha a opção VM Monitoring como Disabled. e
d
ro
i
et
o
R
265
s 11.Selecione Disable EVC e clique em Next.
re
o
id
v
r
e
S
e
d
o
ã
ç
a
ilz
a
tu
ir
V
12.Mantenha a opção Store the swapfile in the same directory... para que a
partição de swap utilizada pela máquina virtual seja armazenada no datastore
compartilhado para garantir um bom desempenho na migração. Clique em Next
para prosseguir.
266
13.A configuração selecionada é apresentada ao final do assistente. Finalize com o 6
s
e
botão Finish. d
a
id
v
ti
A
e
d
ro
i
et
o
R
A partir deste ponto, esta atividade deverá ser realizada pela dupla.
267
s 15.Após a inclusão do servidor no cluster, observe se ele apresenta o ícone com
re
o
id
v
exclamação . Caso isso ocorra, clique com o botão direito no servidor e
r
S
e utilize a opção Reconfigure for VMware HA.
e
d
o
ã
ç
a
ilz
a
tu
ir
V
268
6
16.Antes de utilizar o mecanismo de tolerância a falhas em alguma máquina virtual, s
e
você deve se certificar de alguns requerimentos e restrições desta funcionalidade. d
a
id
v
ti
Requerimentos A
e
d
16.1. A versão utilizada no vSphere precisa ser a Advanced, Enterprise ou ro
i
et
Enterprise PLUS. R
o
Restrições
16.1. A máquina virtual só pode ter uma vCPU (não é permitido o uso de SMP).
16.2. O vDisk deve ser do tipo “Thick” (não é permitido o uso de Thin vDisk).
16.3. A máquina virtual não pode ter snapshots.
16.4. Alguns SO convidados não suportam e outros podem precisar ser desligados
para ativar a funcionalidade (veja a lista emhttp://migre.me/4AOE9).
269
s 17.Verifique a máquina virtual que pode ser utilizada com esse mecanismo e se será
re
o necessário desligá-la para isto. Nela será habilitado o suporte de tolerância a
id
v
r
e falhas. Para isso, clique com o botão direito sobre a máquina e selecione a opção
S
e Turn on Fault Toleranceno menu Fault Tolerance.
d
o
ã
ç
a
ilz Após finalizar o processo de habilitação de tolerância a falhas, o ícone associado
a
tu à máquina virtual alternará ficando com esta aparência e o seu status na aba
ir
V
Summary constará como Protected.
270
19.Escolha um dos servidores do grupo, acesse o console de gerenciamento da 6
s
e
iDRAC e desligue-o. Observe a mudança de status na aba Summary , na seção d
a
Fault Tolerance, nos campos Fault Tolerance Status e Secondary Location e na id
v
ti
seção General no campo Host, cujo IP ou nome será alterado para o host da e
A
d
máquina virtual secundária, após a recuperação da falha.
ro
i
et
o
R
271
s
re
o
id
v
r
e
S
e
d
o
ã
ç
a
ilz
a
tu
ir
V
272
7
Introdução ao Hyper-V
\ Características gerais
\ Versões
\ Windows Server 2008 com Hyper-V
\ Benefícios
\ Licenciamento
273
s
re Características gerais
o
id
v
r
S
e Principais características do Hyper-V: VSP/VSC
e A arquitetura de
d
o
ã
\ Arquitetura de 64 bits: o Hyper-V foi concebido para explorar as capacidades virtualização da
ç
a das arquiteturas de 64 bits, oferecendo assim um bom desempenho. Microsoft
ilz
a (Windows Server
tu
ir
\ Suporte a Sistemas Operacionais: capacidade para execução simultânea de Virtualization –
V diferentes tipos de sistemas operacionais convidados, incluindo sistemas de 32 WSV) é inspirada
bits e 64 bits, como Windows, Linux e outros. em um modelo
cliente-servidor,
\ Suporte a Multiprocessadores Simétricos (SMP): suporte para até quatro onde o
processadores no ambiente de uma máquina virtual, o que possibilita o Virtualization
aproveitamento dos aplicativos multithreaded. Service Provider
(VSP) executa na
\ Arquitetura de compartilhamento de hardware: estrutura criada para oferecer partição pai,
acesso de forma eficiente e segura aos drivers de dispositivos de E/S. Baseada em sendo o único
um modelo provedor-consumidor de serviço VSP/VSC)
( que será detalhado adiante. componente
autorizado a
\ Snapshot de máquina virtual: o Hyper-V oferece a capacidade de gerar imagens acessar os drivers
congeladas (snapshots) de uma máquina virtual em execução. Isso permite que de dispositivos
um usuário possa retornar facilmente a um estado anterior e aprimorar a solução reais. As partições
filho executam o
de backup e recuperação de falhas.
Virtualization
\ Escalabilidade: por oferecer suporte a múltiplos processadores (e núcleos) e Service Client
acesso avançado à memória nas máquinas virtuais, pode-se fazer a (VSC), que oferece
drivers virtuais de
escalabilidade vertical do ambiente de virtualização, a fim de oferecer suporte a dispositivos. As
uma grande quantidade de máquinas virtuais, dentro de um determinado requisições feitas
servidor e, posteriormente, continuar a migração rápida para a escalabilidade a um driver virtual
horizontal, através de múltiplos servidores. são recebidas pelo
VSC, que as
\ Extensível: as interfaces e APIs do Hyper-V seguem o padrão Word Manufactorers reencaminha para
Identification (WMI), permitindo que desenvolvedores e fabricantes de software o VSP.
independentes produzam com rapidez ferramentas personalizadas, como utilitários
e aprimoramentos na plataforma de virtualização.
Versões
Existem basicamente duas versões de Hyper-V:
\ Windows Server 2008 Hyper-V;
\ Microsoft Hyper-V Server.
A tabela 7.1 compara as versões do Windows Server com Hyper-V com o Microsoft
Hyper-V Server, em relação às suas soluções de virtualização. O produto Microsoft
Hyper-V Server é mais simples e oferece apenas a opção de fazer a consolidação de
servidores e a definição de máquinas virtuais com diferentes sistemas operacionais.
Esta última característica permite que sejam criados ambientes de teste e
desenvolvimento de software para outras plataformas.
274
As versões do Windows Server x64 que suportam o perfil Hyper-V são: Windows V
r-
e
Server 2008 x64 Standard Edition, Windows Server 2008 x64 Enterprise Edition e p
y
H
Windows Server 2008 x64 Datacenter Edition. o
a
o
ã
ç
Necessidades da virtualização Microsoft Windows Windows Windows u
d
Hyper-V Server Server 2008 Server 2008 Server 2008 ro
t
In
2008 Standard Enterprise Datacenter –
7
ol
Consolidação de servidores √ √ √ √ u
ít
p
a
Teste e desenvolvimento √ √ √ √ C
275
s
re \ Desempenho otimizado, devido ao baixo custo computacional oferecido pela
o
id arquitetura do Hyper-V;
v
r
e
S
d
e \ Suporte a máquinas virtuais que executam sistemas operacionais de 64 bits;
o
ã
ç
a
\ Acesso a até 64 GB de memória por máquina virtual.
ilz
a
tu Licenciamento Tabela 7.2
ir
V
Os direitos de virtualização por licenciamento de servidor em relação ao uso do Requisitos de
Hyper-V precisam ser considerados, variando de acordo com a versão do Windows licença para o
Server. A tabela abaixo ilustra os requisitos de licença por servidor. Hyper-V.
276
V
Figura 7.3 r-
e
Arquitetura VM 1 VM 3 VM 3 p
y
VM 1 VM2 VM3 H
monolítica ( Parent ) ( Child ) ( Child ) o
a
( Adm in )
versus Virt Stack
ã
o
ç
micronúcleo. Drivers Drivers Drivers
u
d
ro
t
Hipervisor In
–
Drivers
Drivers 7
Hipervisor ol
u
ít
p
a
Hardware Hardware C
Quando o Hyper-V é carregado pela primeira vez, é criada uma partição chamada de
partição raiz ou partição pai. Esta partição hospeda a instância do Windows Server
2008 que estava executando antes da habilitação do perfil Hyper-V. A partição pai
controla os dispositivos de hardware e responde pela alocação de memória em si,
além de solicitar ao hipervisor a criação das partições filho, que não têm acesso
direto ao hardware.
277
s
re Figura 7.4
o
id
v
Partição pai Máquina virtual Máquina virtual Máquina virtual Arquitetura do
r
S
e hipervisor.
e Enlightened Enlightened
Enlightened Enlightened
Unenlightened
d Windows Server 2008 Windows Windows
Linux SOWindows
convidado
o
ã SO convidado SOGuest OS
convidado Guest OS
ç
a
ilz
a
tu Pilha Pilha Pilha
I/O I/O
ir de E/S de E/S de
Stack
E/S Stack
V VSPs
Linux
VSCs VSCs
VSCs VSCs
Drivers Pilha
de E/S
(dispositivos
VMBus VMBus VMBus emulados)
VMBus
Hipervisor
Hardware
Consolidação de servidores
As empresas são pressionadas a simplificar o gerenciamento e reduzir os custos, ao
mesmo tempo em que precisam manter e aprimorar suas vantagens competitivas,
como flexibilidade, confiabilidade, escalabilidade e segurança. O uso do Hyper-V
para a consolidação de vários servidores em um único sistema físico, mantendo ao
mesmo tempo o isolamento, ajuda a suprir tais necessidades. Um dos principais
benefícios da consolidação de servidores é a redução do custo total de propriedade
(TCO), não apenas por diminuir os requisitos de hardware, mas também por reduzir
os custos com energia, refrigeração e gerenciamento.
278
Continuidade de negócios e recuperação de desastres V
r-
e
A continuidade de negócios é a capacidade de minimizar o tempo de inatividade p
y
H
programado e também o não programado. Isso inclui o tempo gasto em funções de o
a
rotina, como manutenção, backup e interrupções de energia não previstas. O ã
o
ç
Hyper-V contém recursos para prover a continuidade de negócios, como backup em u
d
tempo real e migração rápida, permitindo assim que as empresas atendam aos ro
t
In
parâmetros de tempo de ativação e resposta. –
7
ol
u
A recuperação de desastres é o ponto central da continuidade de negócios. ít
p
a
Desastres naturais, ataques mal-intencionados e mesmo os problemas simples de C
configuração, como conflitos de software, podem degradar os aplicativos e os
serviços, até que os administradores resolvam os problemas e restaurem os dados
de backup. Com o aproveitamento das capacidades de agrupamento do Windows
Server 2008, o Hyper-V oferece suporte à recuperação de desastres (Disaster
Recovery – DR) dentro dos ambientes dos datacenters, utilizando as capacidades de
agrupamento geograficamente dispersas. A recuperação rápida e confiável de
desastres ajuda a garantir o funcionamento das capacidades de gerenciamento
remoto e a perda mínima de dados.
Desenvolvimento e teste
Desenvolvimento e teste geralmente são as tarefas que podem usufruir muito da
tecnologia Hyper-V. Através do uso de máquinas virtuais, as equipes de
desenvolvimento podem criar e testar uma ampla variedade de cenários de teste, em
um ambiente seguro e independente, o qual aproxima perfeitamente a operação dos
servidores físicos e clientes. O Hyper-V maximiza a utilização dos hardwares de
teste, reduzindo custos, melhorando o gerenciamento do ciclo de vida e aprimorando
a cobertura dos testes. Com recursos abrangentes de suporte aos sistemas
operacionais convidados e pontos de verificação, o Hyper-V é uma ótima plataforma
para ambientes de desenvolvimento e testes.
Datacenter dinâmico
O Hyper-V, em conjunto com as soluções de gerenciamento de sistema já existentes,
como o Microsoft System Center, pode ajudar a criar um datacenter dinâmico, com
sistemas de auto-gerenciamento e agilidade operacional. Por meio de recursos como
a reconfiguração automatizada de máquinas virtuais, o controle flexível de recursos e
a migração rápida, é possível criar um ambiente de TI dinâmico, que utiliza o
Hyper-V não somente para resolver problemas, mas também para antecipar o
aumento de demanda.
279
s
re Gerenciamento com Hyper-V
o
id
v
r
e \ Hyper-V Manager
S
e
d \ System Center Virtual Machine Manager (SCVMM)
o
ã
ç
a
ilz O Hyper-V pode ser gerenciado por duas principais ferramentas: a própria do
a
tu Hyper-V, chamada de Hyper-V Manager, ou uma ferramenta externa chamada
ir
V
Systems Center Virtual Machine Manager (SCVMM).
Hyper-V Manager
\ Interface MMC
\ Funcionalidades
Funcionalidade do MMC:
\ Criar e gerenciar máquinas virtuais, redes virtuais e discos virtuais;
\ Exportar/importar máquinas virtuais;
\ Fazer snapshots de máquinas virtuais.
System Center Virtual Machine Manager (SCVMM)
\ Conceito
\ Propriedades
\ Cenários
\ Recursos
280
Cenários V
r-
e
p
y
\ Consolidação de servidor de produção H
o
a
\ Aumento da agilidade operacional o
ã
ç
u
d
\ Gerenciamento integrado ro
t
In
–
7
Consolidação de servidor de produção ol
u
ít
p
a
À medida que as organizações buscam consolidar seus servidores de produção, o C
SCVMM oferece uma maneira de transferir o conhecimento sobre o sistema e o
ambiente através do processo de virtualização, ajudando a manter a continuidade do
conhecimento. Pela consolidação de vários servidores de produção com o Virtual
Server 2005 R2 ou com a virtualização do Windows Server, as empresas reduzem o
custo total de propriedade geral e ainda mantêm um framework unificado de
gerenciamento em seus ambientes físico e virtual.
Gerenciamento integrado
Recursos do SCVMM
\ Identificação de candidatos à consolidação
\ Disposição inteligente
\ Aprovisionamento de servidores
\ Biblioteca central
\ Aprovisionamento de autoatendimento
O SCVMM se concentra em requisitos únicos de máquinas virtuais, sendo projetado
para permitir a maior utilização possível dos servidores físicos, gerenciamento
centralizado de infraestrutura de máquina virtual e rápido aprovisionamento de
novas máquinas virtuais.
281
s
re Recursos disponíveis no SCVMM:
o
id
v
r
S
e Identificação de candidato à consolidação
e
d
o
ã
ç O primeiro passo na migração de um centro de dados físico com um modelo de
a
ilz carga de trabalho por servidor é identificar as cargas de trabalho físicas apropriadas
a
tu para a consolidação no hardware virtual. Os fatores de decisão para determinar os
ir
V
candidatos adequados se baseiam em vários pontos, como desempenho histórico,
características de pico de carga e padrões de acesso. O SCVMM utiliza os dados
históricos de desempenho existentes no banco de dados do System Center Operations
Manager para listar os candidatos à consolidação em ordem de classificação.
Disposição inteligente
Aprovisionamento de servidores
Biblioteca central
Aprovisionamento de autoatendimento
282
Snapshots com o Hyper-V V
r-
e
p
y
\ Instantâneo da máquina virtual H
o
a
o
\ Backup do estado da máquina virtual ã
ç
u
d
\ Testes e desenvolvimento ro
t
In
\ Reduz o desempenho da máquina virtual em produção –
7
ol
u
Os snapshots de uma máquina virtual são arquivos baseados no estado, nos dados ít
p
a
do disco e na configuração da máquina virtual num determinado ponto no tempo. É C
possível tirar vários snapshots de uma máquina virtual, mesmo quando ela está
ativa. Em seguida, pode-se reverter a máquina virtual a qualquer um dos estados
anteriores, aplicando o snapshot apropriado. É possível usar tanto o Hyper-V
Manager como o Virtual Machine Connection para fazer um snapshot. Todas as
tarefas que podem ser realizadas com snapshots estão disponíveis através do
Hyper-V Manager, como aplicar ou excluir snapshots e exibir a lista de todos os
snapshots existentes para uma máquina virtual específica.
Uma das situações mais apropriadas para o uso dos snapshots refere-se ao
desenvolvimento e teste de atividades, incluindo a utilização da máquina virtual
como um servidor de teste para testar as atualizações e hotfixes, antes de implantá-
los nos servidores de produção. Não é recomendável utilizar snapshots em
máquinas virtuais que prestam serviços sensíveis no tempo, tais como serviços do
Active Directory (AD), ou quando o desempenho ou a disponibilidade de espaço de
armazenamento é crítica.
283
s
re \ Os snapshots exigem espaço de armazenamento adequado, sendo armazenados
o
id
v
como arquivos .avhd no mesmo local no disco rígido virtual. Vários snapshots
r
S
e podem rapidamente consumir uma grande quantidade de espaço de
e
d armazenamento. Quando o Hyper-V Manager é usado para excluir um snapshot,
o
ã
ç o snapshot é removido da árvore de snapshots, mas o arquivo .avhd não é
a
ilz excluído até a máquina virtual ser desligada.
a
tu
ir
V
Live Backup
\ Conceito
\ Métodos básicos
É possível efetuar backup automático das máquinas virtuais e seus dados sem
qualquer downtime, caso o sistema operacional convidado tenha suporte ao Volume
Shadow Copy Service (VSS). Para implementar os cenários de backup e recuperação
é preciso usar um aplicativo de backup compatível com o gravador VSS do Hyper-V.
Para usar o backup do Windows Server, será preciso adicionar uma chave de registro
ao gravador VSS do Hyper-V.
Há dois métodos básicos que podem ser usados para realizar um backup:
Método usado quando for preciso fazer o backup dos dados de um repositório que
não possui suporte do gravador VSS do Hyper-V. Nesse caso, o aplicativo de backup
é executado no sistema operacional convidado da máquina virtual.
284
O processo de backup em fita tira vantagem da funcionalidade de fita de backup V
r-
e
virtual do Hyper-V. Por exemplo, se um servidor incorpora um script que automatiza p
y
H
o backup dos dados para a fita, este processo continua sendo utilizado se o servidor o
a
é convertido para máquina virtual. ã
o
ç
u
d
ro
t
In
Avanços com o Windows Server 2008 R2 Hyper-V –
7
ol
\ Armazenamento dinâmico de máquina virtual u
ít
p
a
\ Live Migration C
Live Migration
Live Migration é um dos mais novos recursos do Windows Server 2008 R2 Hyper-V.
Mais adiante, neste capítulo, descreveremos este recurso em detalhes, incluindo
informações sobre como ele move as máquinas virtuais em execução e descreve
cenários onde é particularmente útil, além dos seus requisitos de implementação.
285
s
re A SLAT usa a funcionalidade de CPU disponível nos processadores Intel, que
o
id
v
suportam as tabelas de página estendida, e nos processadores AMD, que possuem a
r
S
e Indexação Rápida de Virtualização (Rapid Virtualization Indexing) para reduzir a
e
d carga de tradução de endereços físicos convidados para endereços físicos reais. Isso
o
ã
ç reduz significativamente o tempo de CPU do hipervisor e economiza memória para
a
ilz cada máquina virtual, permitindo que o computador físico trabalhe mais, utilizando
a
tu menos recursos do sistema. O core parking de CPU permite a economia de energia,
ir
V
agendando a execução da máquina virtual em apenas alguns dos núcleos de CPU
do servidor e colocando o resto em estado “sleep”.
286
Alta disponibilidade V
r-
e
p
y
\ Guest clustering H
o
a
o
\ Host clustering ã
ç
u
d
\ Quick Migration ro
t
In
\ Live Migration –
7
ol
\ Live Migration vs Quick Migration u
ít
p
a
O Windows Server 2008 com Hyper-V oferece duas soluções para Alta C
Disponibilidade (HA): Hyper-V Guest Clustering Hyper-V Host Clustering. No Hyper-V
Guest Clustering, o serviço de clusters é executado no sistema operacional
convidado, dentro da máquina virtual. Nessa configuração, as aplicações dentro das
máquinas virtuais é que estão com alta disponibilidade. A figura 7.5 ilustra o cluster
em uso por duas máquinas virtuais hospedadas em um mesmo servidor físico. Se o
servidor falhar, ou se houver problema na partição pai do Windows, as duas
máquinas virtuais falharão juntas.
Guest Clustering
A segunda solução de uso do Hyper-V Guest Clustering, com mais de um servidor, é
apresentada na figura 7.6. Aqui, o cluster é realizado entre duas máquinas virtuais
instanciadas em servidores físicos distintos. Neste caso, se um servidor físico (ou
mesmo a partição pai) falhar, a aplicação em cluster continuará disponível. O
detalhe deste cluster é que a conexão com o sistema de armazenamento (storage)
tem que ser feita via iSCSI (os iSCSI initiators executam dentro do sistema
operacional convidado), pois só assim a máquina virtual pode se comunicar com o
sistema de armazenamento sem precisar da partição pai.
Figura 7.5
Partição pai Máquina virtual A Máquina virtual B
Clustering
(mesmo servidor SO Enlightened
SO
físico). Windows Server 2008 convidado Windows
convidado
(Windows Guest OS
(Windows
Server 2003) Server 2008)
I/O
Windows Stack
Windows
Cluster Failover
Services Clustering
VSCs
iSCSI SAN
Storage
VMBus
287
s
re
o
id
v
r Partição pai Máquina virtual A Partição pai Máquina virtual B
e
S
e
d SO SO
o Windows Server 2008 convidado Windows Server 2008 convidado
ã
ç
a (Windows (Windows
ilz Server 2003) Server 2008)
a
tu
ir
V Windows Windows
Cluster Failover
Services Clustering
iSCSI SAN
Storage
Figura 7.6
Principais características do Hyper-V Guest Clustering: Guest Clustering
(diferentes
\ Aplicações que executam nos sistemas operacionais convidados são as entidades
servidores
do cluster;
físicos).
\ A alta disponibilidade é da aplicação e não da máquina virtual;
\ O sistema operacional convidado (guest) precisa ser suportado pelo Hyper-V;
\ Requer que o sistema operacional convidado tenha capacidade de cluster;
\ Requer que o software de cluster tenha suporte a iSCSI;
\ Cluster tem de ser configurado em toda máquina virtual;
\ As cargas de trabalho (aplicações) devem ser cluster-aware.
Host Clustering
A segunda possibilidade para a alta disponibilidade é o Hyper-V Host Clustering. Neste
caso, o serviço de cluster é o próprio serviço de cluster do Windows Server 2008 64
bits, o failover clustering, executado na partição pai. Pode ser implementado em
sistemas de armazenamento (storage) do tipo DAS, iSCSI e FC SAN. As máquinas
virtuais são como recursos de cluster e não precisam de serviços de cluster nos
sistemas operacionais convidados. O requisito é que os arquivos de máquinas virtuais
no storage sejam acessados por todos os servidores físicos que fazem parte do cluster.
Este é o tipo de cluster mais recomendado, pois permite uma manutenção planejada e
uma melhor distribuição das cargas das máquinas virtuais. Um cluster Hyper-V Host
pode ter até 16 servidores físicos e ser implantado nas versões de 64 bits Enterprise e
datacenter. A figura 7.7 ilustra o uso do Hyper-V Host Clustering.
288
V
r-
e
p
y
H
Parent
Partição
Partition
pai Virtual
MáquinaMachine
virtualA Virtual
MáquinaMachine
virtualA Parent
Partição
Partition
pai Virtual
MáquinaMachine
virtualA o
a
o
ã
SO OS
Guest SO OS
Guest SO OS
Guest ç
Windows
Windows Windows
Windows u
convidado
(Windows convidado
(Windows convidado
(Windows d
Server
Server 2008
2008 (Windows
Server 2003) (Windows
Server 2003) Server
Server 2008
2008 (SUSE 2003)
Server Linux ro
t
(Full or Core) Server 2003) Server 2003) (Full or Core) Enterprise In
Server 10) –
7
Windows Windows Windows ol
u
ít
Windows Cluster Cluster Windows Cluster
Failover Services Services Failover Services p
Clustering Clustering a
SAN
Storage
C
(S )
AS,iSCSI
, or FC
Hiper-V
Hiper-V
Hypervisor
Hypervisor Hiper-V Hypervisor
Dell PowerEdge
Dell PowerEdge
Server Server Dell PowerEdge Server
O Hyper-V Host clustering permite tanto o failover planejado, conhecido como Quick
Migration/Live Migration, quanto o failover não planejado. O Hyper-V permite a
Quick Migration (migração rápida) de uma máquina virtual em execução, de um
sistema físico hospedeiro para outro, com um tempo de inatividade mínimo,
aproveitando as capacidades já conhecidas de alta disponibilidade das ferramentas
de gerenciamento do Windows Server e do SCVMM.
Recovery Point
Objective Quick Migration
Processo que O Quick Migration combina a virtualização baseada em hipervisor do Windows com
estima o quanto
será necessário
o cluster failover disponibilizado nas versões Windows Server 2008 Enterprise e
retroceder no Windows Server 2008 datacenter. O Quick Migration não apresenta Recovery Point
tempo para obter Objective (RPO) zero, pois tanto o sistema operacional convidado quanto a carga de
uma cópia trabalho da máquina ficam indisponíveis por algum tempo, enquanto são executados
consistente para a os procedimentos de cluster. Este tempo normalmente varia entre quinze segundos
reinicialização
até alguns minutos. Devido às características de cluster, e pela maneira com que o
correta.
serviço de cluster interage com o processador, é recomendado que os processadores
289
s
re dos servidores envolvidos no cluster sejam idênticos. No caso de failover não
o
id
v
planejado, o serviço de cluster reinicializa automaticamente todas as máquinas
r
S
e virtuais em outro nó.
e
d
o
ã
ç Live Migration
a
ilz O Live Migration é integrado com o Windows Server 2008 R2 Hyper-V e com o
a
tu Microsoft Hyper-V Server 2008 R2. Com o Live Migration é possível mover as
ir
V
máquinas virtuais em execução de um servidor físico Hyper-V para outro, sem
qualquer interrupção de serviço ou tempo de indisponibilidade perceptível. Dessa
forma, o Live Migration oferece uma boa agilidade, pois os datacenters com
múltiplos servidores físicos Hyper-V serão capazes de mover as máquinas virtuais
(em execução) para um computador físico melhor, a fim de se obter maior
desempenho e escalabilidade ou otimizar a consolidação sem impacto para os
usuários. Ainda, o Live Migration torna possível manter as máquinas virtuais on-line,
mesmo durante a manutenção, aumentando a produtividade dos usuários e dos
administradores de servidor. Os datacenters também serão capazes de reduzir o
consumo de energia, aumentando dinamicamente as taxas de consolidação e
desligando os servidores físicos não utilizados durante os horários de menor demanda.
290
Gerenciamento do Live Migration V
r-
e
O SCVMM, usado em conjunto com o Live Migration, pode aumentar a capacidade p
y
H
de uma organização de responder às mudanças de níveis de uso e de requisitos de o
a
sua infraestrutura de TI. O SCVMM também é útil no gerenciamento de ã
o
ç
computadores físicos Hyper-V locais e remotos. Quando o SCVMM gerencia um u
d
computador Hyper-V, que foi configurado para alta disponibilidade, ele é capaz de ro
t
In
iniciar o Quick Migration (ou o Live Migration) a partir de seu console de –
7
gerenciamento. Isso fornece uma ferramenta única para todas as tarefas de ol
u
gerenciamento das máquinas virtuais, incluindo o Live Migration. ít
p
a
C
O Windows PowerShell é a base de todo o acesso ao servidor SCVMM. Como o
SCVMM Admin Console se baseia inteiramente no Windows PowerShell, é possível
criar scripts Windows PowerShell para serem executados pelo SCVMM. Ao empregar
o SCVMM para migrar uma máquina virtual, pode-se gerar o script PowerShell
associado. Assim é possível repetir essa ação no futuro via script ou alterá-lo para
realizar a migração de uma máquina virtual diferente, ou ainda, para alterar as
máquinas físicas de srcem e de destino da migração.
O Windows Server 2008 Hyper-V suporta o Quick Migration. O Windows Server 2008
R2 Hyper-V suporta tanto o Quick Migration como o Live Migration. O Live Migration
foi disponibilizado pela versão Windows 2008 Server R2. O Live Migration é integrado
ao Windows Server 2008 R2 Hyper-V e ao Microsoft Hyper-V Server 2008 R2.
291
s
re
o
id
v
r
e
S
e
d
o
ã
ç
a
ilz
a
tu
ir
V
292
7
Roteiro de Atividades
Introdução ao Hyper-V
Atividade 1 – Instalação do Hyper-V
293
s 4. Selecione a versão indicada pelo instrutor. O exemplo a seguir se utiliza do
re
o
id
v
Windows Server 2008 R2 Datacenter ( Full Installation). Após a seleção clique
r
S
e em Next.
e
d
o
ã
ç
a
ilz
a
tu
ir
V
Usuário: Administrator
Senha: Virt3sr
9. Após o logon,
apresenta linksserá
parainiciado o assistente
as tarefas de configuração
tradicionalmente do Windows
executadas Server, que
após a instalação. Em
Customize This Server, selecione Add roles para habilitar o serviço de virtualização.
10.Será iniciado o assistente de instalação de funções. Clique em Next.
294
7
11.Na etapa seguinte marque a opção Hyper-V e clique em Next. s
e
d
a
id
v
ti
A
e
d
ro
i
et
o
R
12.A tela seguinte trará uma série de observações sobre o Hiper-V. Prossiga com o
assistente clicando em Next.
13.Selecione a 2ª interface de rede onde serão criadas redes virtuais para conectar
as máquinas virtuais.
Gerenciamento do Hyper-V
Esta atividade deverá ser realizada em dupla.
295
s
re Durante o curso, o Gerenciador de Servidores será usado para acessar o snap-in de Snap-ip
o
id gerenciamento do Hyper-V. Objeto (código,
v
r
e programa), que se
S
e 1. Para acessar a interface de gerenciamento, utilize o atalho para o Gerenciador de integra a outro
d
o Servidores (Server Manager) na barra de tarefas. para funcionar
ã
ç
a
como parte de
ilz um todo.
a
tu
ir
V
296
3. Em Virtual Hard Disks e Virtual Machines, localize os caminhos padrão 7
s
e
utilizados para armazenar as imagens e configurações das máquinas virtuais. O d
a
Hyper-V mantém o particionamento efetuado na instalação do Windows (no caso id
v
ti
do padrão, uma única partição com sistema de arquivos NTFS). e
A
d
ro
i
et
o
R
297
s
re
o
id
v
r
e
S
e
d
o
ã
ç
a
ilz
a
tu
ir
V
8. Configure a interface de rede virtual na rede privada. Para isso, acesse Control
Panel à Network and Internet à Network and Sharing Center.
298
Atividade 2 – Acesso ao servidor de ISOs 7
s
e
d
a
id
Esta atividade deverá ser realizada em dupla. v
ti
A
e
d
No HyperV, o acesso ao servidor com as imagens utilizadas para instalação de máquinas ro
i
virtuais deve ser feito através de uma unidade de rede mapeada no hipervisor. et
o
R
1. Abra o Windows Explorer. Na barra lateral, localize o item Network e clique com
o botão direito. Selecione o item Map network drive.
2. Pasta
Selecione a unidade Z para acessar o compartilhamento e preencha o campo
conforme instrução prévia.
Endereço do servidor: 192.168.1.254
Pasta: isos
Para digitar o símbolo “\”, altere o idioma do teclado para EN conforme indicado na
próxima figura.
299
s
re
o
id
v
r
e
S
e
d
o
ã
ç
a
ilz
a
tu
ir
V
300
7
Marque a opção Do not show this page again e clique em Next. s
e
d
a
id
v
ti
A
e
d
ro
i
et
o
R
301
s
re
o
id
v
r
e
S
e
d
o
ã
ç
a
ilz
a
tu
ir
V
302
7
2. Observe que, por padrão, o disco virtual criado utiliza conexão IDE. s
e
d
a
id
v
ti
A
e
d
ro
i
et
o
R
3. São adicionadas às máquinas virtuais portas seriais que podem ser acessadas no
hipervisor através de uma abstração de named pipe (FIFO), permitindo que
aplicações na máquina virtual se comuniquem com aplicações no hipervisor sem
a utilização de rede.
4. Em Automatic Start Action, observe os parâmetros para inicialização da
máquina virtual.
303
s
re
o
id
v
r
e
S
e
d
o
ã
ç
a
ilz
a
tu
ir
V
304
8
Gerenciamento do Hyper-V
Infraestrutura de hardware
\ Processador
\ Memória
\ Armazenamento
\ Rede
\ Outros componentes
Processador
O Hyper-V precisa de processadores com características específicas, como possuir
arquitetura de 64 bits, oferecer suporte de hardware à virtualização (Hardware
Assisted Virtualization – HAV) e ter o modo Hardware Enforced Data Execution
Prevention (DEP) aplicado por hardware disponível e habilitado. Os processadores
Intel-VTx e AMD-V contemplam esses três requisitos.
305
s
re configurações de virtualização assistida por hardware (HAV) e DEP aplicado por
o
id
v
hardware estão disponíveis na BIOS. Entretanto, os nomes das configurações podem
r
S
e diferir dos nomes do catálogo. Para saber se um determinado modelo oferece
e
d suporte ao Hyper-V, deve-se verificar com o fabricante do servidor.
o
ã
ç
a
ilz A versão de lançamento do Hyper-V conta com suporte em computadores físicos
a
tu com até 16 processadores lógicos. Entretanto, há um hotfixes disponível
ir
V
(KB956710) para aumentar o número máximo em até 24 processadores virtuais.
Um processador lógico pode ser de núcleo único ou de vários núcleos (multicore).
Pode-se configurar até 4 processadores virtuais em uma máquina virtual. Observe
que o número de processadores virtuais com suporte a um sistema operacional
convidado pode ser menor. Alguns exemplos de sistemas com suporte e o número
de processadores lógicos que oferecem:
\ Sistema quad-core com processador único que oferece 4 processadores lógicos.
\ Sistema quad-core com processador duplo que oferece 8 processadores lógicos.
\ Sistema quad-core com processador quádruplo que oferece 16 processadores lógicos.
Memória
A quantidade máxima de memória que pode ser usada é determinada pelo sistema
operacional, conforme segue:
\ Windows Server 2008 Enterprise e Windows Server 2008 Datacenter: o
computador físico pode ser configurado com até 1 TB de memória física, e as
máquinas virtuais que executam uma dessas edições podem ser configuradas
com até 64 GB de memória por máquina virtual.
\ Windows Server 2008 Standard: o computador físico pode ser configurado com
até 32 GB de memória física, e as máquinas virtuais que executam essa edição
podem ser configuradas com até 31 GB de memória por máquina virtual.
Armazenamento
O Hyper-V oferece suporte a uma variedade de opções de armazenamento. Os
seguintes tipos de armazenamento físico podem ser utilizados com um servidor que
executa o Hyper-V:
\ Disk Array Subsystem (DAS): é possível usar Serial Advanced Technology
Attachment (SATA), Parallel Advanced Technology Attachment (PATA), Serial
Attached SCSI (SAS), SCSI, USB e Firewire.
\ Storage Area Network (SAN): pode utilizar tecnologias Internet SCSI (iSCSI),
Fibre Channel e SAS. A Microsoft não oferece suporte a NAS (armazenamento
conectado à rede) para o Hyper-V.
306
É possível configurar uma máquina virtual para usar os seguintes tipos de V
r-
e
armazenamento: p
y
H
o
\ Dispositivos virtuais IDE: cada máquina virtual oferece suporte a até 4 d
to
dispositivos IDE. O disco de inicialização, também chamado disco de boot, deve e
n
estar conectado a um dos dispositivos IDE. O disco de inicialização pode ser m
ia
c
rígido virtual ou físico. Embora uma máquina virtual deva usar um dispositivo n
re
IDE virtual como o disco de inicialização do sistema operacional convidado, você e
G
tem várias opções ao selecionar o dispositivo físico que fornecerá o –
8
armazenamento para o dispositivo IDE virtual. Por exemplo, é possível usar o
u
l
tí
qualquer um dos tipos mencionados de armazenamento físico. p
a
Embora o desempenho de E/S dos dispositivos SCSI e IDE físicos possa diferir
bastante, isso não é verdadeiro para dispositivos SCSI e IDE virtualizados no
Hyper-V. Os dispositivos de armazenamento IDE e SCSI do Hyper-V oferecem alto
desempenho de E/S, quando os serviços de integração são instalados no sistema
operacional convidado.
Rede
O Hyper-V oferece uma variedade de configurações e opções para atender a
diferentes requisitos de rede. A rede do Hyper-V contém o seguinte suporte:
\ Cada máquina virtual pode ser configurada com até 12 adaptadores virtuais de
rede: 8 podem
de rede ser Odotipo
herdado”. tipo“adaptador
“adaptadordederede”
rede”oferece
e 4 podem serdesempenho
melhor do tipo “adaptador
e
requer um driver para máquina virtual incluso nos pacotes de ser viço de integração.
\ Cada adaptador de rede virtual pode ser configurado com um endereço MAC
estático ou dinâmico.
307
s
re \ Cada adaptador de rede virtual oferece suporte de VLAN integrado e pode
o
id receber um canal VLAN exclusivo.
v
r
e
S
d
e \ Pode-se ter um número ilimitado de redes virtuais com até 512 máquinas
o
ã virtuais por rede.
ç
a
ilz
a
tu Não é possível conectar uma rede virtual a um adaptador de rede sem fio. Como
ir
V
resultado, não é possível oferecer recursos de rede sem fio a máquinas virtuais.
Outros componentes
O Hyper-V oferece suporte para a criação de dispositivos de E/S virtuais comuns às
máquinas físicas, como:
\ Unidade de DVD: uma máquina virtual tem uma unidade de DVD virtual por
padrão quando é criada. As máquinas virtuais podem ser configuradas com até 3
unidades de DVD conectadas a um controlador IDE. Elas oferecem suporte a até
4 dispositivos IDE, mas um dispositivo deve ser o disco de inicialização. Uma
unidade de DVD virtual pode acessar CDs e DVDs, arquivos .iso ou mídia física.
Entretanto, apenas uma máquina virtual pode ser configurada para acessar uma
unidade de CD/DVD física por vez.
\ Porta serial (COM): cada máquina virtual é configurada com duas portas (COM)
seriais virtuais que podem ser conectadas a um canal (pipe) nomeado para
comunicação com um computador físico local ou remoto. Nenhum acesso a uma
porta COM física é disponibilizado por uma máquina virtual.
\ Unidade de disquete: cada máquina virtual está configurada com uma unidade
de disquete
(.vfd virtual,
). Nenhum queapode
acesso umaacessar
unidadeosdearquivos
disquetecontidos
física é no Virtual Floppypara
disponibilizado Disk
máquinas virtuais.
Pode-se utilizar o Hyper-V para configurar e usar várias máquinas virtuais ao mesmo
tempo. O número específico depende de dois fatores. Um fator é a disponibilidade
dos recursos físicos no servidor que executa o Hyper-V. O outro fator é a capacidade
máxima do Hyper-V. É possível configurar até 512 máquinas virtuais em um servidor
que executa o Hyper-V. Com os recursos físicos apropriados, a versão de lançamento
do Hyper-V oferece suporte a até 128 máquinas virtuais em execução ao mesmo
tempo. Um hotfix (KB956710) está disponível para aumentar para 192 o número
máximo de máquinas virtuais em execução.
308
Sistemas operacionais convidados V
r-
e
O Hyper-V oferece suporte para sistemas operacionais convidados da família p
y
H
Microsoft Windows e GNU/Linux, sendo capaz de executar sistemas operacionais o
d
convidados de 32 bits e 64 bits ao mesmo tempo. No caso da família Windows, é to
n
possível usar as seguintes edições de 32 e 64 bits do Windows Server 2008 como e
m
um sistema operacional convidado, com suporte em uma máquina virtual ia
c
n
configurada com 1, 2 ou 4 processadores virtuais: re
e
G
–
\ Windows Server 2008 Standard e Windows Server 2008 Standard sem Hyper-V; 8
o l
\ Windows Server 2008 Enterprise e Windows Server 2008 Enterprise sem Hyper-V; u
tí
p
a
\ Windows Server 2008 Datacenter e Windows Server 2008 Datacenter sem Hyper-V; C
Discos suportados
Os tipos de disco utilizados pelo Hyper-V recaem em dois grandes grupos: Virtual
Hard Disk (VHD) e pass-through. Um Virtual Hard Disk (VHD) é um arquivo que
reside em uma partição formatada a que a partição pai tem acesso. Este arquivo
aparece para o sistema operacional convidado como um disco com um conjunto de
blocos em estado bruto. A próxima figura ilustra o uso de VHD.
Disk C:\
1 C:\
C:\
Disk D:\
2
D:\
\VM1 VHD. D:\
D D
:
\\VM2_1 VH .
D:
\\VM2_2 VHD .
309
s
re Um disco pass-through é um disco físico mapeado diretamente em uma máquina
o
id
v
virtual. Para a partição pai o disco está off-line e o acesso direto para escrita e
r
S
e leitura não está disponível. Os requisitos de E/S para a máquina virtual são passados
e
d através da partição pai para o disco. Com a liberação da partição pai, sobram ciclos
o
ã
ç adicionais de CPU para processar as máquinas virtuais. Quando mapeados para um
a
ilz disco pass-through, o sistema operacional convidado tem acesso direto aos blocos
a
tu brutos do storage físico. A figura a seguir ilustra o uso de pass-through.
ir
V
SOconvidado SOconvidado
Windows Server 2008
Disk 1 C:\
C:\
C:\
Disk 2
D:\
Disk 3
Disk 4
Discos e armazenamento
\ Opções de armazenamento em máquinas virtuais
\ Criação de discos rígidos virtuais
\ Discos físicos para máquinas virtuais
310
V
Cenário HDVirtualSCSI SCSI Local HD Virtual SCSI Remoto r-
e
Local diretamente SCSI diretamente p
y
H
conectado Remoto conectado o
d
to
Tipo de Armazenamento Armazenamento SAN, Fibre SAN, Fibre e
n
do arquivo
virtual .vhd é determinado
proporciona durante aem
melhor desempenho suacomparação
criação. Esse tipooutros
com de disco rígido
tipos,
porque os discos rígidos virtuais fixos são armazenados em um bloco contíguo no
sistema operacional de gerenciamento.
311
s
re \ Expansão dinâmica: o disco rígido virtual de expansão dinâmica é aquele em
o
id
v
que o tamanho do arquivo .vhd cresce à medida que os dados são gravados no
r
S
e disco. Esse tipo permite o uso mais eficiente do espaço em disco. Você precisará
e
d monitorar o espaço em disco disponível para evitar ficar sem espaço no sistema
o
ã
ç operacional de gerenciamento.
a
ilz
a \ Diferenciação: um disco rígido virtual de diferenciação armazena as diferenças
tu
ir do disco rígido virtual no sistema operacional de gerenciamento. Isso permite
V
isolar as alterações em uma máquina virtual e manter um disco rígido virtual em
um estado inalterado. O disco de diferenciação no sistema operacional de
gerenciamento pode ser compartilhado com máquinas virtuais e, como prática
recomendada, deve permanecer como “somente leitura”. Se ele não for “somente
leitura”, o disco rígido virtual da máquina virtual será invalidado.
Com discos rígidos virtuais, cada máquina virtual oferece suporte a até 512 TB de
armazenamento. Os discos físicos diretamente conectados a uma máquina virtual
não têm limite de tamanho, a não ser a limitação do sistema operacional convidado.
Quando um novo disco rígido virtual é criado, são necessários um nome e um local
de armazenamento. Os discos são armazenados como arquivos .vhd, o que os torna
portáteis, mas também representa um risco de segurança potencial. É preciso
eliminar esse risco tomando algumas precauções, como armazenar os arquivos .vhd
em um local seguro. Não se deve criar o disco rígido virtual em uma pasta marcada
para criptografia. O Hyper-V não oferece suporte ao uso de mídia de armazenamento
se o Encrypting File System tiver sido usado para criptografar o arquivo .vhd.
Entretanto, é possível usar os arquivos armazenados em um volume que use
Criptografia da Unidade de Disco BitLocker do Windows.
312
Ao usar discos físicos diretamente conectados a uma máquina virtual, deve-se ter ciência V
r-
e
de três limitações: esse tipo de disco não pode ser expandido dinamicamente; não é p
y
H
possível usar discos de diferenciação com eles e nem gerar snapshots do disco rígido. o
d
to
n
Aspectos de segurança e
m
ia
c
n
\ Práticas recomendadas re
e
G
–
Pode-se proteger o servidor de virtualização utilizando as mesmas medidas usadas 8
o l
para proteger qualquer servidor que execute o Windows Server 2008. Além disso, é u
tí
p
preciso empregar algumas medidas extras para ajudar na proteção das máquinas a
C
virtuais, dos arquivos de configuração e dos dados. É preciso proteger as máquinas
virtuais em execução no servidor de virtualização de acordo com os procedimentos
de proteção desse tipo de servidor ou carga de trabalho. Por exemplo, se as diretivas
e os procedimentos exigirem a execução de um antivírus, este deve ser executado na
máquina virtual. Se você tiver um requisito de diretiva para segmentar o servidor
físico para uma rede particular, siga também a diretiva para a máquina virtual.
Uma instalação Server Core oferece a menor superfície de ataque e reduz o número
necessário de correções, atualizações e reinicializações para manutenção.
313
s
re Não conceder permissões aos administradores de máquina virtual no sistema
o
id
v
operacional de gerenciamento.
r
e
S
e
d De acordo com o princípio de privilégio mínimo, concede-se aos administradores de
o
ã
ç uma máquina virtual (às vezes chamados de administradores de departamento ou
a
ilz administradores delegados) as permissões mínimas necessárias. O gerenciamento
a
tu das permissões necessárias em todos os objetos associados a uma máquina virtual
ir
V
pode ser complexo e causar problemas de segurança potenciais se não for
manipulado corretamente. O controle de acesso baseado em função permite
especificar o controle de acesso em termos de estrutura organizacional de uma
empresa, por meio da criação de um novo objeto denominado “função”. É possível
atribuir uma determinada função a um usuário quando ele exerce um cargo. O
Hyper-V usa as diretivas do Gerenciador de Autorização para controle de acesso
baseado em função.
Como as máquinas virtuais possuem uma maior mobilidade e são mais rápidas de
implantar do que as máquinas físicas, há um risco maior de que uma máquina virtual
não totalmente atualizada ou com todas as correções aplicadas possa ser implantada.
Para gerenciar esse risco com eficiência, devem ser usados os mesmos métodos e
procedimentos de atualização de máquinas virtuais empregados na atualização de
servidores físicos. Por exemplo, se for permitido o uso de atualizações automáticas
com o Windows Update, Microsoft System Center Configuration Manager ou outro
método de distribuição de software, é necessário verificar se as máquinas virtuais
estão atualizadas e/ou com as correções aplicadas antes de serem implantadas.
Por padrão, nenhuma rede virtual está configurada para o sistema operacional de
gerenciamento. É recomendado o uso de um adaptador de rede dedicado para
gerenciar o servidor que executa o Hyper-V e não o expor ao tráfego de rede não
confiável. Não se deve permitir que máquinas virtuais utilizem este adaptador de
rede. É recomendado que sejam usados um ou mais adaptadores de rede dedicados
diferentes para a rede da máquina virtual. Isso permite aplicar níveis diferentes de
configuração e diretiva de segurança de rede para as máquinas virtuais. Por
exemplo, é possível configurar a rede para que as máquinas virtuais tenham acesso
de rede diferente em relação ao sistema operacional de gerenciamento, incluindo o
uso de VLANs, IPsec, Proteção de Acesso à Rede (NAP) e Microsoft Forefront Threat
Management Gateway.
314
Usar a Criptografia de Unidade de Disco BitLocker para proteger os recursos. V
r-
e
p
y
H
Funciona com os recursos de hardware e firmware de servidor para oferecer o
d
criptografia de unidade de disco e inicialização de sistemas operacionais seguros, to
n
mesmo quando o servidor não estiver ativo. Isso ajuda a proteger os dados se um e
m
disco for roubado e instalado em outro computador para mineração de dados. A ia
c
n
Criptografia de Unidade de Disco BitLocker também ajuda a proteger os dados se re
e
G
um invasor usar um sistema operacional diferente ou executar uma ferramenta de –
ataque a software para acessar um disco. 8
o l
u
tí
p
A perda de um disco físico representa um risco maior em cenários de pequenas e a
C
médias empresas e também escritórios remotos, onde a segurança física do servidor
pode não ser tão rigorosa como em um datacenter corporativo. Entretanto, o uso da
Criptografia de Unidade de Disco BitLocker faz sentido para todos os computadores.
Use a Criptografia de Unidade de Disco BitLocker em todos os volumes que
armazenam arquivos de máquina virtual, incluindo discos rígidos virtuais, arquivos
de configuração, snapshots e qualquer recurso de máquina virtual, como imagens
ISO e disquetes virtuais. Para um nível de segurança mais alto que contenha
inicialização segura, a Criptografia de Unidade de Disco BitLocker requer o hardware
Trusted Platform Module (TPM).
Quando um servidor empregado para virtualização não for mais usado, por exemplo em
um cenário de teste ou desenvolvimento, é recomendada a desativação das configurações
de BIOS de virtualização assistidas por hardware e necessárias ao Hyper-V.
Backup e Restore
\ Backup on-line e off-line
\ Processo de restauração (restore)
\ Considerações sobre máquinas virtuais em cluster
315
s
re Como visto na sessão anterior, o Hyper-V oferece duas possibilidades diferentes de
o
id
v
execução do backup: a partir do servidor que o executa e a partir do sistema
r
S
e operacional convidado. No entanto, é necessário planejar a estratégia de backup em
e
d função da compatibilidade entre as soluções de backup e armazenamento. Alguns
o
ã
ç pontos a considerar:
a
ilz
a \ Discos rígidos virtuais: oferecem a melhor compatibilidade e podem ser
tu
ir armazenados em muitos tipos de mídia física.
V
316
Quando não for possível realizar um backup on-line, será feito um backup off-line. V
r-
e
Esse tipo de backup resulta em algum tempo de inatividade. Vários fatores podem p
y
H
afetar o tempo necessário para a realização de um backup off-line. Se a máquina o
d
virtual estiver em execução ou pausada, ela será colocada em um estado “Saved” to
n
como parte do processo de backup off-line. Após a conclusão do backup, a máquina e
m
virtual retornará ao seu estado atual. ia
c
n
re
e
G
Processo de restauração –
O processo de restauração (restore) é direto, desde que as recomendações descritas 8
o l
anteriormente sejam seguidas quando os backups forem criados. Isso inclui seguir u
tí
p
as etapas recomendadas para assegurar que os dados não inclusos em um backup a
C
de servidor completo possam ser recuperados ou criados novamente.
Entretanto, se o conjunto de backups contiver mídia sem suporte para gravador VSS,
é preciso seguir uma etapa adicional. Primeiro, é necessário restaurar todo o sistema
ou uma máquina virtual, dependendo das circunstâncias. Na sequência, é feita a
restauração da mídia sem suporte ao VSS no sistema operacional convidado. Ao
tentar restaurar uma máquina virtual enquanto ela estiver em execução, ela será
desativada e excluída antes da restauração do backup.
317
s
re Redes virtuais
o
id
v
r
e \ Noções básicas
S
e
d \ Rede e máquinas virtuais
o
ã
ç
a \ Configurando VLANs – redes locais virtuais
ilz
a
tu
ir
V
É possível criar redes virtuais no servidor Hyper-V para definir várias topologias entre
as máquinas virtuais e o servidor de virtualização. Usando o Gerenciador de Rede
Virtual (acessado pelo Gerenciador Hyper-V), tem-se a opção de três tipos diferentes
de redes virtuais.
\ Redes virtuais externas: permitem que as máquinas virtuais se comuniquem
com servidores localizados externamente e com o sistema operacional de
gerenciamento (partição pai). Esse tipo ainda possibilita que máquinas virtuais
no mesmo servidor físico se comuniquem entre si.
\ Redes virtuais internas: permitem a comunicação entre máquinas virtuais no
mesmo servidor físico e o sistema operacional de gerenciamento. A rede virtual
interna é uma rede virtual não associada a um adaptador de rede físico. Esse
tipo é geralmente usado para criar um ambiente de teste, onde é preciso
conectar as máquinas virtuais a partir do sistema operacional de gerenciamento.
\ Redes virtuais privadas: permitem a comunicação apenas entre máquinas
virtuais no mesmo servidor físico. A rede virtual privada é uma rede virtual sem
um adaptador virtual no sistema operacional de gerenciamento. As redes virtuais
privadas geralmente são usadas quando é preciso isolar as máquinas virtuais do
318
Quando se instala o Hyper-V e se cria uma rede virtual externa, o sistema V
r-
e
operacional de gerenciamento usa um novo adaptador de rede virtual para conexão p
y
H
à rede física. As conexões de rede são compostas pelo adaptador de rede srcinal e o
d
pelo novo adaptador de rede virtual. O adaptador de rede físico srcinal não tem to
n
nada associado a ele. Entretanto, o adaptador de rede virtual tem todos os e
m
protocolos padrão e os serviços associados a ele. ia
c
n
re
e
G
O Hyper-V associa o protocolo de serviço de rede virtual a um adaptador de rede –
físico quando uma rede virtual externa é criada. Deve-se estar ciente de que a 8
o l
conectividade de rede externa será interrompida temporariamente quando uma rede u
tí
p
virtual externa for criada ou excluída. a
C
Uma vez criada, a rede virtual funciona como uma rede física, exceto pelo fato de
que o comutador é baseado em software, e as portas podem ser adicionadas ou
removidas dinamicamente conforme necessário.
Quando uma rede virtual externa for configurada, todo o tráfego de rede será
encaminhado pelo comutador virtual. Por esse motivo, recomendamos usar pelo
menos um adaptador de rede físico adicional para o gerenciamento do tráfego de
rede. O comutador virtual funciona como um comutador físico e encaminha o
tráfego de rede pela rede virtual ao seu destino. A figura a seguir é um exemplo de
rede virtual externa.
Computador físico
Figura 8.4
Rede virtual Máquina virtual A Máquina Virtual B
externa.
Aplicativo de rede Aplicativo de rede
Adaptador de rede
Adaptador de rede
da máquina virtual
da máquina virtual
Aplicativo de rede
Internet
319
s
re Em redes virtuais internas, só é permitida a comunicação entre máquinas virtuais no
o
id
v
mesmo servidor físico e entre máquinas virtuais e o sistema operacional de
r
S
e gerenciamento. A próxima figura ilustra um exemplo de rede virtual interna.
e
d
o
ã Computador físico Figura 8.5
ç
a
ilz Rede virtual
a Máquina virtual A Máquina Virtual B
tu interna.
ir
V Aplicativo de rede Aplicativo de rede
Adaptador de rede
Adaptador de rede
da máquina virtual
da máquina virtual
Aplicativo de rede
Comutador
físico
Use uma rede virtual privada quando quiser permitir a comunicação apenas entre
máquinas virtuais no mesmo servidor físico. A figura seguinte mostra um exemplo
de rede virtual privada.
320
V
Figura 8.6 Computador físico r-
e
Rede virtual p
y
Máquina virtual A Máquina Virtual B H
privada. o
d
Aplicativo de rede Aplicativo de rede to
n
e
m
ia
c
n
re
e
Adaptador de rede Adaptador de rede G
da máquina virtual da máquina virtual –
8
o l
u
tí
p
a
Aplicativo de rede C
A máquina virtual está logicamente conectada a uma porta na rede virtual. Para que
um aplicativo de rede da máquina virtual se conecte externamente, primeiro ele é
encaminhado através do adaptador a uma porta lógica na rede virtual externa, a
qual a VM está vinculada. O pacote de rede é direcionado ao adaptador de rede
físico e para uma rede física externa.
321
s
re rede a essa porta. Até que essa determinação seja feita pela rede virtual, os pacotes
o
id
v
de rede serão enviados a todas as portas virtuais.
r
e
S
e
d Configurando VLANs
o
ã
ç O Hyper-V oferece suporte a Redes Locais Virtuais (VLANs), e como a configuração
a
ilz de uma VLAN é baseada em software, os computadores podem ser movidos
a
tu facilmente e ainda terem mantidas suas configurações de rede. Para cada adaptador
ir
V
de rede virtual conectado a uma máquina virtual, você pode configurar um ID de
VLAN para a máquina virtual. Você precisará do seguinte para configurar VLANs:
\ Um adaptador de rede físico que ofereça suporte a VLANs;
\ Um adaptador de rede físico que ofereça suporte a pacotes de rede com IDs da
VLAN já aplicados.
O modo de tronco permite que vários IDs da VLAN compartilhem a conexão entre o
adaptador de rede físico e a rede física. Para fornecer acesso externo às máquinas
virtuais na rede virtual em várias VLANs, é preciso configurar a porta na rede física
que deve estar no modo de tronco. Você também precisará conhecer as VLANs
específicas usadas e todos os IDs da VLAN usados pelas máquinas virtuais às quais
a rede virtual oferece suporte.
322
8
Roteiro de Atividades
Gerenciamento do Hyper-V
Atividade 1 – Instalação e configuração do Active Directory
1. Nesta etapanoutilizaremos
disponível servidor de uma
ISOs pré-instalação
em formato VHD.do Windows
Copie esteServer 2008
arquivo paraque estádesktop.
o seu
2. Inicie o processo de criação da nova máquina virtual:
Nome: Servidor_AD
Memória: 4000 MB
HD: 20 GB
Interface de rede: Rede Virtual
323
s 3. Após a instalação, conecte-se à máquina virtual e utilize o link Add roles.
re
o
id Selecione Active Directory Domain Services (AD) .
v
r
e
S
e
d
o
ã
ç
a
ilz
a
tu
ir
V
324
8
s
e
d
a
id
v
ti
A
e
d
ro
i
et
o
R
6. Selecione a opção
vazia e clique de Create
em Next .
a new domain in a forest para criar uma árvore
325
s
re 7. Nomeie o novo domínio de acordo com a identificação atribuída ao grupo e
o
id
v
clique em Next.
r
e
S
e
d
o
ã
ç
a
ilz
a
tu
ir
V
326
8
9. Na tela seguinte, habilite o serviço de DNS conforme solicitado pelo wizard e s
e
clique em Next. d
a
id
v
10. Será apresentado um aviso devido ao uso de IP dinâmico por parte do servidor. ti
A
e
Selecione a opção Yes. d
ro
i
11. Devido à infraestrutura DNS utilizada durante o curso, o servidor DNS não et
o
R
encontrará um servidor responsável pela árvore de nomes esr.edu.br e um alerta
será exibido. Clique em Yes para confirmar a utilização do domínio especificado.
12. Em seguida, serão solicitados os caminhos de armazenamento para os dados do
domínio. Mantenha os valores padrão e clique em Next.
13. Defina a senha de acesso ao novo domínio. Por simplicidade, utilize a mesma
senha definida para o usuário Administrator. Clique em Next.
14. Será exibida a tela Summary . Verifique as informações e clique em Next para
aplicar as configurações, e por fim clique em Finish e reinicie o servidor virtual.
327
s 4. A seguir, utilize os linksSystem à Change settings para alterar o nome e o
re
o
id domínio do Windows.
v
r
e
S
e
d
o
ã
ç
a
ilz
a
tu
ir
V
Talvez seja necessário aguardar alguns segundos para que a máquina virtual do
gerenciador de domínios complete sua inicialização, antes de efetuar logon como
usuário do domínio.
328
Atividade 2 – Instalação e configuração do System Center Virtual Machine 8
s
e
Manager 2008 R2 d
a
id
v
ti
O System Center Virtual Machine Manager (SCVMM) é um gerenciador de máquinas A
e
d
virtuais que executam sob o Hyper-V. O SCVMM é capaz de realizar tarefas ro
i
tradicionais como instanciação de máquinas virtuais a partir de templates e et
o
R
máquinas virtuais pré-configuradas, conversões de máquinas físicas em virtuais,
conversão de máquinas virtuais VMware em máquinas virtuais Hyper-V, biblioteca
centralizada de objetos úteis a uma infraestrutura virtual (VHDs, ISOs) etc.
No ambiente do curso, criaremos uma máquina virtual que utilizará um disco rígido
virtual que contém o SCVMM pré-instalado.
Esta atividade deverá ser realizada em dupla, porém apenas um dos alunos da
dupla efetuará a instalação e a configuração dos hosts.
329
s
re
o
3. Inicie a máquina virtual e conecte-se nela pelo Hyper-V Manager para
id configurá-la. Na primeira inicialização, serão solicitadas as opções básicas de
v
r
e configuração: Linguagem, Localidade, Tipo de teclado, Termos de licença, Nome
S
e
d do computador e Senha de acesso.
o
ã
ç
a
ilz
a
tu
ir
V
330
Atribua a senha Virt3sr para o usuário Administrator da máquina virtual que 8
s
e
executará o Virtual Machine Manager. d
a
id
v
ti
A
e
d
ro
i
et
o
R
331
s 6. Inicie a máquina virtual e faça logon no domínio com o usuário Administrator e a
re
o
id
v
senha previamente configurada.
r
e
S 7. Execute o atalho na área de trabalho da máquina virtual SCVMM Server
e
d
o Configuration para configurar o serviço. Durante a configuração, mantenha as
ã
ç configurações padrão informadas da alocação das máquinas virtuais e atribuição
a
ilz
a de portas. Aceite os termos de licença e desmarque a opção de utilizar o
tu
ir
V
Microsoft Update.
Estas não são as boas práticas de uso do Active Directory do Windows Server.
Porém, o objetivo desta prática é apenas visualizar e efetuar operações no SCVMM.
332
Esta atividade deverá ser executada individualmente. Cada aluno acessará o 8
s
e
hipervisor a partir da sua estação. d
a
id
v
1. Repita os passos das atividades anteriores e inclua a estação que você está ti
A
utilizando no domínio criado para o grupo. e
d
ro
i
2. Instale o PowerShell disponível na pasta de arquivos localizada no seu desktop. et
o
Mantenha as opções padrão de instalação e finalize a instalação. R
4. Aceite os termos de licença, marque para não utilizar o Microsoft Update, faça a
checagem dos pré-requisitos (existência do domínio NET Framework 3.0 e
PowerShell instalado), mantenha o local padrão de instalação, atribuição de
portas e finalize a instalação.
333
s 5. Inicie o software pelo atalho criado no seu desktop chamado SCVMM Admin
re
d
o Console. Para se conectar ao servidor, você deve inserir o endereço do servidor
i
v
r SCVMM e a porta de conexão. A porta de conexão deve ser a padrão. Veja no
e
S
e exemplo da imagem abaixo a conexão com o servidor scvmm-163, do domínio
d
o esr.edu.br na porta 8100.
ã
ç
a
ilz
a
tu
ir
V
334
Atividade 4 – Adicionando servidores Hyper-V ao SCVMM 8
s
e
d
a
id
Esta atividade poderá ser realizada em dupla, porém apenas um dos alunos da v
ti
dupla efetuará a adição dos hosts. A
e
d
1. Clique em Add host para adicionar um servidor Hyper-V ao SCVMM. ro
i
et
o
2. Selecione a localização do hipervisor (se ele se encontra em um domínio, fora de R
335
s 4. Na janela apresentada, clique em Search (1) e na seção Search results,
re
o
id
v
selecione os dois hipervisores do grupo e clique em Add (2). Os servidores
r
S
e selecionados aparecerão na seção Selected computers. Clique em OK (3) para
e finalizar a edição.
d
o
ã
ç
a
ilz Se você selecionar múltiplos servidores para adicioná-los de uma vez, as
a
tu credenciais que você informou precisam ser de uma conta de domínio com
ir
V
direitos administrativos em todos os servidores selecionados. Caso um dos
servidores não esteja com a role do Hyper-V habilitada, o SCVMM vai habilitá-la
como parte do processo de adição de servidores. Esse processo vai resultar no
reinício do servidor.
336
8
s
e
d
a
id
v
ti
A
e
d
ro
i
et
o
R
337
s
re
o
id
v
r
e
S
e
d
o
ã
ç
a
ilz
a
tu
ir
V
8. Ao iniciar a tarefa, será apresentada uma nova janela que mostrará todo o avanço
e os procedimentos realizados durante o processo. Espere o término do processo.
No término do processo, verifique no Host Group chamado All Hosts a presença dos
dois hipervisores do grupo.
338
Atividade 5 – Visão global do SCVMM 8
s
e
d
a
id
O SCVMM é organizado em 5 seções: Hosts, Virtual Machines, Library, Jobs e v
ti
Administration. Nessa atividade, conheceremos um pouco de cada seção da ferramenta. A
e
d
ro
i
Esta atividade deverá ser executada individualmente. Cada aluno acessará o et
o
R
hipervisor a partir da sua estação.
1. A primeira seção é chamada de Hosts. É responsável por agrupar todos os
hipervisores que estão sendo gerenciados pelo SCVMM. Nessa seção é possível
agrupar os hosts em grupos chamados Host Groups, filtrá-los a partir dos seus
status ou sistemas operacionais, visualizar o status de cada um dos hipervisores,
converter um servidor físico em um servidor virtual, entre outras funcionalidades.
339
s 2. A segunda seção é chamada de Virtual Machines. É responsável pelas operações
re
o
id
v
que podem ser feitas nas máquinas virtuais que estão rodando nos hipervisores.
r
S
e Nesta seção é possível iniciar, parar, pausar, salvar o estado, descartar um estado
e salvo, desligar a força e se conectar a uma máquina virtual. Também é possível
d
o
ã
ç
migrá-la para outro hipervisor ou para um storage, gerar um checkpoint (que
a
ilz nada mais é do que um snapshot do estado da máquina em determinado
a
tu momento), gerenciar os checkpoints, instalar os serviços de convidado, colocá-la
ir
V em modo de reparo, gerar um template a partir de uma máquina virtual,
cloná-la, guardá-la na Library do SCVMM, ver a conexão de rede da máquina
virtual e suas propriedades, filtrá-las a partir dos seus status, dono da máquina,
sistema operacional, data de adição e tags.
340
3. A terceira seção é chamada de Library . É a seção responsável pela criação de 8
s
e
objetos que darão suporte à infraestrutura virtual. É possível criar templates de d
a
máquinas virtuais pré-instaladas, perfis pré-definidos de hardware, perfis pré- id
v
ti
definidos de sistemas operacionais convidados, scripts PowerShell, imagens ISO, e
A
d
editar as configurações da biblioteca etc.
ro
i
et
o
R
341
s 4. A quarta seção é chamada de Jobs. É onde ficam listadas todas as operações
re
o
id
v
feitas no SCVMM.
r
e
S
e
d
o
ã
ç
a
ilz
a
tu
ir
V
342
8
s
e
d
a
id
v
ti
A
e
d
ro
i
et
o
R
343
s
re
o
id
v
r
e
S
e
d
o
ã
ç
a
ilz
a
tu
ir
V
344
Atividade 6 – Clonando máquinas virtuais no SCVMM 8
s
e
d
a
id
É possível clonar máquinas virtuais através do SCVMM para simplificar e agilizar o v
ti
processo de provisionamento de recursos para uma infraestrutura virtual. A máquina A
e
d
virtual que você deseja clonar precisa estar desligada no momento da clonagem. ro
i
Siga os passos abaixo para clonar uma máquina virtual pré-criada. et
o
R
1. Na seção Virtual Machines, selecione a máquina virtual que você deseja clonar,
vá ao menu Actions > Virtual Machines > clique em Clone. Ou clique com o
botão direito do mouse na máquina virtual desejada e clique na opção Clone.
345
s 2. Identifique a máquina virtual que estará sendo clonada, com um nome diferente
re
o
id
v
da máquina virtual que é fonte da clonagem.
r
e
S
e
d
o
ã
ç
a
ilz
a
tu
ir
V
346
4. Selecione o destino que será dado à máquina virtual que será criada. Você tem a 8
s
e
opção de colocar a máquina virtual em um hipervisor ( Place the virtual machine d
a
on a host) ou de guardar a máquina virtual na biblioteca para que a mesma id
v
ti
possa ser utilizada posteriormente (Store the virtual machine in the library ). e
A
d
Selecione a opção de colocar a máquina virtual em um host.
ro
i
et
o
R
347
s 6. Na etapa chamada Select Paths, selecione onde será o local de armazenamento
re
o
id
v
no host para os arquivos da máquina virtual. Para a atividade, mantenha a
r
S
e localização padrão.
e
d
o 7. Em Select Networks, conecte a placa de rede responsável pela rede externa ao
ã
ç adaptador de rede 1 (Network Adapter 1) da sua máquina virtual e avance.
a
ilz
a
tu
ir
V
348
8
s
e
d
a
id
v
ti
A
e
d
ro
i
et
o
R
349
s
re Atividade 7 – Configuração do cluster de Alta Disponibilidade
o
id
v
r
S
e Esta atividade deverá ser realizada em dupla.
e
d
o
ã
ç O Windows 2008 oferece um recurso para a agregação de servidores em clusters de
a
ilz alta disponibilidade. Para efetuar a instalação, utilize o atalho Add features na
a
tu janela de configurações iniciais.
ir
V
1. Adicione o recurso Cluster Failover em cada uma das blades do grupo, confirme
a instalação e aguarde o final do processo.
350
8
s
e
d
a
id
v
ti
A
e
d
ro
i
et
o
R
351
s 5. Em seguida, o assistente de validação da configuração do cluster será iniciado.
re
o
id
v
Clique em Next para prosseguir.
r
e
S 6. Em Testing Options selecione a opção para executar todos os testes fornecidos.
e
d
o Clique em Next e verifique a tela de confirmação. Clique em Next novamente e
ã
ç aguarde o fim do processo de validação.
a
ilz
a
tu
ir
V
352
7. Aguarde a conclusão do teste e observe se serão exibidos alertas devido à falta 8
s
e
de um disco compartilhado entre os nós do cluster. d
a
id
v
ti
A
e
d
ro
i
et
o
R
Conexão ao storage
Os seguintes passos devem ser feitos em todos os servidores do grupo.
1. Verifique se o servidor está se comunicando com a interface de rede do storage
no endereço 192.168.1.253.
2. No menu Start, localize a ferramenta iSCSI Initiator.
3. Quando executada pela primeira vez, a ferramenta oferece iniciar o serviço
iSCSI. Confirme com o botão Yes. Nas próximas inicializações, o serviço iSCSI
será ativado automaticamente.
4. Em Target, preencha o endereço com o IP 192.168.1.253 e clique no botão
Quick Connect.
353
s
re
o
id
v
r
e
S
e
d
o
ã
ç
a
ilz
a
tu
ir
V
6. Na aba Volumes and Devices, clique no botão Auto configure para descobrir as
LUNs disponíveis. Em seguida, clique em Ok para fechar a janela e salvar a lista
de descoberta.
354
7. Na interface de linha de comando do Windows (cmd ou PowerShell), execute a 8
s
e
ferramenta diskpart. Repita a sequência seguinte de comandos com i variando d
a
de 1 a 10 até localizar o disco correspondente à LUN associada ao grupo. id
v
ti
A
DISKPART> select disk i e
d
ro
i
O disco i é o disco selecionado et
o
R
DISKPART> detail disk
Identificação: LUN x
8. Uma vez descoberto o número do disco, utilize os comandos abaixo para ativá-lo.
DISKPART> select disk i
355
s
re
o
id
v
r
e
S
e
d
o
ã
ç
a
ilz
a
tu
ir
V
356
Atividade 9 – Migração de máquinas virtuais 8
s
e
d
a
id
Esta atividade deverá ser realizada em grupo. v
ti
A
e
d
Para que seja possível a migração “a quente” de máquinas virtuais entre servidores ro
i
de um cluster, é necessário que os discos virtuais estejam armazenados em um et
o
R
volume compartilhado pelos servidores. O Hyper-V não fornece ferramentas
automatizadas para mover uma máquina virtual de um disco local para o disco
compartilhado. Desta forma, é necessário efetuar esta movimentação manualmente.
1. No hipervisor, utilize o gerenciador de arquivos para navegar até a pasta
contendo os discos virtuais desejados.
2. Copie o arquivo VHD da máquina virtual desejada para o volume compartilhado.
3. Em Features do Gerenciador de Servidores, selecione o item Services and
Applications. Utilize o atalho Virtual Machines para criar uma nova máquina
virtual a partir de um disco existente.
357
s 4. Defina um nome para a nova máquina virtual (diferente do srcinal) e instrua o
re
o
id
v
Hyper-V a armazenar os arquivos de configuração no volume compartilhado.
r
e
S
e
d
o
ã
ç
a
ilz
a
tu
ir
V
358
7. Uma entrada para esta máquina virtual será criada dentro da árvore Services 8
s
e
and aplications da função cluster. d
a
id
v
ti
A
e
d
ro
i
et
o
R
359
s
re
o
id
v
r
e
S
e
d
o
ã
ç
a
ilz
a
tu
ir
V
Durante este processo, um novo endereço MAC será atribuído à interface de rede,
o que pode confundir a configuração já presente no disco. Em uma máquina
virtual Linux, utilize o comando$sudo dhclienteth1 para obter um endereço IP
para a nova interface.
360
10. Na sua estação execute o comando ping com parâmetro –t para o servidor e 8
s
e
certifique-se de que o firewall está desabilitado. d
a
id
v
11. Efetue a migração da máquina virtual de um servidor para outro. ti
A
e
d
ro
i
Observe que a conexão com o console da máquina virtual será perdida devido à et
o
R
alteração de servidor.
361
s 2. O assistente será iniciado apresentando a tela explicativa do serviço. Clique em
re
o Next para continuar. Na etapa seguinte serão apresentadas as opções de
id
v
r
e configuração do quórum. Selecione a opção No Majority: Disk Only.
S
e
d
o
ã
ç
a
ilz
a
tu
ir
V
Não desligue o servidor no qual o servidor de domínios do grupo está sendo executado.
362
8
s
e
d
a
id
v
ti
A
e
d
ro
i
et
o
R
363
s
re
o
id
v
r
e
S
e
d
o
ã
ç
a
ilz
a
tu
ir
V
364
9
Consolidação do conhecimento
Software
\ Hipervisores
\ Microsoft Hyper-V
\ VMware vSphere
\ Citrix XenServer
\ Gerenciamento
\ vCenter
\ XenCenter
\ Hyper-V SCVMM
365
s
re Hipervisores
o
id
v
Quando comparamos os diversos hipervisores disponíveis atualmente, percebemos
r
S
e que todos têm facilidades semelhantes; afinal de contas, as funções de um
e
d hipervisor são basicamente disparar máquinas virtuais e alocar recursos para cada
o
ã
ç uma delas. É importante notar que, apesar disso, cada um tem as suas
a
ilz particularidades, seja na arquitetura, nos moldes de licenciamento, no uso das
a
tu facilidades, nos preços etc.
ir
V
Microsoft Hyper-V
Figura 9.1
Partição pai Partições filhas
Arquitetura do
VMI Provider Hyper-V.
Virtual Machine
Management Service
Processos
de trabalho das
máquinas virtuais User Mode
Kernel Mode
Windows Server Windows Server Xen-Enabled
2008 2007, 2008 Linux Kernel
Non-
Hypervisor Linux VSC
Windows Windows
Kernel
(VSP)
Kernel
(VSC) Aware OS
Hypercall Adapter
Windows Hypervisor
No ambiente de rede, sempre que possível, deve-se escolher para as máquinas Dispositivos
virtuais os dispositivos sintéticos em lugar dos emulados. Na interface de sintéticos
configuração de rede para a máquina virtual essas denominações não aparecem, São os novos
dispositivos de
mas as associações são: alto desempenho
\ Legacy Network Adapter – emuladas; suportados pelo
Hyper-V.
\ Network Adapter – sintéticas.
366
o
t
n
e
O Hyper-V precisa de um número significativo de placas de rede (Network Interface m
i
c
Card – NIC). Como regra geral, sugere-se usar duas placas quad-port para e
h
n
complementar as duas interfaces de rede que vêm normalmente nos racks. Existem o
c
o
duas opções de discos para as máquinas virtuais: dinâmicos e fixos. d
o
ã
ç
\ Discos dinâmicos: permitem um melhor uso do espaço disponível no storage. Se a
d
il
for criado um disco dinâmico de 20 GB, a utilização efetiva pode ser de apenas o
s
n
alguns MBs e o crescimento se dá na medida da necessidade. o
C
–
\ Discos fixos: alocam todo o tamanho especificado. 9
ol
ut
í
p
Neste caso, o ganho de espaço no storage pelo uso de discos dinâmicos acarreta a
C
uma queda no desempenho. A sugestão é usar discos fixos para máquinas de
produção, e discos dinâmicos para testes e desenvolvimento.
O Hyper-V em produção não deve ser usado como uma workstation. Também
não deve ser permitido o uso da rede de gerenciamento para acessar a internet.
367
s
re VMware ESX/ESXi
o
id
v
r \ Melhorar a confiabilidade e a segurança
e
S
e
d \ Reduzir o número de correções
o
ã
ç
a
ilz
\ Simplificar a distribuição e a configuração
a
tu \ Reduzir o overhead de gerenciamento
ir
V
Figura 9.2
Console de serviço (COS)
VMware: ESX
vs ESXi.
Agentes de gerenciamento Baseado em vAPI sem agentes
Agentes de hardware
Baseado em CIM sem agentes
Console de serviço (COS)
vCLI, PowerCLI
Comandos para
configuração e
diagnósticos
Consoles de suporte local
VMwareESXclássico VMwareESXi
368
o
t
Figura 9.3 n
e
Arquitetura m
i
Agentes de Agentes de c
ESX Classic. monitoramento gerenciamento
e
h
n
de hardware de sistema o
c
o
d
o
ã
ç
Comandos CLI Framework de Agentes de a
d
il
para suporte gerenciamento infraestrutura o
e configuração VMware (NTP, Syslog etc) s
n
o
C
–
VM VM VM 9
Console de serviço ol
ut
aí
p
Suporte e
C
Busybox gerenciamento de
recursos das
Combina
máquinas virtuais
pequenas versões VMkernel
de vários utilitários
Unix em um único
e compacto Vejamos agora a arquitetura ESXi (figura 9.4), onde o console foi substituído por um
executável. É Shell Posix (baseado em Busybox) trazendo com isso uma atuação mais “Linux like”,
considerado o porém com menos funcionalidades e possivelmente menos segurança. Nesta
“canivete suíço” arquitetura os agentes rodam diretamente no vmkernel. Os módulos de terceiros,
dos Linux
como drivers e monitores de hardware, só são permitidos quando assinados
embarcados.
digitalmente pela VMware.
Figura 9.4
Arquitetura Comandos CLI
para suporte
ESXi.
e configuração
Gerenciamento Monitoramento
de sistema de hardware
sem agentes sem agentes
VM VM VM
Suporte e
Framework de Common Agentes de
gerenciamento de
gerenciamento Information infraestrutura
recursos das
VMware Model (CIM) (NTP, Syslog etc)
máquinas virtuais
369
s
re XenServer
o
id
v
A Citrix Systems tem uma história de desenvolvimento de sistemas voltados para
r
S
e distribuição de software em ambientes cliente/servidor, e por isso existe uma
e
d preocupação com os desktops virtuais, sendo disponibilizado um conjunto de
o
ã
ç mecanismos para ajuste e otimização, específico para esse workload.
a
ilz
a
tu Um dos problemas conhecidos da virtualização de desktops é o consumo de
ir
V
recursos mesmo quando não há nenhum usuário conectado. No XenServer 5.6 foi
introduzido o recurso chamado de Dynamic Memory Control (DMC), que tem por
finalidade eliminar a necessidade de reservar memória física antes mesmo de ligar
(power on) o desktop virtual. Esse mecanismo pode resolver, em parte, os problemas
de falta de memória, desempenho e número de máquinas virtuais, ou aumentamos
o número de máquinas virtuais com perda de desempenho. O problema é a
dificuldade para saber quando uma máquina virtual precisa de mais memória, a
quantidade de memória de que necessita e por quanto tempo.
Figura 9.5
Arquitetura
Pilha de virtualização SO SO
XenServer.
convidado convidado
Linux Windows
Pilha da Drivers de
Ferramenta SO SO
dispositivos convidado convidado
Xen
Windows Linux
Xen TM Hypervisor
Hardware
370
o
com que o XenServer pare de funcionar. Se o problema de desempenho for de E/S, é t
n
e
recomendado monitorar a rede e a atividade de disco, através de comandos como m
i
c
iostat, hdharm, tcpdump, netstat e ifconfig. Shell scripts podem ser construídos e
h
n
para facilitar esse levantamento. o
c
o
d
o
Esses dados foram tirados de Hypervisor management and optimization de Mike ã
ç
a
Laverick, publicado no SearchServerVirtualization.com. d
il
o
s
n
o
Soluções de gerenciamento C
–
Os sistemas de gerenciamento de plataformas virtualizadas são ferramentas 9
ol
indispensáveis para a administração desses ambientes. No decorrer do curso foram ut
í
p
apresentadas as ferramentas de gerenciamento, onde tivemos a oportunidade de instalá- a
C
las e usá-las. Os recursos de todas são semelhantes, e como cada uma é desenvolvida
para um determinado hipervisor, não é possível testar cada uma em ambientes
diferentes. A exceção é o XenCenter, disponibilizado para Xen e para Hyper-V.
Figura 9.6
Solução de
Windows Console de Provisionamento
gerenciamento
PowerShell administrador delegado UI
Hyper-V.
SCVMM Agent
Máquina Máquina
Virtual Virtual
Máquina Máquina
SQL Server 2005 Biblioteca Virtual Virtual
Edição expressa centralizada
371
s
re Plataforma de gerenciamento vCenter Figura 9.7
o
id
v
Solução de
r
S
e gerenciamento
e Desenvolvimento Distribuição Desempenho
d
acelerado confiável previsível
VMware vCenter.
o
ã
ç
a
ilz
a Gerenciamento de aplicações
tu
ir
V
vCenter
Gerenciamento da infraestrutura
Hardware
Para facilitar o trabalho das equipes de suporte, alguns procedimentos devem ser
utilizados para simplificar e otimizar o gerenciamento dos três principais hipervisores
do mercado: Citrix XenServer, Microsoft Hyper-V e VMware ESX.
372
o
Não importa o hipervisor escolhido para seu ambiente virtualizado; todas as três t
n
e
soluções têm praticamente as mesmas demandas e desafios a resolver: memória, m
i
c
CPU, disco (storage) e recursos de rede. e
h
n
o
c
o
Gerenciamento de memória d
o
ã
ç
\ Memory Overcommit a
d
il
o
s
\ Ballooning n
o
C
–
\ Transparent Page Sharing (TPS) 9
ol
\ ut
Swap aí
p
C
A memória deve ser quantificada antes da escolha do hipervisor, por ser o primeiro
recurso a se esgotar. É muito comum sistemas virtualizados terem desempenho
prejudicado por falta de memória, bem antes de esgotarem a capacidade de
processamento da CPU. Portanto, é muito importante no projeto de virtualização o
dimensionamento correto da quantidade de memória necessária para evitar perda de
rendimento. O ideal é configurar o máximo que for possível dentro do orçamento
disponível. A longo prazo, a utilização de um número menor de servidores com
grande quantidade de memória se mostra mais econômica do que o uso de um
número maior de servidores pequenos, em consideração a fatores como consumo de
energia, refrigeração e licenciamento.
373
s
re \ Swap: durante a inicialização de uma máquina virtual é criado um arquivo .vswp
o
id no disco, utilizado durante o processo de swapping. Quando o host sente a
v
r
e
S necessidade de fazer o swapping, transfere páginas da memória física da MV
e
d
o
para este arquivo, liberando essas páginas na memória física do host para serem
ã
ç
a
utilizadas por outras máquinas virtuais. O Hyper-V promete incorporar essa
ilz técnica a partir do Service Pack 1 com a denominação de memória dinâmica. Já
a
tu o XenServer utiliza ballooning, mas demanda a instalação de driver específico
ir
V
(balloon driver).
vCPU
Apesar da proliferação de CPUs multicore, no caso de ambientes virtualizados
quanto maior for a quantidade de máquinas virtuais criadas com mais de uma
vCPU, maior será o trabalho do hipervisor para escalonar em cada CPU as vCPUs
dos sistemas convidados. Uma dica é ter cuidado com o uso excessivo de vCPUs em
uma máquina virtual, pois o desempenho pode ser abaixo do esperado. O uso de
múltiplas vCPUs se aplica quando a aplicação foi desenvolvida para Colisões
multiprocessamento. Além disso, o excesso de vCPUs pode causar degradação do Mais de uma
sistema com o aumento de colisões no processo de escalonamento das vCPUs. vCPU executando
no mesmo núcleo,
ao mesmo tempo.
Normalmente, a utilização da mesma CPU por várias máquinas virtuais não
configura um problema; pelo contrário, esse mecanismo é o alicerce da
virtualização. O problema é o uso excessivo fazendo com que o servidor físico fique
sobrecarregado com a respectiva queda de desempenho dos sistemas convidados.
Importante lembrar que os recursos computacionais são finitos, e existem casos em
que aumentá-los pode ficar caro tanto em relação ao tempo quanto em relação ao
custo financeiro.
374
4 Bytes o
t
Figura 9.9 n
e
VLAN Tagging. m
i
c
e
h
n
Endereço Endereço VLAN Tag Tipo/ Frame o
Dados c
de Destino de Origem 802.1Q Tamanho Check o
d
o
ã
ç
a
d
il
o
s
n
2 Bytes 2 Bytes (Tag Control information) o
C
–
Canonical 9
Tag Protocol ID User Priority VLAN ID o
Format Indicator l
0x8100 (3 bits) (12bits) ut
(1 bit)
aí
p
C
Quantidades recomendadas
1. Pelo menos uma interface para o tráfego de gerenciamento.
2. Pelo menos duas interfaces para o tráfego das máquinas virtuais.
Live migration
Facilidade que 3. Pelo menos duas interfaces para o tráfego de dados de storage IP (NAS ou iSCSI).
permite mover
uma máquina 4. Pelo menos uma interface para live migration.
virtual de um
servidor físico para Em muitos datacenters é comum usar a interface de gerenciamento para fazer “live
outro, sem migration”, visto que o tráfego de gerenciamento pode ser controlado. O custo
interrupção do financeiro diminui, porém a segurança da instalação pode ser comprometida.
serviço ou da
aplicação que está
Sistemas de discos
rodando na
Um projeto de datacenter é bem-sucedido quando se consegue unir servidores
máquina virtual. poderosos com uma infraestrutura de storage igualmente capaz de suportar por anos
as necessidades das aplicações e dos usuários.
A escolha do tipo de storage para seu ambiente virtual não é simples, pois a oferta
engloba Network-Attached Storage (NAS) e também outras arquiteturas de Storage
Area Network (SAN) como Fibre Channel (FC), Internet SCSI (iSCSI) e Fibre Channel
over ethernet (FCoE).
Máquinas virtuais nada mais são do que arquivos levados para um servidor e,
através do hipervisor, executadas. As máquinas virtuais também precisam carregar e
descarregar dados (arquivos). Como esses arquivos estão todos disponíveis em um
servidor de discos, percebe-se a importância da escolha da forma de acesso a este
servidor. O uso de discos locais nos servidores impossibilita o uso de alguns recursos
avançados de virtualização, como “live migration” e alguns softwares de backup,
como o VMware Consolidated Backup (VCB). Portanto, o uso de storage
compartilhado é praticamente mandatório em um ambiente virtualizado. Então, na
hora de projetar o storage compartilhado, é importante considerar os custos de
manutenção e atualização.
375
s
re número de Logical Unit Number (LUNs), que dependendo do tamanho da
o
id
v
organização pode ser de centenas ou até de milhares. O aumento da largura de
r
S
e banda (bandwidth) não necessariamente aumentará o desempenho do sistema de
e
d discos. O aumento de desempenho pode ser alcançado com medidas que diminuam
o
ã
ç o acesso ao sistema, como a eliminação dos arquivos de swap do Windows.
a
ilz
a
tu Também pode ser uma boa estratégia configurar ambientes heterogêneos: empregar
ir
V
tecnologia SAN para aplicações de missão crítica e outras que sejam orientadas a
bloco, e usar NAS para as aplicações secundárias, por ser simples e mais barata.
Representa uma mudança drástica para ambientes SAN. Mais fácil de instalar,
configurar e gerenciar, com desempenho similar ao do FC – hoje já pode ser usado
com velocidade de até 10 GbE (Gigabit Ethernet) e com custos menores. Estudos
como o do Enterprise Strategy Group (ESG) demonstram que o custo com iSCSI
pode ser 30% menor em comparação ao de FC. Outras vantagens da tecnologia
iSCSI estão relacionadas à sua escalabilidade e segurança, já que pode usar a
encriptação do IPsec.
376
Em ambos os casos, a ferramenta propicia a flexibilidade para escolha das
funcionalidades desejadas e a entrada de dados é utilizada para determinar os
requisitos de storage, servidores e rede. A saída é uma lista de hardware suportada
pela Dell que atende aos requisitos iniciais.
Figura 9.10
Dell Virtualization
Advisor.
377
s
re
o
id
v
r
e
S
e
d
o
ã
ç
a
ilz
a
tu
ir
V
378
9
Roteiro de Atividades
Consolidação do conhecimento
O objetivo deste Roteiro de Atividades é efetuar o levantamento da infraestrutura
necessária para consolidação dos servidores, efetuando cálculos e a análise de
parâmetros de desempenho do hardware, software e serviços dos servidores da empresa.
379
s
re Observe a opção Realçar (Ctrl+H), que permite visualizar o item no gráfico.
o
id
v
r
S
e Categoria Medida de desempenho Valor obtido Tabela 9.10
e
d Medidas de
o Disco físico %Tempo de disco
ã
ç desempenho
a
ilz Memória Páginas/segundo
a
tu
ir Paginação % Uso de paginação
V
Agora chegou a hora de preparar o sistema para fazer a coleta por um período
maior. Crie um arquivo de log com os contadores da atividade anterior e faça a
coleta dos valores até o fim deste Roteiro de Atividades.
Nesta atividade será feita uma análise do desempenho de cada serviço. A aprovação
do serviço candidato ocorrerá com base no resultado deste relatório, que apontará o
motivo da virtualização ou não virtualização do serviço.
A equipe de TI realizou diversas reuniões para definir a forma como seria realizada a
coleta dos indicadores de seus servidores. Observando a utilização dos serviços foi
definido que – para não poluir os indicadores com informações obtidas em
momentos ociosos do sistema, como o período da noite e da madrugada – serão
realizadas 30 coletas, iniciando no dia 1 e terminando no dia 30, no horário
comercial, a fim de pegar o pico de trabalho de todos os setores da empresa (ADM,
RH, Comunicação, Diretoria, TI, Financeiro etc.) durante o mês.
Candidatos à virtualização
\ Baixa utilização do processador;
380
Não candidatos à virtualização 9
s
e
\ Alta e constante utilização de processador e memória; d
a
id
v
\ Trocas de contexto muito altas (> 100k/sec); ti
A
e
d
\ Periféricos especiais; ro
i
et
\ Serial, paralela, USB, SCSI, chaves externas, scanners, leitor de código de barras; R
o
381
s
re Complete a coluna “Indicado para virtualização” na tabela 9.12.
o
id
v
r
S
e Categoria Disco Memória Memória Paginação PhysicalD isk Processor
e disponível
d
o
ã
ç Medida de % Disk MBytes Pages / Sec % Uso de Current Disk %Processor
a
ilz
a desempenho Time paginação Queue Length Time
tu
ir
V Host1 2 1525 0 0 0 1
Host2 4 3108 3 11 0 2
Host3 0 2554 19 2 0 7
Host4 1 1553 2 2 0 1
Host5 3 2236 0 0 0 0
Host6 2 4544 20 1 0 13
Host7 1 2084 37 14 0 7
Host8 4 2143 3 3 0 1
Host9 2 1316 1 0 0 0
Host10 1 1350 1 4 0 1
Host11 3 1359 11 3 1 2
Host12 N/A N/A N/A N/A N/A N/A
382
Atividade 3 – Cálculo da memória virtual inicial 9
s
e
d
a
id
Nesta atividade calcularemos a quantidade inicial de memória que o sistema de v
ti
virtualização deverá conter. A partir deste ponto o administrador dos servidores A
e
d
poderá estimar se será ou não necessário investir na compra de mais memória. ro
i
et
\ Geralmente os servidores possuem um excesso de memória física instalada. Se R
o
Após calcular a VRAM inicial e saber os serviços que podem ser virtualizados, o que
podemos concluir?
383
s
re Atividade 4 – Consolidação dos serviços e sistemas operacionais para o plano
o
id de virtualização
v
r
e
S
e
d Para cada uma das plataformas de virtualização, indique os sistemas operacionais e
o
ã
ç serviços que poderão ser aproveitados no plano de virtualização. Aproveite para
a
ilz contemplar a atualização da versão do sistema operacional, quando necessário.
a
tu
ir
V
384
9
4. A solução suportará altadisponibilidade? Se não, o que seria necessário para suportar? s
e
d
a
id
v
ti
A
e
d
ro
i
et
o
R
7. Quantas
perder a máquinas
HA? virtuais adicionais e memória eu posso alocar antes de
385
s
re Atividade Complementar – Economia de energia
o
id
v
r
S
e Uma das principais etapas da consolidação de servidores é o cálculo do consumo de
e
d energia. Vamos trabalhar com os números para melhor visualização do benefício
o
ã
ç obtido, e tentar responder as perguntas:
a
ilz
a \ Qual será o retorno do investimento aplicado em relação ao consumo de energia?
tu
ir
V \ A empresa conseguirá alcançar seu objetivo de redução de consumo?
386
10
Caso de virtualização
\ Objetivo
\ O caso
\ Capacidades desenvolvidas
\ Objetivo
387
s
re Apresentando o caso
o
id
v
r
S
e Leia o artigo que descreve a implementação de solução de virtualização e
e
d consolidação de servidores no CPD da UFRGS usando o Citrix XenServer. Depois
o
ã
ç responda às questões propostas ao final.
a
ilz
a
tu Caso UFRGS
ir
V
{email marchi,foscarini,scheeren,francisco,leandro}@cpd.ufrgs.br
Resumo. Este artigo apresenta uma visão de como foi implementado o processo de
virtualização dos servidores do CPD da UFRGS, desde o processo de estudo de
soluções de virtualização ao uso efetivo da plataforma escolhida. Será explicado
também as modificações feitas nos Sistemas Operacionais a fim de obterem um
melhor desempenho nos servidores virtualizados, bem como sobre quais hardwares os
servidores foram alocados.
Introdução
Hardware
388
o
2x BladeCenter H 8853 4XU IBM ç
ã
a
z il
\ 10x BladeServer HS21 8852 PQG 2xQuad Xeon 2.6GHz 16GB RAM a
u
rti
\ 10x BladeServer HS21 8852 PQG 2xQuad Xeon 2.6GHz 8GB RAM v
e
d
o
s
2x Storage DS 4700 70A IBM a
C
–
0
\ 6x Expansão EXP810 1
o l
\ 73x HDD FC 300GB tu í
p
a
C
Os servidores e o espaço em discos deveriam ser utilizados para possibilitar a
atualização do hardware utilizado para os demais serviços da UFRGS, exceto
por algumas novas máquinas e uma parte do espaço em disco, que já tinham
destino definido. A melhor forma de utilizar racionalmente o novo hardware é
através da virtualização, pois é um conjunto pequeno (15 máquinas) com
processadores rápidos e quantidade considerável de memória.
Ferramentas de virtualização
Vmware ESXi
\ Na versão gratuita, é um subconjunto do Vmware ESX
\ Permite a utilização de Storage compartilhado para armazenamento dos
discos das máquinas virtuais
\ Permite desligar uma máquina e migrá-la entre hosts
que fazem parte de umpool.
Na versão paga existe ovMotion, que migra sem necessidade de desligamento
\ Compatibilidade com o hardware adquirido
389
s
re \ Migração de máquinas virtuais do Vmware Ser ver ou Vmware ESX
o
id
v
seria transparente
r
e
S \ Ferramenta poderosa para converter máquinas reais (Vmware Converter)
e
d
o
ã
ç
\ Compatibilidade com vários sistemas operacionais (Windows, *nix, *BSD)
a
ilz
a \ Ferramenta de administração já conhecida por nossos administradores
tu
ir
V
Xen open source
Debian tinha gerência apenas em modo texto, através dos scripts providos pelo
pacote xen-tools
CentOS tinha uma interface minimalista, ainda nas versões iniciais, baseada na
nova libvirt/virt-manager
Citrix XenServer 5
\ Versão Express (grátis) não possibilitava o uso de Storage compartilhado e
nem o uso de vlans
\ Versão Enterprise tinha suporte ao Storage compartilhado para
armazenamento dos discos das máquinas virtuais e ao Xen Motion
\ Ferramenta de gerência totalmente gráfica, a qual permite gerenciar
visualmente todo o ciclo de vida de uma máquina virtual
\ Custo da versão Enterprise era próximo de 20 vezes menor que o Vmware
\ Utiliza o CentOS no domínio de gerência, permitindo grande flexibilidade
de configuração
Baseados nas opções disponíveis, iniciamos a implantação de algumas
máquinas virtuais utilizando a versão gratuita do Vmware ESXi, para dar vazão
à demanda reprimida. Em paralelo estávamos procurando uma forma de
adquirir licenças do XenServer, o qual acreditávamos ser a solução que
utilizaríamos a longo prazo.
390
o
Instalação do XenServer ç
ã
a
z il
a
A instalação do XenServer é efetuada a partir de 2 CDs e consiste na instalação u
rti
do sistema operacional do domínio de gerência (dom0) e do hypervisor. v
e
d
o
s
O sistema operacional do domínio de gerência é o CentOS, atualmente na versão a
C
–
5.3 (Xenserver 5.5). A instalação cria 3 partições no disco, sendo que a 1ª 0
1
(sda1, 4GB) que contém os arquivos de boot e a base do CentOS, a 2ª (sda2, o l
4GB) onde será armazenado um backup da 1ª partição durante uma atualização tu í
p
a
de versão e a 3ª (sda3, restante do disco) que é disponibilizada como área para C
instalação de máquinas virtuais. Abaixo está um exemplo de particionamento
em uma máquina com um disco de 73GB.
[root@xen55 ~]# cat /proc/partitions
8 0 71288832 sda
8 1 4008186 sda1
8 2 4008217 sda2
8 3 63272002 sda3
/etc/init.d/ntpd restart
391
s
re chkconfig snmpd on
o
id
v
r /etc/init.d/snmpd start
e
S
e
d chkconfig iptables off
o
ã
ç
a chmod 755 /etc/init.d/firewall
ilz
a
tu chkconfig --add firewall
ir
V
chkconfig firewall on
/etc/init.d/firewall start
Futuras alterações nas configurações deverão ser feitas no servidor que contém
os arquivos fonte e replicadas para todos os servidores XenServer via rsync. É
importante que a configuração de firewall permita que todos os hosts XenServer
comuniquem-se livremente, além de ter uma configuração genérica, permitindo
que as mesmas regras sejam aplicadas em todos os hosts. Os scripts e arquivos
de configuração citados neste artigo estão disponíveis em [UFRGS 2010].
Resource Pool
392
o
ã
ç
a
z il
a
u
rti
v
e
d
o
s
a
C
–
0
1
o l
tu í
p
a
C
\subsection*{Network Deployment}
sistema bootável via rede, que executa a formatação dos discos e cópia de um
sistema operacional
393
s
re Todo o procedimento de criação das máquinas é feito através da interface
o
id
v
gráfica do XenCenter. Ao criar uma nova máquina virtual no XenCenter, deve ser
r
S
e escolhida a instalação do tipo Other install media, como visto na figura. O
e
d primeiro boot da máquina virtual deverá ser feito via rede, de forma a acessar a
o
ã
ç sistema de instalação.
a
ilz
a
tu
ir
V
394
o
/etc/sysctl.conf - xen.independent_wallclock=1 -- Desvincula o relógio de ç
ã
a
hardware do relógio do sistema. Necessário para permitir sincronização via ntp. z il
a
u
rti
/etc/init.d/firstboot -- Script que roda no 1º boot da máquina virtual, v
e
d
configurando nome, endereço de rede e senha de root, entre outros detalhes. o
s
a
C
–
Script de conversão FullVirt/ParaVirt 0
1
o l
No âmbito do XenServer, uma máquina virtual pode ser de dois tipos: tu í
p
a
C
Full-Virtualizada - O host virtual não precisa ter conhecimento de que é
virtualizado. O sistema operacional trabalha como se a máquina fosse real, com
drivers comuns. Dispositivos de hardware são emulados (disco, rede, USB, etc)
395
s
re de políticas restritivas no XenCenter, não era desejável que o seu acesso fosse
o
id
v
liberado a todos os operadores e administradores de máquinas hospedadas nos
r
S
e Resource Pools. Para suprir essa lacuna, foi instalado o XenCenterWeb.
e
d
o
ã
ç O XenCenterWeb era disponibilizado pela Citrix na forma de um appliance
a
ilz virtual e consiste em uma aplicação PHP rodando em um sistema Debian Etch.
a
tu Ainda é possível encontrar no site da Citrix um PDF com instruções de
ir
V
instalação [Citrix 2009b], mas o appliance não está mais disponível para
download devido a uma série de vulnerabilidades de segurança [SecurityTracker
2009] e possivelmente pela falta de manutenção do produto. Em nenhum
momento a Citrix suportou essa aplicação ou recomendou sua instalação,
deixando toda a responsabilidade com o administrador do sistema.
Na UFRGS (figura 10.3) este appliance está instalado em uma sub-rede privada,
a firewall para 5 hosts que tem direitos de uso. A autenticação é feita com
usuários locais e a permissão de acesso para cada máquina virtual é definida
através da adição de tags na sua configuração. Por exemplo, uma máquina que
contém somente a tag operacao só será acessível para o usuário autenticado
sob as credenciais deste usuário no XenCenterWeb. Figura 10.3
Appliance
A ferramenta atualmente recomendada pela Citrix é o xvp [XVP 2010], mas instalado em
ainda não foi testada pela nossa equipe. sub-rede privada.
396
o
6.2 TB Storage compartilhado ç
ã
a
z il
a
Pool Elsa - servidores do projeto Elsa Brasil u
rti
v
e
d
2 hosts BladeServer HS21 2x Xeon QuadCore 2.5GHz 16GB o
s
5 máquinas virtuais a
C
–
16 CPUs reais total, 17 CPUs virtuais alocadas 0
1
32GB memória total, 12GB alocado o l
tu í
p
a
Pool Prometheus - servidores de infraestrutura secundários, para tolerância a C
falhas (dns, proxy, email, etc)
Conclusão
Referências
397
s
re Virtual+Appliance+Setup.pdf
o
id
v
r
S
e Citrix (2010) – Requisitos para configurar um Resource Pool.
e
d http://docs.vmd.citrix.com/XenServer/5.5.0/1.0/en_gb/reference.html#pooling_
o
ã
ç homogeneity_requirements
a
ilz
a
tu SecurityTracker (2009) – Recomendações para instalação do XenCenterWeb.
ir
V
http://securitytracker.com/alerts/2009/Jul/1022520.html
398
Bibliografia
\ BARHAM, Paul et al. Xen and the art of virtualization. In: Symposium on
Operating Systems 19. Proceedings. Bolton Landing, NY: AMC, 2003.
Disponível em:
http://www.cl.cam.ac.uk/research/srg/netos/papers/2003-xensosp.pdf
\ BARHAM, P.; DRAGOVIC, B.; FRASER, K.; HAND, S.; HARRIS, T.; HO, A.;
NEUGEBAUER, R.; PRATT, I. WARFILED, A.Xen and the Art of Virtualization.
SOSP, 2003.
\ BLADE.ORG. Blades platforms and network convergence. Piscataway, NJ:
Blade.org, 2008. Disponível em:
http://www.bladenetwork.net/userfiles/file/PDFs/Blade_WP03_net_convergence.pdf
\ CARISSIMI, Alexandre S. Virtualização: Princípios básicos e aplicações. In:
DORNELES, Ricardo V.; STEIN, Benhur; HOLBIG, Carlos; NAVAUX, Philippe O.
A. (Org.). ERAD 2009 – 9ª Escola Regional de Alto Desempenho. Porto Alegre,
2009, v. 1, p. 39-69.
\ CISCO SYSTEMS. Data Center Blade Server Integration Guide. San Jose, CA:
Cisco, c2006. Disponível em:
http://docstore.mik.ua/univercd/cc/td/doc/ solution/bladserv.pdf
\ CITRIX PRODUCT DEVELOPMENT TEAM. XenServer Administrator’s Guide
5.5.0. 1.0 ed. [s.l.]: Citrix, 2009. Disponível em: <http://download.alyseo.
com:81/contrib/Xensource/ISOs/5.5.0/XenServer-5.5.0-installation.pdf>
\ COMPUTERWORLD. Virtualização: eficiência sob medida. Rio de Janeiro; São
Paulo, 2009. Disponível em:
\ http://www.openinnovatio.org/wp-conte
nt/uploads/2009/09/EB_CW_Virtualizacao
.pdf
\ CLARK, Christopher et al. Live migration of virtual machines. In: Symposium on
networked system Design & Implementation. Proceedings. Berkeley, CA:
USENIX association, 2005. Disponível em:
http://www.cl.cam.ac.uk/research/srg/netos/papers/2005-migration-nsdi-pre.pdf
399
s
re \ CLARK, Tom.Designing Storage Area Network: a practical reference for
o
id
v
implementing Fibre Channel and IP SANs
. 2. ed. Boston, MA: Addison-Wesley, 2003.
r
e
S
e \ ____________________. IP SANs: a guide to iSCSI, iFCP and FCIP protocolos
d
o
ã
for Storage Area Networks. Boston, MA : Addison-Wesley, c2002.
ç
a
ilz \ DELL. Citrix XenServer 5.5 Dell edition: solution guide. Round Rock, TX: Dell,
a
tu 2009. Disponível em: http://support.dell.com/support /edocs/software/citrix/
ir
V
\ ____________________. Citrix XenServer Dell Edition Reference Architecture:
virtualization solutions engineering. Round Rock, TX: Dell, 2008. Disponível
em: http://i.dell.com/sites/content/business/solutions/ engineering-docs/en/
Documents/dell_xenServer_reference_architecture_ v1.1.pdf
\ ____________________. Dell VMware ESX/ESXi 3.5 Virtualization Reference
Architecture. Round Rock, TX: Dell, c2008. Disponível em: http://i.dell.com/
sites/content/business/solutions/whitepapers/en/Documents/virtualization_ref_
architecture_v1_1.pdf
\ ____________________. VMware ESX3.5 Update: Deployment Guide. Round
Rock, TX: Dell, c2007-2009.
\ DORNAN, Andy. Virtualização e múltiplos núcleos: como licenciar? Parte I.
InformationWeek, 2007. Disponível em:
http://www.itweb.com.br/noticias/index.asp?cod=44388
\ ____________________. Virtualização e múltiplos núcleos: como licenciar?
Parte II. InformationWeek, 2007. Disponível em:
http://www.itweb.com.br /noticias/index.asp?cod=44389
\ ESG. Research Report: The Impact of Server Virtualization on Storage. Milford,
MA: Enterprise Strategy Group, 2007.
\ HALETKY, Edward L. VMware ESX server in the enterprise: planning and
securing virtualization servers. Upper Saddle River, NJ: Prentice Hall, c2008.
\ HAND, Steven et al. Controlling the XenoServer Open Platform. In: IEEE
Conference on Open Architectures and Network Programming. Proceedings. San
Francisco, CA: Institute of Electrical and Electronics Engineers, 2003. Disponível
em: http://citeseerx.ist.psu.edu/viewdoc/download?doi=10.1.1.11.9501&rep=r
ep1&type=pdf
\ HEWLETT-PACKARD. The AMD processor roadmap for industry standard-
servers. Palo Alto, CA: HP, 2008. Disponível em:http://h20000.www2.hp.com/
bc/docs/support/SupportManual/c00428708/c00428708.pdf
\ ____________________. The Intel processor roadmap for industry standard
400
a
\ LOWERY, J. Craig. 10 Gigabit Ethernet Unifying Fabric: Foundation for the f
a
r
Scalable Enterprise. Dell Power Solutions, 2007. Disponível em: g
io
l
http://www.dell.com/downloads/global/vectors/2007_gigabit.pdf b
i
B
401
re
s \ ____________________. The architecture of VMware ESXi . Palo Alto, CA:
o
id VMware, c2007. Disponível em:
v
r
S
e http://www.vmware.com/files/pdf/vmware_esxi_ architecture_wp.pdf
e
d \ ____________________. Understanding Full Vir tualization, Paravirtualization
o
ã
ç
a and Hardware Assist. Palo Alto, CA: VMware, 2007. Disponível em:
ilz
a http://www.vmware.com/files/pdf/VMware_ paravirtualization.pdf
tu
ir
V \ ____________________. Virtualization Overview. Palo Alto, CA: VMware, 2007.
Disponível em: http://www.vmware.com/pdf/virtualization.pdf
\ ____________________. VMware and VMotion and CPU Compatibility. Palo Alto,
CA: VMware, c2008. Disponível em: http://www.vmware.com/files/pdf/vmotion_
info_guide.pdf
\ ____________________. VMware Consolidated Backup: best practices and
deployment considerations for SAN environments. Palo Alto, CA: VMware,
c2007. (Best practices). Disponível em: http://www.vmware.com/files/pdf/vcb_
best_ practices.pdf
\ ____________________. VMware Consolidated Backup: Improvements in
version 3.5. Palo Alto, CA: VMware, c2008. Disponível em: http://www.vmware.
com/files/pdf/vcb_35_new.pdf
\ ____________________. VMware ESX Server using EMC Clariion Storage
Systems. Palo Alto, CA: EMC Corporation, c2007. Disponível em: http://www.
vmware.com/vmtn/resources/540
\ ____________________. VMware virtual networking concepts. Palo Alto, CA:
VMware, c2007. Disponível em: http://www.vmware.com/files/pdf/virtual_
networking_concepts.pdf
\ VON HAGEN, William. Professional Xen virtualization. Indianapolis, IN: Wiley
Pub., c2008.
402
a
f
a
r
g
io
l
b
i
B
403
Interconexão
de Redes de
Computadores
Administração
de Sistemas
Linux
Arquitetura e
Protocolos de
Rede TCP-IP Tecnologias
de Redes
Sem Fio
tou
es UI
AQ
Roteamento
Avançado
Grade curricular da
Escola Superior de Redes
esr.rnp.br
o
si c
Bá
Gestão da rio
segurança da e di á
informação term
In
NBR 27001, NBR27002
o
n ç ad
Ava
Áreas temáticas
Mídias de suporte à colaboração digital
Administração de sistemas
Conhecimento Segurança
Todos os cursos da ESR prévio recomendado
requerem inglês para leitura e Curso Governança de TI
noções de informática e Internet.
s
re
o
id
v
r
e
S
e
d
o
ã
ç
a
ilz
a
tu
ir
V
406
r
b
.
p
n
r
.
r
s
e
o aluno
uma simula completa
avaliação um ambiente de produção
e escolher para
a melhor fazer
solução
para a sua organização.
ISBN 978-85-63630-11-7
9 788563 630117