Vous êtes sur la page 1sur 27

Virtualização

Módulo 1 – Conceito

Virtualização para facilitar o gerenciamento

O desafio atual enfrentado pela indústria de tecnologia da informação (TI) é o de


continuar produzindo sistemas menores, mais leves e mais rápidos e, ao mesmo
tempo, encontrar melhores meios de gerenciar as complexidades das tecnologias
computacionais. A indústria direciona um grande esforço à segurança e ao
gerenciamento de informações e de dispositivos para a produção de sistemas mais
flexíveis, de modo a torná-los disponíveis aos usuários a qualquer tempo, em
qualquer lugar. O conceito de Virtualização de plataforma abre espaço para futuros
dispositivos poderosos, autônomos e confiáveis.

A Virtualização de plataformas pode ser definida como a criação de um sistema


computacional logicamente segmentado, que funciona em uma base real. As
plataformas virtuais são vistas pelo usuário e funcionam como se fossem
computadores físicos. Uma vez que são abstratas e divididas, a partir de bases
ocultas e delas mesmas, as plataformas virtuais são facilmente transportáveis e
robustas para simplificar a complexidade e, dessa forma, aumentam a segurança.

A Virtualização é uma forma de criar sistemas menos complexos, que dividem os


subconjuntos de sistemas em dispositivos mais gerenciáveis. Além disso, essa
medida pode proporcionar mais segurança ao sistema, à rede e aos aplicativos, pois
isola subsistemas potencialmente vulneráveis de sistemas subjacentes e de outras
plataformas virtuais.

O conceito de Virtualização inclui todas as camadas da plataforma – desde


aplicativos e sistemas operacionais a componentes, processadores e interconexões
da plataforma. Porém, vamos nos ater aos dispositivos de armazenamento e a
servidores, pois é nesse ambiente em que o mercado de Virtualização atua.

A maior utilização: storage

A Virtualização do armazenamento é o processo de consolidar vários dispositivos


físicos de diversos fabricantes e reorganizá-los em agrupamentos virtuais e lógicos,
ou em unidades de armazenamento. Essas unidades são apresentadas ao sistema
operacional para utilização pelos aplicativos e usuários finais adequados.

Apesar do recente aumento de interesse, a Virtualização do armazenamento não é


novidade, tanto no conceito quanto na prática. Definida há quase 20 anos na
computação em mainframes, a tecnologia está descobrindo uma nova oportunidade
e importância com a emergência das redes SANs (Storage Area Networks).

-1-
Com toda a empolgação em torno da virtualização da SAN, é fácil perder de vista os
benefícios imediatos desse processo, que podem ser obtidos também na
predominante arquitetura de armazenamento de dispositivos conectados diretamente
– DAS (Direct Attached Storage). Seja em mainframe, seja em ambientes de sistema
aberto, as tecnologias de Virtualização são utilizadas para simplificar e centralizar o
gerenciamento e para fornecer a flexibilidade no atendimento à demanda dos atuais
requisitos de dados.

A Virtualização elimina as restrições físicas, ao criar uma camada de abstração acima


do armazenamento físico em si, que é acessível como um agrupamento lógico de
storage e que pode ser alocado quando e onde for necessário. Essa camada oferece
a capacidade de combinar dispositivos físicos heterogêneos em entidades virtuais
projetadas para atender os requisitos individuais dos aplicativos.

Por exemplo, um agrupamento virtual de armazenamento pode ser criado utilizando-


se os discos físicos mais rápidos, a fim de otimizar o desempenho para um aplicativo
de missão critica, enquanto protege o usuário e o aplicativo dos detalhes da
implementação de hardware. Então, na medida em que o novo hardware se torna
disponível ou que as características do aplicativo se modificam, as alterações na
camada física podem ser realizadas sem interromper o acesso aos dados no
dispositivo lógico.

Conceito de Storage

Todas as empresas precisam armazenar informações e para isso utilizam um


dispositivo ou um suporte que pode retê-lo durante tempo prolongado, para ser
recuperado no momento necessário. Esse dispositivo é chamado de storage.

O armazenamento em rede permite a conectividade entre quaisquer servidores e


dispositivos de armazenamento, e também aumenta a capacidade das organizações
no sentido de migrar seus dados. O armazenamento em rede pode diminuir os
custos do processamento de informações, com o aumento do compartilhamento de
dispositivos e de capacidade, assim como por meio de comunicações mais eficientes.

Dessa forma, é criado o ambiente para a verdadeira computação global – a


capacidade de processar as mesmas informações em qualquer momento, a partir de
qualquer central de dados no mundo, com os dados e a execução de aplicativos
primários migrando para locais ideais, conforme a necessidade.

As configurações mais comuns são as já mencionadas redes SAN, dedicadas de


armazenamento, tipicamente construídas em torno de tecnologia de fiber channel,
que conectam os dispositivos de storage a um conjunto heterogêneo de servidores,
sobre uma base múltipla. Uma configuração SAN abriga, além de subsistemas de
disco, switches, hubs e bridges.

-2-
Já as redes NAS (Networked Attached Storage) configuram-se com um local de
armazenamento, em que os dados são transferidos usando protocolos como TCP/IP.
Uma NAS une os servidores aos subsistemas de storage. Com ela, os sistemas de
arquivos, em lugar dos volumes de informação sem processar (raw), estão
disponíveis na rede. O administrador de arquivos (file system) maneja e administra a
colocação real dos dados.

Necessidade recente

É uma realidade nas empresas o crescente volume de informações geradas por


novas aplicações, que exigem maior capacidade para suportar diferentes naturezas –
dados, voz e imagem. Esse fato, associado aos sistemas legados, passa a ser um
problema na maior parte das organizações.

A série de mainframes da IBM teve grande sucesso justamente por oferecer um


caminho contínuo de evolução, sem obrigar ninguém a abandonar legados de
hardware ou de software. Porém, o alto custo de hardware dos mainframes
encorajou a migração para os microcomputadores. Essa foi a chance de começar
tudo do zero, eliminando o legado de programas em COBOL, PL/1 e outros
específicos do mundo do mainframe.

Porém, poucos contavam que a microinformática acabaria formando também seu


legado, muito maior e bem mais heterogêneo do que o dos mainframes. E isso
reuniu equipamentos de diferentes fabricantes, com variadas aplicações, dificilmente
integrados. O legado é ruim, pois atrasa a evolução tecnológica, demandando
recursos que poderiam ser aplicados em uma arquitetura mais moderna. Além disso,
tende a manter o uso de tecnologias obsoletas, inclusive hardware.

Para minimizar o problema, surgiu a ferramenta de Virtualização, que auxilia no


tratamento dos legados. Geralmente, a Virtualização é assistida por hardware.
Embora esse recurso exista desde os mainframes, não é útil apenas para legados,
mas auxilia bastante no teste de novas tecnologias. O simples fato de o Microsoft
Windows rodar programas MS-DOS não deixa de ser uma espécie de Virtualização,
pois cada sessão DOS é um processador de 16 bits virtual.

Orçamento apertado

Com os orçamentos reduzidos, levando as empresas a analisar cuidadosamente seus


padrões de gastos, é especialmente importante usar todos os recursos tecnológicos
em sua total capacidade. Segundo o Gartner Group, cada dólar investido em storage
exige US$ 5 de recursos de TI para administrá-lo. Na medida em que os ambientes
continuam a evoluir e tornam-se cada vez mais complexos, aumenta a necessidade
de minimizar os crescentes custos de administrar quantidades de dados cada vez
maiores.

-3-
As tecnologias implementadas no ambiente de TI devem garantir uma estratégia de
gerenciamento simplificada e centralizada, com o objetivo de aumentar a eficiência
dos profissionais e reduzir custos. Geralmente, os usuários finais não estão
interessados nos aspectos físicos dos recursos de armazenamento de seus aplicativos
e sim em tempo de resposta, resultados, capacidade suficiente para armazenamento
de dados na medida em que a quantidade aumenta e ocorre redução ou eliminação
do tempo de desativação. Em resumo, os usuários se preocupam com a
disponibilidade e o acesso aos seus dados, e não com os aspectos físicos do
armazenamento. A Virtualização proporciona vários meios de acessar, gerenciar e
utilizar os recursos de storage existentes.

Por exemplo, um agrupamento virtual de armazenamento pode ser criado utilizando-


se os discos físicos mais rápidos, a fim de otimizar o desempenho para um aplicativo
de missão critica, enquanto protege o usuário e o aplicativo dos detalhes da
implementação de hardware. Então, na medida em que o novo hardware se torna
disponível ou que as características do aplicativo se modificam, as alterações na
camada física podem ser realizadas sem interromper o acesso aos dados no
dispositivo lógico. Existem muitas tecnologias de Virtualização de armazenamento
que têm evoluído, incluindo soluções de banda interna e externa (in-band e out-
band), com base em armazenamento e em hospedagem.

As soluções baseadas em hospedagem permitem que os discos sejam representados


como um agrupamento virtual para um único servidor host. Isso possibilita que o
pessoal de TI tenha mais flexibilidade em habilitá-los para torná-los completamente
independentes dos fabricantes de soluções de armazenamento. Embora os dados
estejam concentrados para acesso apenas por meio de um único servidor, esse pode
tornar-se altamente disponível, garantindo que os dados sejam utilizados. A
desvantagem em potencial dessa solução surge quando vários servidores exigem o
acesso compartilhado aos mesmos dados. Nesse caso, a duplicação dos dados ou
outros métodos de Virtualização de armazenamento podem ser considerados.

Emulação e Virtualização

Emulação é a recriação de um ambiente de trabalho sem qualquer relação necessária


com o ambiente-anfitrião e sem auxílio de hardware, enquanto a Virtualização
permite criar diversas máquinas virtuais. Uma utilidade menos óbvia da Virtualização
e da emulação é o desenvolvimento de software. Os jogos de 8 bits eram
desenvolvidos em computadores robustos, pois isso tornava fácil acompanhar o
funcionamento, instrução por instrução. Desenvolver diretamente na plataforma
desejada era quase impossível.

Mas isso é passado. Há muito tempo, os microcomputadores representam uma


plataforma auto-suficiente e de baixo custo para desenvolvimento.

-4-
E agora chegamos ao ponto em que um micro pode simular a si mesmo com
velocidade suficiente para uso normal. Hoje, as ferramentas de desenvolvimento
podem subir mais um degrau de qualidade e complexidade.

Uma empresa do Vale do Silício alega ter alcançado um dos objetivos mais
perseguidos da indústria da tecnologia: um emulador quase universal que permite
rodar softwares desenvolvidos para uma determinada plataforma, em qualquer
outra, praticamente sem quedas no desempenho. Isso inclui Macs, PCs e diversos
tipos de mainframes e servidores.

Segundo executivos da empresa, um emulador universal de computadores está para


a informática como a transformação de metais em ouro estava para a alquimia.
Muitos tentaram, todos falharam. Eles explicam que, embora vários esquemas
limitados de emulação tenham sido bem-sucedidos – a transição da Apple para a
plataforma PowerPC, ou a "transmutação de código" da arquitetura x86 feita pela
Transmeta –, ninguém jamais havia desenvolvido um emulador para processadores e
sistemas operacionais múltiplos.

O software foi desenvolvido inicialmente na Universidade Manchester (Reino Unido)


pelo professor de ciência da computação Alasdair Rawsthorne. Uma das mais
importantes inovações é a "representação intermediária", uma espécie de linguagem
comum que dá ao software a flexibilidade para fazer a tradução de uma plataforma
para outra.

-5-
Módulo 2 – Impactos no mercado

O mercado atual de virtualização e as perspectivas para os próximos anos

Uma das conseqüências dos infelizes incidentes terroristas de 11 de setembro de


2001, em Nova York (EUA), foi a mudança de visão por parte das empresas sobre
suas estratégias de proteção de dados. As companhias estavam desprevenidas e não
contavam com a perda de valiosas informações de negócios e com a ameaça contra
sua própria sobrevivência. E como ninguém deseja correr riscos, o tema continuidade
de negócios passou a merecer atenção especial dos gestores de tecnologia.

Manter um Business Continuity Plan passou a ser algo fundamental, de fato. Algumas
empresas optam por uma estratégia definida por áreas para garantir recuperação
total de seus dados estratégicos diante de qualquer contratempo. Para algumas
organizações, a continuidade de negócios é vista como um organismo. O
gerenciamento de riscos e os processos apontam o que é preciso para o
prosseguimento das operações e isso é feito gerando avaliações e revisões que
atualizam o plano de continuidade conforme as necessidades atuais do negócio, que
podem mudar de ano para ano.

A necessidade de continuidade, associada às novas regulamentações exigidas


principalmente das instituições financeiras, como Sarbanes-Oxley e Basiléia 2,
reforça a necessidade de gestão de risco, tornando-a mais eficiente e transparente. E
nessa transparência entra o processo de armazenamento, que deve manter
acessíveis os dados da empresa.

Mas como os dados não estão armazenados de forma linear no mesmo lugar, é
preciso ter um mecanismo para encontrá-los, em caso de necessidade. E, por vezes,
não é possível esperar vários dias para localizá-los. Então, entra em cena a solução
de Virtualização, que proporciona uma visão holística do armazenamento. Sem falar
na explosão do volume de dados das empresas, que, segundo analistas, cresce até
400% ao ano. Portanto, trata-se de uma decisão fundamental para as empresas.

A decisão é tão importante que os fornecedores, antes concorrentes, se unem para


oferecer soluções completas para atender necessidades de transparência,
continuidade de negócios e aumento das informações, em forma de parcerias, fusões
ou aquisições.

-6-
Tudo sob demanda

A evolução dos processos corporativos conduz necessariamente a uma reorganização


física e lógica dos recursos dos sistemas de informação. Por exemplo, no caso da
IBM, o e-business dá lugar ao e-business on demand. Na HP, ao adaptative
enterprise, na Sun, ao N1 (NetworkOne), enquanto na Computer Associates, a
expressão usada é on demand computing. Trata-se de termos, simultaneamente, de
marketing, técnicos e estratégicos, mas com algo em comum.

O ponto de união entre eles é dispor de recursos tecnológicos, de acordo com a


necessidade da empresa, alinhando os sistemas de informação à visão estratégica
das companhias. Para trazer esses conceitos à realidade, as empresas são
convidadas a abandonar as infra-estruturas verticais (preconizadas por todos esses
fornecedores durante muito tempo), organizadas por silos (aplicação com os seus
servidores e o seu armazenamento) mais ou menos independentes. A idéia é passar
para infra-estruturas baseadas em recursos virtualizados, que podem ser partilhados
por todos os serviços e aplicações.

De igual modo, as soluções de administração devem poder otimizar de forma


dinâmica a utilização desses recursos, realocar instantaneamente aqueles que são
subutilizados, inserir automaticamente um servidor suplementar numa família de
servidores e apresentar as aplicações como serviços. Em outras palavras, não se
trata de uma mudança rápida. Além dos tradicionais softwares de administração
(sistemas e redes, entre outros), um ambiente sob demanda passa pela
implementação de ferramentas que assegurem um melhor conhecimento da relação
entre a atividade da empresa e a sua infra-estrutura de informática.

Essas soluções têm como alvo a definição dos processos críticos das empresas, a
visualização dos componentes implicados (aplicações, middlewares, servidores,
armazenamento e rede), a detecção pró-ativa dos problemas de funcionamento, a
correlação dos diferentes alertas e a automatização das correções necessárias, de
acordo com uma base de conhecimento. No entanto, o campo de ação desses
softwares é limitado com freqüência pela sua incapacidade de gerir diretamente os
recursos.

Novos investimentos

Em recente pesquisa da IDC com 782 empresas brasileiras, o nível de satisfação com
a base instalada de hardware e software de segurança, sistemas de storage e
softwares de gerenciamento de sistemas mostrou-se como um dos mais baixos na
pesquisa. Esse resultado reflete novos investimentos em capacidade de TI, que
acabam por gerar uma série de pequenas ilhas de sistemas, difíceis de controlar,
gerenciar e proteger.

-7-
Quanto aos desafios e preocupações atuais dos CIOs em relação à infra-estrutura de
TI, a IDC observou que há uma apreensão crescente com a escalabilidade e com os
custos de gerenciamento e manutenção para garantir alta disponibilidade,
performance e agilidade dos equipamentos, aumentar o controle sobre a infra-
estrutura sem, no entanto, ampliar a equipe de manutenção e gerenciamento e os
custos.

Além disso, é preciso crescer a segurança dos dados críticos sem elevar os custos
das informações armazenadas e, finalmente, ter como parceiro um Full Service
Provider de infra-estrutura, ou seja, aquele fornecedor capaz de prover soluções de
hardware, software e serviços.

Em relação ao storage, a IDC divulgou, no começo de 2007, sua previsão para o


ano: a infra-estrutura de TI na América Latina estaria caminhando para o modelo de
Dynamic IT: 2007 seria o ano de educação quanto à virtualização, não apenas na
América Latina como em todo o mundo. De acordo com a IDC, aprender a aplicar
melhor sua infra-estrutura de hardware, software e serviços seria a meta das
empresas da região em 2007.

300 campos de futebol

Uma das empresas que está investindo em virtualização é a própria IBM. A


companhia recentemente divulgou que trocará 4 mil servidores de pequeno porte por
30 mainframes Linux, rodando máquinas virtuais. Com a mudança, espera
economizar 250 milhões de dólares em despesas de manutenção e de consumo de
energia. Os servidores físicos que serão substituídos por máquinas virtuais estão
localizados em seis data centers em vários países.

Os equipamentos usados hoje ocupam um espaço de quase 2,5 milhões de metros


quadrados, o que equivale a 300 campos de futebol, somadas as áreas de todos os
terrenos. Essa iniciativa faz parte do plano da IBM de dobrar sua capacidade de
armazenar dados até 2010, mas sem usar mais energia elétrica, nem aumentar a
emissão de carbono na atmosfera. Com os novos espaços, a empresa quer melhorar
a logística dos prédios, alterando inclusive sistemas de iluminação e de ar
condicionado.

A Virtualização chegou à indústria de chips. Hoje, um software tem múltiplos


recursos para rodar em diferentes sistemas operacionais em uma plataforma única.
A nova tecnologia de processadores, já em desenvolvimento, vai tornar esse
processo mais simples. O processador para desktop Intel® Core™ 2 Duo, por
exemplo, suporta recursos para melhoria da segurança, virtualização e computação
de 64 bits.

-8-
Módulo 3 – Tecnologias de Virtualização

O que as soluções existentes podem fazer por empresas de grande porte e casos de
quem já as está usando

As vantagens

A aposta nas soluções de Virtualização deriva da necessidade dos gestores de


Tecnologias de Informação em dar resposta eficaz ao aumento e à diversificação dos
ambientes computacionais dentro das organizações. Além disso, a adequada gestão
do custo total de propriedade é cada vez mais relevante, bem como a capacidade de
solucionar as crescentes dificuldades de manutenção e de gestão desses mesmos
ambientes.

A Virtualização de infra-estruturas proporciona abstração entre os diferentes meios


de computação como processamento, armazenamento de dados, rede e software. Ao
implementar esse conceito, são eliminadas todas as restrições físicas e todos os
meios ficam acessíveis como “agrupamentos lógicos”, que podem ser utilizados em
qualquer hora e local. Além de muitas outras vantagens, as soluções de Virtualização
garantem maior capacidade de adaptação às constantes mudanças dos ambientes
empresariais, mais eficiência e flexibilidade aos recursos de TI e redução dos custos
associados.

A aplicação de software de armazenamento inteligente na camada de Virtualização


proporciona um meio de resolver os desafios funcionais de armazenamento, sem
comprometer a necessidade de disponibilidade dos dados. Ela permite um nível sem
precedentes de flexibilidade na utilização de recursos de armazenamento, a fim de
atender exigências referentes aos aplicativos e aos usuários finais.

Os dispositivos de armazenamento virtual não estão restritos às limitações de


capacidade, velocidade ou confiabilidade dos dispositivos físicos que os incluem. O
provisionamento consiste em fornecer aos usuários ou aplicações a quantidade e o
melhor tipo de armazenamento, no momento certo. A Virtualização torna muito mais
fácil esse processo. Somada à administração centralizada, permite que modificações
na camada de armazenamento físico sejam efetuadas sem a interrupção do acesso
aos dados, a fim de fornecer, continuamente, a melhor qualidade de serviços de
armazenamento em tempo real.

-9-
Especialistas do mercado acreditam que a Virtualização deve revolucionar a forma de
gerenciar os aplicativos, a segurança e o armazenamento nas empresas, convergindo
os sistemas para um único ponto, facilitando a manutenção e o controle da rede.
Portanto, os seus benefícios passam pela gestão centralizada de todo storage,
melhor acesso de usuários e aplicações, redução de custos de treinamento, facilidade
de administração, redução de custos de storage físico, eliminação do downtime, mais
escalabilidade e alocação de capacidade sob demanda.

Custos sob controle

O custo de gerenciar o armazenamento é significativo e, com o decorrer do tempo,


excede o preço de compra do hardware. Um meio de monitorar esses custos é
avaliar a quantidade de armazenamento gerenciada por administradores. As
organizações eficientes podem ter um administrador por terabyte de
armazenamento, enquanto outras, com ambientes mais difíceis, podem ter uma
proporção muito menor de profissionais dedicados ao armazenamento.

A Virtualização do armazenamento pode simplificar o gerenciamento de recursos em


ambientes heterogêneos, reduzindo, definitivamente, o custo real de storage. Além
disso, o gerenciamento torna-se muito mais fácil para o administrador, visto estar
centralizado. Ele pode aprender e implementar uma ferramenta para gerenciar
completos agrupamentos de armazenamento.

Trata-se também de um meio de redução de custos pela melhor utilização e


consolidação do hardware. A consolidação é o ato de combinar recursos de
armazenamento em um agrupamento virtual, acessível a muitos aplicativos ou, em
ambientes de SANs (Storage Area Networks) ou clusters, a muitos servidores.

Antes mesmo da necessidade de acrescentar recursos, a Virtualização permite a


consolidação proativa de todos os dispositivos de armazenamento. Como parte
integrante de uma unidade virtual, os recursos podem se tornar disponíveis para
aplicativos e servidores que, anteriormente, não tinham acesso a eles. Isso se aplica
particularmente bem aos ambientes de SANs, mas não é, de modo algum, exclusivo
deles.

O fornecimento e a consolidação inteligente, como resultados da Virtualização do


armazenamento, ajudarão a controlar os custos de TI e a reduzir a sobrecarga,
permitindo o efetivo gerenciamento de armazenamento de dados, com menor
necessidade de intervenção humana.

- 10 -
Armazenamento virtual precisa de gerenciamento

Na medida em que os equipamentos de armazenamento ficam mais baratos, a infra-


estrutura torna-se mais complexa de gerenciar. O crescimento excessivo e dinâmico
das informações e das aplicações dificulta a definição e o acompanhamento da
política de gerenciamento. Existe uma lacuna entre as operações de armazenamento
e o gerenciamento dos dados.

Estimativas sugerem que 75% das informações na rede ou em ambientes


distribuídos não são efetivamente administrados, significando que não estão
armazenados adequadamente ou de forma a serem recuperados facilmente. Hoje,
uma rede típica de storage (Unix, Win2k e Linux) tem cerca de 2 a 5 terabytes de
armazenamento de discos, enquanto a capacidade de gerenciamento de cada
storage é de 400 GB a 500 GB, de acordo com o Manifesto de Storage, produzido
pela Horison Information Strategies, uma consultoria especializada em estratégias e
desenvolvimento de negócios para empresas de storage.

Mesmo sem sistemas formalizados, toda empresa faz alguma espécie de organização
dos dados quando existem informações importantes. Algumas plataformas de
sistemas operacionais oferecem ferramentas de gerenciamento de storage, mas em
geral é necessária a utilização de programas internos para administrar os dados.
Enquanto isso, fabricantes investem cada vez mais em software e conceitos de
gerenciamento.

Foi-se a época em que as empresas compravam equipamentos com capacidade


superior, prevendo necessidades futuras. Como não se pode gerenciar o que não se
conhece, o primeiro erro das organizações antes de comprar um produto de
armazenagem é não parar para refletir sobre o volume das informações que possui.

O gerenciamento da rede de storage acontece com soluções de SRM (storage


resource management), que mostram o comportamento de cada dispositivo
conectado na rede, quanto de dado e de que tipo está guardando, qual a origem das
informações, qual o espaço livre e se há algum problema nos discos.

É possível criar regras para cada tipo de arquivo e fazer com que seja transferido
automaticamente para o disco certo. Com um software para esse fim, a empresa
pode bloquear arquivos MP3, ou mandar uma mensagem para alertar o usuário que
está sendo monitorado. O conceito vale para pequenas e médias empresas, cada
qual na proporção do volume dos seus dados.

Mas isso ainda não é suficiente para grandes volumes de informação. Com um
crescimento de dados de 34% ao ano, dois velhos conceitos da época dos
mainframes estão ressurgindo: o Information Lifecycle Management (ILM) e o
Hierarchical Storage Management (HSM).

- 11 -
O primeiro nada mais é do que classificar os dados armazenados em uma empresa,
conforme a periodicidade em que são acessados e a data do armazenamento. E o
segundo refere-se à hierarquização da informação, como veremos a seguir.

Prioridade da informação

Alguns especialistas de mercado sugerem que um dado não pode ser administrado
apenas pelo tempo de vida. Deve ser classificado pela sua importância e hierarquia
dentro dos negócios, com o conceito da hierarquização das informações (HSM). Ele
estabelece limites para cada usuário armazenar arquivos, variando conforme a
atividade e o cargo de cada um.

O HSM pode ser usado não só nos dados, mas também nas aplicações, como e-mail
e banco de dados, a partir de uma classificação detalhada. Apesar dos discursos
otimistas dos fornecedores, apenas agora os clientes começam a implementar o
HSM.

Várias regras podem ser definidas. Arquivos de imagem e aqueles não acessados há
mais de cinco anos, por exemplo, podem ser direcionados para fitas para
armazenamento fora do equipamento, bem como arquivos do presidente, no storage
caro. Em geral, nenhum usuário quer apagar seu e-mail e aí todos ficam com o
storage caro (saturado). O software faz automaticamente as mudanças de acordo
com as regras criadas: informações com mais de dois anos vão para um storage
secundário, por exemplo. Para o usuário, tudo isso é transparente.

Classificar as informações é a maior dificuldade das empresas, já que para cada


departamento e para cada pessoa, todos os arquivos são importantes. O início do
projeto de gerenciamento é entender como funciona o negócio e quais são as
informações fundamentais. Os consultores da área precisam realizar diversas
entrevistas com nível gerencial para perceberem o que é cada área da companhia e
de que tipo de informações os usuários realmente necessitam. O trabalho também
deve incluir a participação do departamento judiciário, pois alguns documentos têm
de ser guardados por questões legais.

O fim da Torre de Babel

Normalmente, uma empresa tem várias marcas de storage na rede, mas um não fala
com o outro – se existem três discos de 1 GB cada, a companhia tem três discos de
1 GB cada, e não um total de 3 GB. Isso muitas vezes faz com que um disco fique
saturado, enquanto outro está com baixo uso. A administração de dados fica mais
complicada.

- 12 -
Os fabricantes não têm ferramentas que gerenciem os equipamentos da
concorrência. Isso acontece porque as fornecedoras não trocam instruções que
permitem gerenciar completamente o produto de outro desenvolvedor – ou API
(application program interface), um conjunto de rotinas, protocolos e ferramentas
para a construção do software.

Fabricantes falam de Virtualização, mas cada empresa tem um conceito e o básico


diz que, independentemente do servidor e de qual sistema operacional, ele terá
acesso ao dado. Antes disso, cada sistema operacional tinha de acessar a informação
pela sua porta proprietária. Por vezes, a empresa tem uma cópia da mesma
informação porque ela precisa ser acessada por diferentes plataformas.

Com a Virtualização, os clientes podem criar camadas de armazenamento entre


sistemas de diferentes fabricantes, possibilitando uma visão unificada e consolidada
da capacidade total de storage. Em vez de acessar a informação diretamente da
base, acessa pelo servidor de Virtualização.

Gerenciamento de dados envolve ainda backup, restore e business continuity e as


empresas que ainda não fazem gerenciamento dos dados estão perdendo dinheiro.
Uma administração malfeita gasta horas de trabalho do profissional, além do risco de
perder a informação para sempre. Softwares de gerenciamento resolvem esse
problema: eles automatizam a operação de backup e diminuem a necessidade de
manutenção.

Portanto, ambientes de armazenamento consolidados possuem menos elementos a


gerenciar, o que pode aumentar a utilização de recursos e simplificar o
gerenciamento do armazenamento. Além disso, podem oferecer a capacidade de
compartilhar servidores de armazenamento a grandes distâncias e de proporcionar
economia na escala de propriedade de servidores de armazenamento em disco.

Com uma estrutura virtualizada, pessoas, processos e tecnologia concentram-se em


níveis de serviço, a capacidade é alocada dinamicamente, a infra-estrutura inteira é
simplificada e flexibilizada, além de permitir um modelo utilitário ou pay-per-use
para serviços de TI.

- 13 -
Módulo 4 - A evolução

O que há em software e hardware para a simplificação da infra-estrutura das


empresas

Existem muitas tecnologias de Virtualização de armazenamento que têm evoluído,


incluindo soluções de banda interna e externa (in-band e out-band), com base em
armazenamento e em hospedagem. As primeiras tecnologias de Virtualização que
surgiram foram soluções com base em armazenamento. Elas permitem que vários
servidores compartilhem o acesso a dados em um único array, variável que
armazena um conjunto de valores do mesmo tipo. O lado negativo, no entanto, é
que esses servidores não podem acessar os dados além de seu próprio array.

Além disso, os usuários estão arriscados a ficar limitados a soluções que dependam
dos fabricantes, com base nas restrições de compatibilidade de hardware do array
mais amplo ou dos servidores diretamente conectados. A Virtualização com base no
armazenamento pode então ser mais dispendiosa do que outras alternativas de
menor prioridade.

Já as soluções baseadas em hospedagem permitem aos discos alocados nos vários


arrays, de diversos fabricantes, apresentarem-se como um agrupamento virtual para
um único servidor host. Isso possibilita mais flexibilidade para habilitá-los a ser
completamente independentes dos fabricantes de soluções de armazenamento,
embora ainda desfrutem dos benefícios da administração de armazenamento
centralizada a partir de um único console.

Embora os dados estejam concentrados para acesso apenas por meio de um único
servidor, esse pode se tornar altamente disponível, garantindo a utilização dos
dados. A desvantagem em potencial dessa solução surge quando vários servidores
exigem o acesso compartilhado aos mesmos dados. Assim, podem ser considerados
a duplicação dos dados ou outros métodos de Virtualização de armazenamento.

A arquitetura in-band insere o dispositivo de Virtualização na rede de dados entre o


host e o array. Esses dispositivos oferecem volume de gerenciamento e outras
funcionalidades complementares como movimento de dados e serviço de cópias. Ele
faz a substituição dos controladores de storage para os dispositivos que estão sendo
virtualizados.

A primeira vantagem dessa abordagem é a simplicidade. Um novo dispositivo próprio


pode ser desenvolvido para atuar como um ponto central de gerenciamento para
múltiplos sistemas conectados. A recente aparição em larga escala de arrays
monolíticos de alta performance em dispositivos in-band de virtualização evidencia
essa vantagem.

- 14 -
Em um dado momento, para grandes ambientes, até mesmo a estratégia de
escalabilidade pode se provar insuficiente e será necessário desenvolver um novo
dispositivo in-band. Cada um desses dispositivos tem responsabilidade de domínios
de virtualização separados, resultando na necessidade de gerenciar ilhas
independentes de Virtualização. A conseqüência disso pode potencializar e “pesar”
nos benefícios originais de redução da complexidade e da simplificação do
gerenciamento proporcionados pela Virtualização.

Arquitetura Out-of-Band

A abordagem out-of-band foi desenvolvida para evitar os desafios de performance


inerentes à arquitetura in-band, separando o gerenciamento da informação do data
flow. Na arquitetura out-band, um pedaço separado do hardware, chamado de
servidor de metadado, que contém informação sobre as relações lógicas e físicas da
Virtualização do storage, comunica-se com cada servidor. Essa comunicação é dada
em uma rede separada independente da Fibre Channel, usada no tráfego de dados.

Como as demandas do host para a Virtualização do storage vão direto para o


dispositivo para o qual ele é destinado, a performance fica livre da latência adicional
ou de problemas de banda. Ou seja, a abordagem out-of-band é teoricamente mais
desejável para aplicações de alta performance. Ela também evita problemas com a
integridade do dado, inerente à in-band. As diferentes versões do dado sempre
causam problemas para a rede. Mas quando o dado é eficientemente armazenado no
array, o host recebe a informação que o trabalho já está completo.

Esse tipo de abordagem out-of-band introduz algum nível de flexibilidade no sistema


baseado em host. Há, entretanto, uma abordagem mais refinada do out-of-band
para solucionar esse desafio de gerenciamento e flexibilidade. Essa abordagem foi
alavancada pelos switches inteligentes de SAN (Storage Area Networks), como uma
plataforma para o desenvolvimento da rede baseada na Virtualização do storage.

A abordagem do switch baseado no out-of-band é também mais acessível à


estratégia de escalabilidade. A maioria dos processos de entrada e saída é
gerenciada diretamente pelo processador no switch inteligente, incrementando a
escalabilidade. Podem ser acrescentados, conforme a necessidade, mais
processadores. Isso pode ser concluído adicionando outro switch no sistema ou outro
processador blade.

Em resumo, teoricamente essa arquitetura é capaz de escalar um grande número de


configurações e possui escalabilidade necessária para estender os benefícios da
Virtualização do storage a grandes data centers.

- 15 -
Fornecedores aprimoram produtos

A baixa utilização dos sofisticados ambientes de armazenamento de dados, que


cresceram nas corporações nos últimos anos, não é uma surpresa nos
departamentos de Tecnologia da Informação. Baseados em múltiplas plataformas, de
diferentes fornecedores, esses sistemas acabam dando muito trabalho aos gestores,
quando gerenciam e planejam as novas necessidades de armazenamento.

Esse problema recorrente tem sido a justificativa de empresas do mundo inteiro para
aderirem às novidades sobre Virtualização dos sistemas de armazenamento de dados
que chega ao País. Os fornecedores de soluções de Virtualização, como EMC, Hitachi,
Storagetek, HP e IBM acreditam que seus novos produtos precisam ter o objetivo de
superar dificuldades de gerenciamento de ambientes heterogêneos de storage e
reduzir a escalada de custos.

Não é uma simples questão de marketing. Para os fornecedores, a Virtualização é


hoje uma decisão estratégica. Há motivações para isso: o volume de dados está em
explosão – segundo analistas, cresce até 400% ao ano com a utilização de novas
aplicações nas áreas de comércio eletrônico, gestão da cadeia de fornecedores,
mensagens eletrônicas, entre outras. Além disso, muitas empresas investiram
excessivamente em múltiplas arquiteturas de storage para suportar essa gama
variada de aplicações, acessada em diferentes bases de dados.

É uma exigência dos clientes que a EMC, fabricante norte-americana de sistema de


storage, está procurando atender uma plataforma de Virtualização em rede SAN. O
sistema integra hardware e software na arquitetura out-of-band, que coloca a
inteligência de Virtualização na rede de armazenamento – e não nos dispositivos ou
arrays – para eliminar impactos sobre a performance do servidor ou da aplicação.

Ao contrário da EMC, que investiu no out-band, a Hitachi Data Systems investiu na


arquitetura in-band para virtualização do ambiente de armazenamento
multifornecedor. A filial brasileira tem projetos que combinam hardware e software e
trazem a virtualização para a controladora de storage, evitando sobrecarga da rede,
servidores ou switches, permitindo acessar os dados em diferentes equipamentos de
storage por meio de um único ponto de contato.

A HP incluiu em seu portfólio pelo menos cinco linhas de soluções: Virtualização via
software no servidor; interna no disk array, em arquitetura in-band; em rede SAN de
alta performance; e por meio de grid computing. Com presença muito forte no
segmento high end, a HP investe forte também no segmento das pequenas e médias
empresas com a família de sistemas EVA.

- 16 -
É uma solução de disk array virtual que pode atingir capacidades acima de 8
terabytes. O sistema faz a Virtualização dos discos, ou seja, a agregação das
informações no storage. Impõe facilidades de criar caminhos de acesso aos dados e
favorece o crescimento dinâmico dos volumes armazenados sem prejudicar as
aplicações, além de implementar o espelhamento remoto.

No caso da IBM, a linha de Virtualização da empresa não se prendeu às


nomenclaturas in-band ou out-of-band. São dois produtos, o SAN File Systems e o
SAN Volume Controller, que trabalham em uma camada entre os servidores de
aplicação e a SAN, dentro dos conceitos de Virtualização de arquivos e lógica.

Vários sistemas operacionais na mesma máquina

Conhecida como Vanderpool, a tecnologia de Virtualização da Intel permite que um


único processador funcione como vários deles, trabalhando em paralelo, de modo a
permitir que diversos sistemas operacionais sejam executados ao mesmo tempo em
uma mesma máquina. Trata-se dos processadores Pentium 4 – 672 e 662 – com
suporte à sua tecnologia de Virtualização (VT).

Com a técnica de Virtualização, um único processador pode funcionar como se


fossem vários trabalhando em paralelo. Diferente de multitarefa ou Hyper-Threading,
lançada em 2002 pela Intel, pois no primeiro caso, existe um único sistema
operacional e vários programas trabalhando em paralelo. Já a tecnologia Hyper-
Threading simula dois processadores lógicos em um único processador físico e
distribui as tarefas entre eles usando o conceito SMP (multiprocessamento
simétrico). Na tecnologia Hyper-Threading os processadores lógicos não podem ser
usados de forma separada.

Já na Virtualização, são vários sistemas operacionais trabalhando em paralelo, cada


um com diversos programas em execução. Cada sistema operacional roda em um
“processador virtual” ou “máquina virtual”. Se um processador tem suporte a ambas
as tecnologias, Hyper-Threading e Virtualização, cada processador virtual aparecerá
para o sistema operacional como se fossem dois processadores disponíveis no micro
para multiprocessamento simétrico.

Existe uma vantagem em implementar essa tecnologia no processador. O


processador com tecnologia de Virtualização possui algumas novas instruções para
controlar a Virtualização. Com essas instruções, o controle do software (chamado
VMM, Virtual Machine Monitor) pode ser mais simples, o que resulta em um melhor
desempenho se comparado a soluções baseadas apenas em software.

- 17 -
A tecnologia de Virtualização da Intel necessita de um computador com um único
processador, chipset, BIOS, Virtual Machine Monitor (VMM) e em alguns casos,
software de plataforma habilitado para ela. Funcionalidades, desempenho e outros
benefícios irão variar de acordo com as configurações de hardware e software. No
próximo módulo, veremos como a tecnologia de Virtualização da Intel evoluiu nos
últimos meses.

- 18 -
Módulo 5 – Solução completa (Intel + Vmware)

A parceria da Intel com a VMware, incluindo os investimentos feitos pela Intel Capital
e a oferta do Intel Virtualize ASAP

VMWare é um software/máquina virtual que permite a instalação e utilização de um


sistema operacional dentro de outro, e que dá suporte real a softwares de outros
sistemas. O nome faz uma brincadeira verbal com Virtual Machine (máquina virtual),
nome técnico dado a um sistema operacional rodando sob o VMware.

Ao usar software de virtualização, como o VMware, um ou mais sistemas


operacionais podem funcionar simultaneamente num ambiente isolado, como se
fossem computadores completos (virtuais), rodando dentro de um computador físico
que pode comportar um sistema operacional totalmente distinto.

Do ponto de vista do usuário e do software, nem sequer se nota a diferença entre a


máquina real e a virtual. É muito usado em centros de dados, pois permite criar
redundância e segurança adicional, sem recorrer a tantas máquinas físicas, bem
como distribuindo e aproveitando melhor os recursos das máquinas hospedeiras.

A empresa desenvolvedora do VMware, a VMware Inc., localiza-se em Palo Alto,


Califórnia, Estados Unidos e é uma subsidiária da EMC Corporation.

Versões do produto

VMware Workstation: Esta versão é voltada ao uso no desktop, em ambientes de


desenvolvimento. Atualmente está na versão 5.5.3, e roda em CPU's Intel e AMD de
32 e 64 bits. Permite rodar vários "computadores virtuais" dentro de um sistema
operacional (que pode ser o Windows ou o Linux). Cada um desses computadores
pode rodar seu próprio sistema operacional. O computador simulado pode ter uma
quantidade de RAM definida (até 3600 MB no VMware 5.5.3; até 8GB,
desconsiderando limitações do hardware, no VMware 6.0) e um disco virtual
delimitado (até 950 GB). Ele pode "simular" um drive de CD-ROM, placas de rede
(até três no VMware 5.5.3; até dez no VMware 6.0 beta), discos rígidos e portas USB
(USB 1.1 na versão 5.5.3; USB 2.0 na versão 6.0).

Essa versão possibilita "unir" várias máquinas virtuais, e permite que todas elas
sejam iniciadas ou desligadas com um mesmo comando. Também é possível definir
redes internas.

O VMware Workstation também suporta três modos de rede: bridged (quando a


máquina virtual é vista como um outro computador na rede, com IP obtido via
DHCP); NAT (em que a máquina virtual se conecta ao computador host, que por sua
vez se conecta à rede); e Host-Only (a máquina virtual apenas se conecta ao host).

- 19 -
Essa versão do software também permite criar registros instantâneos (snapshots) de
uma máquina virtual num dado momento. Assim, é possível testar configurações, e,
se não der certo, pode-se reverter.

VMware Server: Voltado ao uso em servidores de pequeno e médio porte. Tornou-


se gratuito desde 12 de junho de 2006. É um produto de "entrada" para o mercado.
Conta com boa parte dos recursos da versão Workstation, e adiciona recursos úteis
ao seu uso em servidores, como o gerenciamento remoto (usando uma versão
modificada do VNC). O resultado imediato é uma perda de desempenho na interface
gráfica, porém isso não é problema para servidores que rodam "headless", ou seja,
sem monitor ou interface gráfica.

VMware ESX Server: Voltado para uso em servidores de grande porte. Trata-se de
um sistema operacional dedicado, que usa um kernel proprietário, baseado no
SimOS. O Red Hat Linux é usado para prover os diversos serviços, como
gerenciamento remoto. Por rodar em um nível mais próximo do hardware, elimina-se
o overhead de ter um sistema base, e aumenta-se a segurança. Por isso, é usado em
servidores de grande porte.

VMware Player: Executa máquinas virtuais prontas. Oficialmente, não é possível


criar máquinas virtuais novas, mas é possível contornar essa limitação de três
formas:

1) Instalar uma versão de avaliação do VMware Workstation e criando máquinas


virtuais novas.

2) Usar appliances (máquinas virtuais fornecidas pela comunidade, que operam


como soluções prontas, em que basta apenas rodar).

3) Usar sites não oficiais, como o EasyVMX.

VMware Fusion: Uma versão experimental para o Mac OS X rodando em Macintosh


com CPU Intel.

Outros produtos são: VMware P2V, ferramenta para migrar servidores físicos para
máquinas virtuais; VMware VirtualCenter, ferramenta para centralizar o
gerenciamento de instalações do VMware; e VMotion, ferramenta para transferir
máquinas virtuais entre servidores, de forma tão transparente quanto possível,
resultando no mínimo de downtime (tempo com o servidor fora do ar).

- 20 -
Não é um emulador

Ao contrário do que se costuma divulgar, o VMware não é um emulador. Ele vai a um


nível mais baixo, em que o processador chega por vezes a executar diretamente o
código da máquina virtual. Quando isso não é possível, o código é convertido para
que o processador não precise trocar para o modo real, o que seria uma perda de
tempo.

O VMware é útil para ambientes de desenvolvimento, em que é necessário testar


uma aplicação em várias plataformas. Muitas empresas têm produtos
multiplataforma, que precisam ser testados em Windows e em diversas distribuições
do Linux.

Outra utilidade diz respeito aos ambientes de suporte, em que é preciso dar suporte
a diversas aplicações e sistemas operacionais. Um técnico de suporte pode
rapidamente usar uma máquina virtual para abrir um ambiente Linux ou Windows.

O VMware também é utilizado na migração e consolidação de servidores antigos. É


muito comum que redes, com diversos servidores antigos, demandem um custo de
manutenção maior. Com o VMware eles podem ser concentrados em uma só
máquina.

Para a manutenção de aplicações antigas e teste de sistemas novos, o VM pode ser


usado para testar sistemas operacionais e esse é um dos usos mais comuns do
produto. Por exemplo, é possível usá-lo para executar o Windows dentro do Linux ou
o oposto.

Ele também costuma ser usado para manter a compatibilidade de hardware, ou seja,
alguns hardwares não têm drivers para o Linux ou para versões mais recentes do
Windows. Nesse caso, é possível usar hardwares (ligados pela porta paralela ou USB)
com uma máquina virtual.

Ele ainda se presta a simulação de instalações complexas de rede e para


apresentação de demonstrações de sistemas completos prontos para usar,
tipicamente referidas como VMware appliances.

Num ambiente protegido, é típico usar balanceador de carga, vários firewalls e


quatro servidores físicos para alojar com segurança um único site que use servidor
web e base de dados. Com máquinas virtuais, é possível criar redundância contra
falhas e segurança adicional contra intrusão sem recorrer a tantas máquinas físicas e
distribuindo e aproveitando melhor os recursos das máquinas hospedeiras.

Apesar de tantas vantagens e usos, alguns analistas apontam certas limitações do


VMware. Ele não funciona em sistemas operacionais muito antigos (como o caso das
distribuições Linux baseadas em kernel 2.0 ou 2.2).
- 21 -
O VMware Workstation requer uma correcção para rodar no Linux com kernels 2.6
mais recentes. Há apenas suporte experimental à aceleração 3D, tornando o VMware
inviável para o uso de jogos. E, finalmente, existem alguns problemas com o uso de
placas de rede sem fio (Wireless), sendo necessário usar o modo NAT.

Aquisição pela EMC

A EMC Corporation, líder mundial em armazenamento e gerenciamento de


informações, é a detentora da VMware, Inc. – companhia líder mundial em software
de computação virtual baseada na plataforma Intel, com sede em Palo Alto (EUA). A
aquisição teve papel fundamental na estratégia da EMC de ajudar os clientes a
reduzir custos e a simplificar operações. Com a aquisição, a EMC planejava
implementar tecnologias de Virtualização em suas infra-estruturas de TI
heterogêneas, para criar um conjunto único de recursos de storage e computação.

A EMC espera que a sua inovação em Virtualização de storage e a liderança da


VMware em Virtualização de servidor sirvam como base para soluções de
gerenciamento do ciclo de vida da informação da próxima geração. Essa "infra-
estrutura de informação virtual" possibilitará que as organizações configurem e
reconfigurem dinamicamente seus ambientes de computação e armazenamento de
dados, sem tempo inativo na medida da dinâmica dos seus negócios.

O software VMware é usado por organizações em todo o mundo para consolidar


servidores subutilizados, reduzir o tempo de provisionamento de servidor de
semanas para dezenas de segundos, mover dinamicamente cargas de trabalho de
aplicação entre servidores e estações de trabalho sem interrupção do serviço, e
eliminar o tempo de inatividade para manutenção, implementação ou migração de
hardware.

Aporte da Intel

Em meados de 2007, a VMware, Inc. anunciou que recebeu aporte de capital no


valor de 218,5 milhões de dólares da Intel Capital, braço de investimento da Intel
Corporation. Quando foi divulgada, a operação ainda passaria pelos órgãos
regulatórios, mas a estimativa era que, com a movimentação, a Intel Capital
passasse a deter 2,5% de todas as ações comuns da VMware. Na época do anúncio
mundial, informou-se que um executivo da Intel seria nomeado para o conselho da
VMware. O objetivo da Intel, com o aporte, foi aumentar a adoção de tecnologia
VMware na arquitetura Intel, melhorando a virtualização para os clientes.

Além disso, a VMware e a Intel iniciaram um acordo de parceria e de colaboração,


que expressa a intenção de ambas as companhias em desenvolver esforços
conjuntos em iniciativas de desenvolvimento, de marketing e industriais.

- 22 -
Interesse crescente

A imprensa anunciou recentemente que a Cisco vai juntar-se à Intel e também


investirá no sistema de virtualização VMware. A EMC anunciou, no início de 2007,
que vai abrir capital. No início de junho a Intel comunicou o mercado de ações que
comprará US$ 219 milhões em ações da empresa e terá direito a um assento no
conselho diretor da companhia. Logo depois do anúncio, o site inglês The Register,
anunciou que a Cisco também decidiu investir na fabricante do VMware.

Os investimentos da Cisco devem ficar em torno de US$ 150 milhões, o que dará à
companhia participação de 1,6% no capital da EMC. A solução VMware para criar e
gerenciar máquinas virtuais é um fenômeno no mercado financeiro. Segundo a EMC,
os lucros com a venda do sistema de virtualização crescem ao ritmo de 90% a cada
trimestre. Com o investimento, a Cisco também poderá ter um representante no
conselho diretor da EMC.

- 23 -
Módulo 6 – Simplificando e otimizando o datacenter

As vantagens de otimizar o datacenter com a virtualização, tipos de projetos


disponíveis e redução de custos

Forte crescimento

O crescimento do uso da Virtualização é particularmente forte no espaço dos


servidores empregados em grande volume, como nos datacenters. A capacidade de
executar várias aplicações em um mesmo servidor, por exemplo, bancos de dados,
sistemas de ERP ou CRM, está impulsionando a adoção de servidores virtuais e deve
continuar a influenciar futuras instalações de hardware.

A Virtualização do servidor está transformando a maneira como as principais


empresas de TI fornecem e gerenciam seus sistemas e aplicativos, ajudando-as a
consolidar sua infra-estrutura, otimizar a utilização, reduzir os custos totais e
melhorar a agilidade empresarial.

Com um software de Virtualização de servidor, é possível consolidar vários sistemas


operacionais e pilhas de software em uma única plataforma e alocar dinamicamente
os recursos dessa plataforma para atender exigências específicas da empresa e dos
aplicativos.

Os principais benefícios das soluções atuais do software de Virtualização do servidor


abrangem diversos aspectos, entre eles a consolidação flexível do servidor. Por meio
da Virtualização, é possível, de modo rápido e fácil, consolidar diversos sistemas
operacionais e aplicativos. O aumento da disponibilidade e da segurança é outro item
importante, pois as falhas do software e os ataques digitais são isolados dentro de
cada partição virtual, e as partições de superação de falhas oferecem uma
abordagem fácil e econômica para ajustar a disponibilidade.

A Virtualização de servidor também oferece simplificação das migrações de sistemas


operacionais e hardware, pois permite a migração dos aplicativos legados e suas
versões atuais do sistema operacional, sem mudar para partições virtuais, além de
permitir a dinamização de teste e desenvolvimento. Além disso, promove mais
agilidade à empresa, pois é possível fornecer ou redimensionar uma partição virtual
em minutos, para acomodar novos aplicativos, aumentando as cargas de trabalho e
a manutenção do sistema.

Desafio e investimentos

Atualmente, um objetivo imprescindível em qualquer estratégia de TI é consolidar


múltiplas funções essenciais às empresas. Normalmente, essas funções encontram-
se dispersas por diversos servidores físicos, muitas vezes com diferentes sistemas
operacionais.
- 24 -
Com a consolidação, é possível otimizar os recursos, reduzir drasticamente custos e
aumentar consideravelmente os níveis de serviço disponibilizados aos demais
departamentos de uma organização.

Esse objetivo leva os fornecedores a apostarem nesse tipo de solução, investindo em


certificações que permitam a apresentação no mercado das habilitações necessárias
para dar suporte a soluções personalizadas, de acordo com as necessidades de cada
cliente. Este alinha a sua estratégia de consolidação de servidores pela
implementação de servidores virtuais e em geral consegue a redução do TCO.

Os objetivos desse tipo de projeto é aumentar a eficiência e a capacidade de colocar


rapidamente em funcionamento novos sistemas que endereçam novas exigências.
Assim, é possível garantir o mínimo impacto na estrutura de funcionamento da
organização, de modo a assegurar uma operação ininterrupta, com total redundância
de recursos de hardware e software. Nessas soluções, a busca se dá também pela
escalabilidade, tornando viável a adição de processadores, memória, storage,
ligações de fibra e rede, já que esses são passíveis de ser totalmente virtualizados
na infra-estrutura e partilhados pelas instâncias lógicas de sistemas MS Windows e
Linux.

Embora sejam grandes as vantagens proporcionadas por esses sistemas, não


existem dados que mostrem a adoção de Virtualização no Brasil, mas estima-se que
a utilização seja baixa, pois o País ainda investe pouco em inovação tecnológica, em
comparação aos Estados Unidos e a países do continente europeu.

Em média, os empresários que trabalham com pesquisa e desenvolvimento não


aplicam mais do que 0,64% de seu faturamento em inovação, seja na melhoria de
seus produtos, seja na compra de equipamentos, segundo dados da Associação
Nacional de Pesquisa, Desenvolvimento e Engenharia das Empresas Inovadoras
(Anpei). Apenas 30% de todas as empresas brasileiras fazem algum tipo de
inovação, sendo os setores de informática, eletrônico e químico os que mais inovam.

Para que a inovação seja priorizada nas empresas brasileiras é preciso ampliar ainda
mais os incentivos fiscais e as subvenções econômicas. A Lei de Inovação já
representa um grande avanço no setor, pois permite às corporações inovadoras
abaterem no Imposto de Renda, por exemplo, 160% do total investido em P&D,
podendo chegar a 200%, caso apresentem em seus quadros mestres e doutores,
além de produtos patenteados. Hoje, as companhias com mais de 500 funcionários
são as que apresentam as maiores taxas de investimento em P&D.

- 25 -
Virtualização avançada

A IBM anunciou um produto que designa como "propulsor de virtualização", um


software que permitirá aos usuários operar até dez servidores com um único
microprocessador. O software será incorporado aos seus servidores não-mainframe
permitindo que eles se clonem, o que possibilitaria aos usuários dividir servidores e
outros sistemas em unidades distintas, mais ou menos como acontece com um
computador mainframe.

A tecnologia funciona com o sistema operacional Unix ou outros sistemas não


relacionados a mainframes. Um servidor normalmente dispõe de um ou mais
microprocessadores, que operam como o cérebro do computador. Um sistema com
quatro processadores e usando essa tecnologia de software teria poder equivalente
ao de 40 processadores, usando um ou múltiplos sistemas operacionais ou versões
deles ao mesmo tempo, segundo a IBM.

Em suma, a demanda por potência e storage continua crescendo exponencialmente.


Nos mercados de servidores e armazenamento, as mudanças nas dinâmicas do
mercado causarão alterações grandes nas empresas usuárias e nos fornecedores. As
aplicações de hoje fazem com que a disponibilidade 24 por 7 e a continuidade dos
negócios sejam críticas para as corporações. A pressão para cumprir a
disponibilidade e o desempenho, reduzir custos, melhorar serviços e minimizar riscos
nunca foi tão alta.

Segundo o Gartner, os mercados de servidores e de armazenamento enfrentarão


mudanças dramáticas nos próximos anos. Os paradigmas tradicionais de computação
sofrerão ameaças invasivas, na medida em que Linux e MS Windows tornarem-se
fatores mais significativos nas aplicações de missão crítica de toda a empresa.

Enquanto isso, grupos expansivos de dados dinâmicos e estáticos gerarão novos


desafios na administração do armazenamento. A visualização e a segmentação
tornaram-se componentes críticos numa arquitetura simétrica para servidores e
armazenamento. A seleção da plataforma de servidores continua sendo um aspecto
vital para muitas soluções comerciais viáveis e os usuários precisam equilibrar o risco
de prender-se a um fornecedor contra os benefícios potenciais das novas
tecnologias.

Porém, antes de empregar qualquer tecnologia, as corporações precisam avaliar a


possibilidade de gerenciamento da solução de Virtualização, o efeito (positivo e
negativo) nos processos atuais e a velocidade do retorno sobre o investimento. Além
disso, têm de analisar estratégia de longo prazo de saída/migração e também de
automação e Virtualização numa escala mais ampla, o efeito nos custos de aplicação
do software (baseado no licenciamento e no preço que não são muito favoráveis à
Virtualização e à consolidação).

- 26 -
Virtualização e ciclo de vida da informação

Paralelamente à Virtualização, uma boa opção para melhorar o uso do storage é a


implementação da gestão do ciclo de vida da informação armazenada nos
dispositivos da empresa. Estudos mostram que os dados da maioria das aplicações
não têm necessidade de estar disponíveis para acesso on-line na medida em que o
tempo passa.

Um exemplo disso são as mensagens no correio eletrônico. Normalmente, após 45


dias do recebimento, elas não precisam consumir espaço em disco mais rápido e,
conseqüentemente, mais caro. Por isso, no lugar de comprar discos, pode ser uma
boa alternativa migrar automaticamente as informações usadas com menos
freqüência para unidades de fita ou discos mais lentos, reduzindo sensivelmente os
novos investimentos em storage.

A lista do potencial desperdício em storage é tão grande que torna possível misturar
todas essas soluções e reduzir muito a necessidade de novos investimentos nessa
área. Talvez essa seja a maior justificativa para o fato de os próprios fabricantes de
discos estarem discursando que seus produtos se tornaram commodities e que o
diferencial da área está na oferta de softwares e serviços.

Adoção crescente

De acordo com levantamento feito pela Forrester Research, mais de 50% das
empresas do mundo testaram e implementaram soluções de Virtualização de
servidores em 2006, que também registrou forte alta em 2005, quando a
porcentagem de empresas que exploraram a tecnologia chegou a 29%. A amostra
ouvida pelo instituto foi de 1.770 corporações e pequenas e médias empresas no
país.

O instituto apontou ainda que o desinteresse na tecnologia caiu de 23% em 2005


para 17% em 2006. Já o desconhecimento sobre a Virtualização de servidores
despencou de 19% para 8%.

A Forrester indica em seu relatório que essa evolução pode ser atribuída a dois
fatores principais: mais disponibilidade de tecnologias sobre o tema, e maior esforço
dos fornecedores do setor. De acordo com o instituto de pesquisas, a Virtualização
de servidores tornou-se mainstream nos servidores x86 em diversas empresas em
2006, ao contrário de ser uma tecnologia de nicho em Unix. O levantamento destaca
a competição do líder VMware com a solução da Microsoft Virtual Server e o produto
open source Xen.

As estatísticas apontam que 53% dos entrevistados preferiram o VMware, solução


adquirida pela EMC, como único fornecedor que eles levam em consideração para
virtualizar servidores Intel, contra 11% que opta pela HP e 9% pela Microsoft.
- 27 -

Vous aimerez peut-être aussi