Vous êtes sur la page 1sur 45

Utility Computing

Módulo 1 – Conceito

Já é coisa do passado adquirir um equipamento ou um software para que seja


utilizado somente em determinados períodos do ano e deixá-lo ocioso o restante do
tempo. Aprenda a economizar com o Utility Computing.

Pagamento na medida exata

Pagar apenas pelo o que é utilizado ou consumido em Tecnologia da Informação (TI).


É o que promete o modelo de Utility Computing, que pode ser entendido como
serviços utilitários ou computação de vantagens. O termo vem das chamadas
utilities, que em inglês são as empresas públicas que têm como modelo de negócios
a cobrança pelo que é consumido. Para exemplificar o conceito, nada melhor do que
comparar o mecanismo de uso e pagamento do Utility Computing com o modelo de
negócios e cobrança das contas de água, luz e telefone.

Ao permitir a aquisição de capacidade temporária de processamento e


armazenamento de dados, essa tecnologia potencializa a otimização da infra-
estrutura de hardware, software e serviços com redução dos custos fixos por
capacidade não utilizada. Trocando em miúdos, Utility Computing é um modelo de
negócios onde se paga ao fornecedor do produto ou ao prestador de serviços,
somente o que for utilizado. Para os clientes, a indústria aponta como vantagem a
aquisição de uma arquitetura flexível e uma redução de custos em torno dos 20%.

Diante disso, Utility Computing se apresenta como excelente alternativa às


companhias que têm como meta a economia e o controle na utilização de ativos de
informática e telecomunicações. Para reforçar, um exemplo bastante simples do
funcionamento desse modelo que vem tomando corpo com o passar do tempo, é a
comparação com a forma de cobrança do telefone celular, de gás e da energia
elétrica que, normalmente, são pagos conforme o consumo.

Já é coisa do passado adquirir um equipamento ou um software para que seja


utilizado somente em determinados períodos do ano e deixá-lo ocioso o restante do
tempo. Ninguém ou empresa alguma pode se dar esse luxo. O modelo tende a
tornar-se muito mais que uma ferramenta de controle de gastos e ser a estratégia
de negócio da empresa.

Servidores, por exemplo, ficam por muito tempo em desuso dentro da empresa por
cumprirem a função de garantir o pleno funcionamento dos sistemas e cumprir a
demanda em períodos de pico. A média de utilização de servidores sobressalentes é
de 15% do uso de sua capacidade, fator que contribui com o aumento dos custos de
uma corporação.
-1–
Ao optar pelo uso sob demanda, um comércio varejista, por exemplo, que tem em
dezembro um pico gigantesco de uso com as vendas do Natal e em janeiro o uso
quase que vai a zero, pagará de forma diferenciada e proporcional pelos recursos de
TI.

O modelo Utility Computing já é uma realidade no universo de TI em função de uma


combinação de fatores associados, focalizados no outsourcing e no hosting, em
tecnologias emergentes, como por exemplo, o Grid Computing. E ainda em
potencialidades mais robustas de segurança e na experiência dos modelos de
comercialização conhecidos como ASP (Application Service Provider), ou provedores
de aplicações. Porém, o conceito não é novidade para os profissionais de tecnologia,
tendo em vista que seu surgimento já conta com cerca de vinte anos mas, diante da
falta de maiores recursos tecnológicos e de cultura de mercado, não conquistou
muitos adeptos à época.

Impulso com novas tecnologias

Esse modelo de negócio no qual se paga apenas o que se utiliza retomou suas forças
com a massificação da banda larga e com as novas tecnologias de Grid Computing,
nomenclatura que define a divisão do trabalho a ser realizado entre os recursos
computacionais disponíveis. Com o correr do tempo, Grid Computing será
acrescentada a muitas infra-estruturas corporativas e trará um grande crescimento
da potência de CPU para tarefas que exigem computação intensiva.

Na verdade, o conceito de virtualização torna disponível sob demanda a capacidade


de rede, permitindo que aplicações corporativas como automação da força-de-
vendas e gerenciamento de recursos corporativos sejam adquiridos no modelo ASP.
A tendência para esse segmento caracteriza-se ainda pela oferta e definição de
serviços que irão permitir ao mercado optar entre vários modelos de negócio, como a
terceirização total, ASP ou gerenciamento de serviços.

Para abordar o assunto e passar a idéia da venda conforme o uso para o mercado
comprador, a indústria adota nomenclaturas diferentes para essa infra-estrutura de
TI. Talvez o termo mais conhecido seja on demand (sob demanda), adotado pela
IBM. A Oracle optou por utilizar o termo Grid e a HP, por sua vez, usa a terminologia
empresa adaptativa. Existem, obviamente, variações na abordagem, no formato e na
venda da tecnologia de empresa para empresa, porém, a base é a mesma em todas
elas, ou seja, todas mantêm a premissa de oferecer e cobrar pelos produtos e
serviços conforme o uso.
Esses players enxergam a infra-estrutura a ser ofertada como componentes
automatizados, módulos que o cliente compra de acordo com sua necessidade
momentânea. Esses módulos são complementares e seguem as orientações da
governança corporativa e suas melhores práticas.

-2–
Outras gigantes do segmento de TI aderiram ao modelo. A EDS investiu US$ 2
bilhões no que chamou de estratégia Agile Enterprise, que visa a oferecer o formato
de Utility Computing para as áreas de infra-estrutura, aplicações e BPO (Business
Process Outsourcing). A empresa encabeça um grupo de empresas como a Cisco,
Dell, EMC, Microsoft, Oracle, SAP, Siebel, Sun Microsystems, Towers Perrin e Xerox.
Todas elas estão também empenhadas na divulgação e na adesão à oferta de Utility
Computing no Brasil e envolvidas nas pesquisas, no desenvolvimento e na gestão do
portfólio de ofertas ao mercado. Cada uma dessas empresas entra com suas
particularidades e potencialidades e a EDS alinha os serviços a serem prestados.

Estratégia de negócios

Há um bom tempo, o segmento de Tecnologia da Informação está em busca de


fórmulas para reduzir custos fixos e gastos com sistemas legados e novas aquisições,
sejam elas em hardware, software ou serviços. Tecnologias emergentes, novos
sistemas, hardware de última geração, necessidade de aumentar a segurança dos
dados e planos de contingência demandam altos investimentos. E não é fácil
justificar todo esse gasto à alta administração da companhia.

Crises econômicas, regulamentações como a Sarbane Oxley (SOx) e Basiléia II, para
citar uns exemplos, têm obrigado o mercado a cortar todo o tipo de despesas e a
enxugar o orçamento para conquistar metas e acertar o compasso da corporação
com a nova ordem mundial. Com tudo isso acontecendo, executivos buscam novas
fórmulas e caminhos alternativos.

Na mira dos executivos está uma série de medidas que visa a economia e o ajuste
do orçamento das corporações, como a redução do TCO, ou total coast operation,
que é a diminuição do custo total de propriedade, assim como a busca pelo retorno
dos investimentos (ROI) e tantas outras iniciativas que têm agora como aliado o
pagamento conforme o uso de recursos de TI.

Os profissionais de informática são constantemente cobrados pela alta administração


das empresas a ajustarem os orçamentos, de tal forma que o departamento de
tecnologia apresente um resultado financeiro satisfatório e não seja a área que só
consome recursos, pelo contrário colabore para as metas financeiras da empresa.
Essa premissa tem recebido maior destaque com as questões de governança
corporativa e de TI (Tecnologia da Informação), tema que se encontra entre os
primeiros colocados na lista da ordem do dia.

Diante do fato de que as corporações e os responsáveis pela área de tecnologia


procuram a maximização dos seus investimentos e a obtenção rápida dos retornos,
nota-se, ainda incipiente, mas de maneira gradual, um aumento da oferta e na
procura de serviços utilitários (Utility Computing) como uma forma de redução de
custos.

-3–
De acordo com analistas de mercado, há grande preocupação de usuários na procura
por prestadores de serviços que ofereçam soluções no âmbito das infra-estruturas de
TI – redes de comunicação, desktops e gerenciamento.

A tendência para a aquisição de serviços de TI como um conjunto de Utility


Computing teve maior desenvolvimento durante os últimos cinco anos. De acordo
com dados da International Data Corporation (IDC), a computação como utilidade
tem como potencial alterar radicalmente a forma que a tecnologia da informação
servirá os negócios. Porém, essa jornada está ainda no começo e há passos
gradativos e importantes que devem ser tomados antes de uma migração para uma
infra-estrutura on demand, ou sob demanda.

Evolução constante

Utility Computing está entre as tecnologias e soluções que irão apresentar os


maiores índices de desenvolvimento até 2006, conforme estudo realizado pela IDC.
Os três fatores que surgem em boa posição para contribuir com o crescimento do
segmento de TI são, além de Utility Computing, Web services, mobilidade e home
computing.

Para o instituto, o conceito de Utility Computing é uma das soluções mais


promissoras do mercado e descreve esta tecnologia como o modelo de computação
em que os recursos computacionais e de gestão estão adaptados às necessidades
das empresas, permitindo que os colaboradores acessem os sistemas em qualquer
local.

Após ter sustentado contínuo crescimento por quatro anos consecutivos, o mercado
de tecnologia chegou ao seu ápice em 2000, incluindo-se nesse contexto o impulso
conseguido em função do Bug do Milênio. Depois disso, as dificuldades se vêm
acentuando, com demonstrativos financeiros nem tanto satisfatórios por parte da
maioria das empresas.

Esse fato tem provocado na indústria e nos gestores iniciativas para tirar TI (e, claro,
as empresas) da curva descendente que se apresenta. E é frente à necessidade que
o ser humano se torna mais criativo. Daí surgem soluções como Utility Computing
que tem como propósito o controle de custos diante do pagamento do que se usa.

Na sua análise, a IDC chega à conclusão de que Utility Computing ainda está em um
estágio inicial, tendo um longo caminho a percorrer até estar apto a corresponder à
grande proposta de não apenas reduzir custos, mas acima de tudo ser uma
excelente estratégia de negócios. No entanto, já avançou no sentido de conquistar o
topo da lista de tecnologias mais necessárias e cobiçadas.

-4–
Em processo de consolidação, o conceito terá de passar ainda para as fases de
automatização e de virtualização, passos já iniciados, porém ainda não concluídos.
Ao longo de todo o processo (passando pelas fases de automatização e de
virtualização), até 2006 inúmeras e vantajosas oportunidades de negócio surgirão
para os envolvidos nesse segmento. A fase de partilha, que permite que todos os
recursos de TI de uma companhia sejam divididos (ou partilhados) e
automaticamente locados a tarefas específicas, deverá ser o mais rentável da área
de Utility Computing depois do processo amadurecido, ou seja, após 2006.

Os cuidados ao fazer a opção

Com a utilização de Utility Computing, ou o pagamento conforme o uso, é possível


que o departamento de tecnologia consiga redirecionar e promover a expansão de
toda ou de parte da infra-estrutura. Estando alinhada à filosofia da corporação, irá
atuar conforme as necessidades do negócio cresçam e se modifiquem, permitindo o
compartilhamento de energia, armazenamento de dados, base de dados e outros
serviços em tempo real pelos usuários.

A proposta é que, com essa maneira de fornecimento e de pagamento, a área de


Tecnologia da Informação esteja melhor alinhada com as metas da empresa, assim
como com as demais unidades, controlando custos e ativos ao alocá-los para
projetos ou departamentos específicos da organização. Utility Computing é uma
ferramenta imprescindível para atender as exigências de TCO (custo total de
propriedade), com tempo e despesas reduzidos. O conceito poderá se tornar muito
mais que uma ferramenta de redução de custos e passar a fazer parte da estratégia
de negócios da empresa.

Pelo lado da indústria fornecedora, a maneira de vender conforme o uso pode ser
aplicada na mais variada gama de software, assim como em sistemas de bancos de
dados e servidores de aplicações, por exemplo. A oferta de produtos como utility
beneficia também as pequenas e médias empresas, por não precisarem arcar com a
manutenção de uma equipe interna para cuidar da tecnologia.

Há diversas formas de contratar o conceito de Utility Computing. O cliente escolhe se


quer deixar a solução armazenada na empresa fornecedora ou dentro de ‘casa’
mesmo. Normalmente, em ambos os casos, a administração total é da fornecedora.
O usuário poderá optar entre vários modelos de negócio, como a terceirização total,
ASP ou gerenciamento de serviços.

Adaptação dos Data Centers

Uma das formas de fornecer produtos e serviços sob demanda é por meio de data
centers – centros de altíssima tecnologia, totalmente equipados e preparados para
aplicações pesadas e onde são compartilhados os sistemas, com segurança e
confiabilidade.
-5–
Ainda há desconfiança nesse modelo e o fato do gerente de informática não ter uma
máquina perto de si para gerenciá-la, ainda causa desconforto em alguns
profissionais. Na outra modalidade, o cliente opta por deixar o servidor na própria
empresa e fazer tudo, desde o gerenciamento, até as atualizações com a equipe
interna.

Algumas mudanças podem ser observadas nos data centers, que passam a exercer
um novo modelo de negócios, atendendo de forma satisfatória o modelo de
pagamento sob demanda. Esses mecanismos de oferta de produtos e serviços
centralizados evoluem e deixam de ser meros fornecedores de TI e passam a
abranger toda uma infra-estrutura de produção.

Ainda recente, essa evolução se caracteriza pelo conceito de empresa estendida,


modelo que garante a adoção de um outro conceito: o ecossistema global. A base
para a infra-estrutura de TI da empresa estendida será a gestão de mudança.

Com o modelo de negócio de empresa estendida é viável a criação de um ambiente


com sistemas seguros, porém, o profissional de TI tem como desafio, oferecer um
nível de serviço adaptável. Com isso, a infra-estrutura deixa de ser vista como um
emaranhado de fios, máquinas e software.

Para os analistas, é importante abordar a arquitetura de empresa adaptativa


holisticamente, não como uma preocupação tecnológica. A empresa se tornará
adaptativa após um tempo, diante de todas as decisões tomadas em relação à
arquitetura tecnológica.

O departamento de tecnologia de uma corporação deve ser o maior facilitador de


mudanças, tendo em vista que o fator flexibilidade é a mola propulsora desse
mercado. Para tanto, é preciso trabalhar em conjunto com as outras unidades da
empresa, como marketing e recursos humanos, além de estar sempre muito perto
dos tomadores de decisão da companhia.

Integradores de tecnologia responderam em massa a algumas das novas alternativas


existentes no mercado, abraçando-as como soluções inteiramente emergentes ou
migrando das exaustivas implementações de gerenciamento de rede de anos atrás.
Uma pesquisa da Thinkstrategies e da MSP Alliance indicou que a receita da imensa
maioria dos parceiros do canal de distribuição cresceu nos últimos doze meses. Além
disso, o estudo previu que essa tendência aumentará na medida em que Utility
Computing se tornar predominante.

Quando os clientes precisam de serviços gerenciados, querem saber com absoluta


certeza de que são capazes de resolver seus problemas em questão de horas ou
dias, não de semanas ou meses. No ambiente de TI atual, os serviços gerenciados
que possam ser adquiridos sob demanda fazem mais sentido.

-6–
Em busca do sucesso

O segredo do sucesso de empresas de tecnologia está na oferta às diferentes


necessidades dos clientes, mais alinhada com as suas motivações e estratégias. É
importante ter em mente que, apesar do entusiasmo que novas tecnologias podem
provocar, as organizações não se devem desviar das necessidades dos seus clientes,
que não são motivados pela tecnologia.

Se, para o mercado consumidor, a conveniência, a simplicidade, o serviço e o


entretenimento são fatores que motivam a aquisição, para as empresas é
determinante o valor que a adoção de novas tecnologias pode agregar ao negócio.

É papel do profissional à frente de um departamento de TI, ao propor a adoção de


Utility Computing estar atento aos ganhos e riscos que a empresa assumirá, fato que
irá criar impactos diretos no valor criado para o cliente e para o acionista.

-7–
Módulo 2 – Cenário

Aperfeiçoando o conceito de ASP, mas mantendo as facilidades do ?pay-per-user? ou


pague pelo que utilizar, o Utility Computing utiliza ainda funcionalidades como o Grid
Computing e redes de banda larga.

O conceito volta ao cenário de TI

Apesar de recente, o conceito de Utility Computing não é novo. Pode-se dizer que é
uma evolução do modelo de comercialização denominado ASP – Application Service
Provider, ou provedores de solução. A forma de comercialização em TI que prevê o
pagamento somente do que se utiliza de um hardware ou de aplicativos é uma
alternativa para empresas que buscam economia e controle na utilização dos seus
recursos de TI. Por meio da automatização tecnológica, as empresas simplificam a
prestação de serviços, ativando ou desativando recursos de acordo com o nível de
demanda.

O que faz do Utility Computing uma tecnologia tão interessante é o fato de permitir
ao empresário planejar sua estrutura de maneira mais flexível e, simplesmente
utilizar os serviços que interessam e quando for conveniente. Como já acontece com
as contas de telefone celular, que pagamos somente pela quantidade de minutos
utilizados e pré-acordados, assim também funciona o Utility Computing. Em resumo,
esse conceito reduz as despesas com hardware e os custos operacionais, alinha a
área de TI às iniciativas do negócio e diminui o tempo para disponibilizar recursos
novos ou adicionais aos usuários.

A base para a forma atual de uso do Utility Computing vem dos ASPs (que teve os
primeiros adeptos no Brasil no final do ano 2000) e é definido como o mecanismo
pelo qual as empresas alugam sistemas e pagam pelo uso, em vez de comprá-los.
Ou seja, ASP é um sistema com estrutura computacional centralizada, capaz de
atender a diversas empresas em um único software ou hardware. Sendo assim, as
empresas não precisariam obter um parque tecnológico (servidores, software,
sistemas completos e backbone) necessário para montar sua própria infra-estrutura.

Um comparativo com o modelo ASP, que é a base do conceito de Utility Computing,


são as operadoras de telefonia que têm de se preocupar em oferecer a melhor
tecnologia e o usuário, por sua vez, somente em usar o aparelho telefônico. Um dos
grandes benefícios desse sistema é levar aos usuários a tranqüilidade de utilizar um
aplicativo que estará sempre no estado-da-arte em tecnologia sem ter de pagar por
isso. Um dos fundamentos do ASP é livrar os clientes da preocupação com o
desenvolvimento da tecnologia e da perda de tempo com assuntos que não são foco
do seu próprio negócio, tendo em vista que oferece a possibilidade de utilizar
tecnologias em forma de serviço sem riscos do desenvolvimento.

-8–
ASP rumo ao Utility Computing

Em 2001, a Vale.com, que é o braço digital da companhia Vale do Rio Doce, efetivou
a primeira experiência de uso de um ASP em sua totalidade. Esse projeto pioneiro foi
implementado pela Aspix, empresa de ASP da Xerox, que se comprometeu a seguir à
risca os mandamentos básicos do ASP. Até então, nenhuma empresa havia utilizado
o conceito ASP de forma integral. Naquela época, os fornecedores do serviço no
Brasil, em geral, cobravam o licenciamento do software, fato que acarretava em um
alto custo para utilizar programas que ajudavam no gerenciamento (ERP), por
exemplo. O custo de implementação de um software ERP em uma empresa de
pequeno porte girava em torno de R$ 10 mil.

Ao longo do tempo, os fornecedores de soluções observaram que a necessidade do


mercado coorporativo era projetar suas vendas no mundo e-business e, com base na
demanda crescente e na tendência tecnológica do e-commerce, foram alterando a
visão no que se referia a modelos de negócios e pendendo para o ASP. Uma das
vantagens das aplicações utilizadas no modelo ASP está na sua estrutura
tecnológica, que é compartilhada por todos os clientes que as alugam por taxas
mensais. Essas taxas estão longe dos altos valores despendidos na aquisição e
manutenção de hardwares e softwares.

No ano de 2003, a maioria das companhias ainda sofria com os investimentos


exigidos pelo bug do milênio e não se registrava interesse por novos equipamentos
de TI. Ocorreu, então, uma tentativa de ressuscitar o mercado, que tinha um novo
comportamento em resposta às mudanças na tecnologia, assim como alterações no
modo como as empresas passaram a enxergar TI.

Alguns fatores levaram à reavaliação e à mudança no modelo de negócios por parte


das empresas usuárias e, conseqüente adaptação das fabricantes e fornecedoras de
soluções de tecnologia da informação, que buscavam uma forma de oferecer
performance com redução de custo. A mudança tecnológica mais perceptível se deu
no tocante ao aumento da potência e na queda do custo do hardware. De 1993 até o
ano de 2003, o preço da capacidade de processamento e de armazenamento caiu de
maneira considerável. Por outro lado, o gastos com software e mão-de-obra
qualificada aumentaram de forma drástica. Dez anos antes, o hardware respondia
pela maior parte do orçamento do setor de tecnologia da informação. Em 2003, já
equivalia a menos de 10%.

Outro fator pode ser notado: os ciclos tecnológicos encurtaram, e isso pressionou as
empresas a renovarem o hardware com maior regularidade, além de inibir o mercado
de equipamentos de segunda mão. O valor do hardware como ativo é altamente
depreciável. Como conseqüência, nessa época, os recursos de leasing passaram,
cada vez mais a ser empregados na aquisição de projetos completos, incluindo
licenças de software, elaboração e implementação de sistemas.

-9–
Antes, frente à escassez financeira, o financiamento de tecnologia se restringia ao
hardware de grande porte (mainframe) e midrange. Nesse momento, tecnologia da
informação passa a ser oferecida como serviço, tendência que se originou dos
desdobramentos ocorridos no sentido da terceirização.

A retomada do uso

Quando se trata de terceirização de processos de negócios, um único sistema central


presta atendimento a diversos clientes em local fora da empresa do cliente. No
modelo, as empresas fornecedoras prestam serviços de instalação e oferecem novos
sistemas, mediante o pagamento de uma taxa mensal pelas empresas usuárias.

É fato que o conceito de fornecimento de software como serviço (ASP) não obteve,
naquela época, a repercussão e o uso esperados pelo mercado por diversos motivos.
Entre eles, o fator cultural pesou bastante, tendo em vista que até hoje os
executivos de TI e mesmo os presidentes das empresas não se sentem confortáveis
com os dados confidenciais de suas companhias rodando fora da empresa. O fator
segurança foi fundamental para o modelo ASP não ter vingado. Por outro lado, as
facilidades do “pay-per-user” ou pague pelo que utilizar, se mantêm.

Na Europa, desenvolvedores de software de pequeno porte adotaram esse modelo


em suas Application Delivery Options. Há cobrança de uma taxa mensal, onde os
custos com equipamento, implementação e treinamento são embutidos e diluídos ao
longo de um determinado período. Houve muita dificuldade para as empresas que se
dispuseram a oferecer serviços no modelo ASP, tendo em vista que colocar esse
sistema em operação acarreta na falta de receita antecipada.

Aperfeiçoando o conceito

Sem esse tipo de problema a enfrentar, gigantes como IBM e HP, partem também
para a oferta do conceito pague somente pelo que utiliza. Sempre atentas às
tendências que o mercado apresenta e em busca de uma solução para as questões
advindas das mudanças e necessidades do mercado comprador, as grandes
empresas aperfeiçoam o modelo, indo além do objetivo de financiar projetos no setor
da tecnologia da informação.

Já há algum tempo, as organizações não estão mais dispostas a adquirir tecnologias


não solidificadas. Não investem a longo prazo e, portanto, inexistem projetos com
duração de dez anos. Diante da necessidade de comprovar o retorno de investimento
(ROI) e de reduzir o custo total de propriedade (TCO -Total Cost of Ownership) fica
complicado para os CIOs (Chief Information Office) traçarem um planejamento,
mesmo para um período de dois ou três anos. O mercado e as tecnologias se
renovam com tal velocidade, que ninguém se arrisca a identificar o que a empresa
precisa, nem mesmo nos próximos doze meses.

- 10 –
Para resolver situações como essas, as gigantes do segmento de tecnologia da
informação, partem para o desenvolvimento e o aprimoramento de alternativas e
funcionalidades como a computação em grade (Grid Computing), virtualização,
tecnologias ASP e redes de banda larga. Todas elas contribuem para a viabilidade do
conceito de Utility Computing.

A grande questão de fornecedoras interessadas em operar nesse modelo de


comercialização, mas que não possuem base financeira sólida, é como bancar os
custos iniciais e assumir os riscos financeiros, já que têm investimentos pesados nos
sistemas a serem oferecidos para, somente depois, ter a entrada de dinheiro com a
cobrança da taxa mensal do que foi utilizado.

Existem empresas que pretendem passar a fornecer soluções no conceito de Utility


Computing, porém, são barradas diante da impossibilidade de iniciar o processo.
Tudo isso pela questão financeira, tendo em vista que a mudança do processo
comercial de receber uma taxa mensal pelos serviços utilizados e não mais
simplesmente a venda de equipamento é uma transição que exige cuidados
especiais.

Grid Computing para a consolidação

Grid Computing é uma das principais bases para a evolução e a consolidação do


modelo de comercialização onde se paga pelo que se utiliza. É uma tecnologia que
possibilitou a retomada do Utility Computing. Grid Computing já tem 36 anos desde
que surgiu pela primeira vez e agora volta à tona não apenas no mercado de TI, mas
nas corporações de modo geral.

Esse conceito, que teve sua idealização nos sistemas em que a energia elétrica é
produzida e distribuída conforme o uso, foi se adequando ao segmento de tecnologia
da informação ao longo desses anos. Grid, que se traduz como grade, é definido por
Ian Foster, pesquisador e professor de ciências da Computação da Universidade de
Chicago e um dos maiores divulgadores dessa tecnologia, como uma infra-estrutura
de hardware e software que provê capacidades computacionais consistentes,
variáveis e baratas.

Um sistema de computação em grades inter-relaciona e gerencia funcionalidades e


usuários de diferentes domínios, fato que possibilita que o usuário trabalhe com
recursos de diversos servidores, soluções e bancos de dados. Além disso, tem como
destaque o uso de protocolos e interfaces padrão, abertos e de uso geral, ou seja,
um sistema de aplicação específica.

Grid Computing tem base em protocolos multiproposta e interfaces que cuidam de


tarefas prioritárias como autenticação, autorização, pesquisa de recursos e acesso a
dados. É muito importante que esses protocolos e interfaces tenham o código-fonte
aberto.
- 11 –
Uma outra definição é que a arquitetura de Grid Computing é uma virtualização dos
recursos computacionais, incluindo servidores, redes e storage (armazenamento) e,
por colaborar com a redução do custo total de propriedade (TCO), computação em
grade se apresenta como uma tendência natural para projetos futuros nas empresas.
Como exemplo, é possível comparar uma estação de trabalho com um computador
central e endereçar questões de segurança, privacidade, pagamento etc. A
tecnologia de grid também pode ser entendida como um sistema local de
gerenciamento.

Os recursos de Grid Computing permitem que as funcionalidades sejam usadas de


forma coordenada para entregar os vários serviços, de acordo com o tempo de
resposta, rendimento de processamento, disponibilidade e segurança, e coalocar
múltiplos recursos para atender a demandas complexas dos usuários, então a
utilidade de um sistema combinado é significativamente maior do que cada uma de
suas partes.

As faces do Utility Computing

Todos esses benefícios e evoluções, que convergem para o conceito de Utility


Computing, fazem com que a grande maioria dos fabricantes de tecnologia se volte
para o modelo de pagamento pelo que se utiliza. Pode ser via novos produtos, como
é o caso da IBM e da Oracle, ou como a HP que estabeleceu parceria com
universidades para o desenvolvimento de grid. Notadamente, Utility Computing se
mostra como um modelo de negócios que tem futuro, após décadas de discussão e
aprimoramento.

Em novembro de 2003, a Oracle lançou no Brasil o banco de dados Oracle


Application Server 10g, adaptado ao conceito. A companhia aponta como vantagens
do uso de um sistema grid, a redução de custos e a otimização da capacidade de
processamento, além da perda da ociosidade de processamento, utilizando o
equipamento para reduzir os gargalos.

Também nessa época, um dos destaques estratégicos da IBM já era o Business on


Demand (negócios sob demanda). O conceito é um sistema que vai dentro da
atividade-fim do cliente de ponta-a-ponta, proporcionando ao negócio flexibilidade,
agilidade e estrutura de acordo com a necessidade de quem o contrata.

O conceito on demand está apoiado em quatro pilares. O primeiro é operar em


sistema aberto e padrão. Em seguida, um sistema sob demanda precisaria
desenvolver um método de computação autonômica, ou seja, que tivesse a
capacidade de corrigir seus próprios erros. Então, a IBM organizou uma rede mundial
de pesquisa, que reuniu clientes, parceiros, universidades e até concorrentes.
A complexidade desse sistema de correção de erros está tomando proporções
significativas.

- 12 –
O terceiro pilar do modelo da IBM está ligado às redes, onde o desafio foi identificar
uma rede mais inteligente que os modelos existentes e que pudesse se beneficiar
dos recursos ociosos. Surgiu então, a recuperação do grid.

O quarto pilar do on demand foi conhecer o negócio de cada cliente para fornecer
soluções de acordo com as demandas e da forma mais adequada possível. Houve
grandes investimentos da companhia para a conclusão dessa etapa, que culminou
com a aquisição da empresa de pesquisa PriceWaterHouse Consulting, por US$ 3,5
bilhões.

A HP tem ações efetivas em direção ao utitlity computing e estratégias regionais no


desenvolvimento do grid. Ao identificar entre a comunidade acadêmica da
Universidade Federal de Campina Grande (PB) um interesse significativo em Grid
Computing nos trabalhos da faculdade de Ciências da Computação, a empresa
associou-se à instituição e criou o ourgrid.

Trata-se de um centro de pesquisa que iniciou suas atividades em janeiro de 2003 e


trabalha ligado aos projetos desenvolvidos pelos demais centros da HP em todo o
mundo. O primeiro fruto do trabalho do centro é o MyGrid, que é uma solução
completa para desenvolvimento e execução de aplicações Bag-of-Tasks (as
aplicações paralelas cujas tarefas são independentes) em grids.
Adaptive Enterprise ou empresa adaptável foi o nome escolhido pela HP para
competir com o modelo de negócios on demand, da IBM, e que impulsionou e
norteou a mudança no rumo de seu modelo de atuação. Adaptive Enterprise trouxe
em seu planejamento, o lançamento de produtos, serviços, software, soluções e uma
arquitetura de referência empresarial. O pacote de novidades teve como objetivo
auxiliar os usuários da fabricante HP a medir, projetar e gerenciar mudanças na
estrutura de TI, sempre tendo como meta atender a demanda de negócios.

O conceito da HP tem apoio na velocidade das atualizações tecnológicas, superando


a capacidade de adaptação das empresas usuárias. Todos os produtos e serviços da
fabricante serão trocados pelo conceito de empresa adaptável, que tende à
virtualização gradativa do processamento de aplicativos, começando dentro das
próprias empresas, porém a meta é atingir terceirização total, conforme o caso.

O que vem por aí

Terceirização ou outsourcing fazem parte das tecnologias e conceitos que envolvem


o utitlity computing, sistema em que se paga somente pelo que foi consumido e que
pode ser implementado na própria empresa usuária ou fora dela. Assim como as
demais tecnologias, o outsourcing tem passado por um processo evolutivo, que
atualmente é definido pela a International Data Corporation – IDC por três tipos.

- 13 –
O primeiro consiste no modelo tradicional, que delega a empresas prestadoras de
serviço a infra-estrutura, as aplicações e a rede de voz utilizada pela empresa, por
exemplo. A segunda é conhecida como adapting computing, e ajusta o pagamento
dos serviços de TI de acordo com o uso por parte do contratante. Já o Utility
Computing é a terceira fase desse processo evolutivo e refere-se à utilização dos
serviços de TI em função das necessidades das empresas, como é procedido nos
casos do consumo de água e de eletricidade, como exemplo.

Para o instituto de pesquisa, o estágio atual vivenciado pelo mercado é o da primeira


fase e o início da segunda e é possível que demore cerca de dez anos até que o
adapting computing torne-se totalmente aceito pelas corporações. Já a terceira fase
é ainda visionária e pode demorar muito para tornar-se realidade. Todavia, do ponto
de vista conceitual, Utility Computing faz bastante sentido.
Utility Computing e todas as tecnologias que o estão impulsionando como banda
larga, melhorias em segurança, ASP e Grid Computing permite a transformação de
custos fixos em custos variáveis. Com isso, o mercado está de olho nessa tendência,
por proporcionar ganhos de produtividade. Utility Computing, ao que tudo indica, é
inevitável nas empresas que precisam reduzir custos e justificar investimentos.

- 14 –
Módulo 3 – Prós e Contras

Existem pontos positivos e negativos nesse modelo on demand computing, ou


negócios sob demanda. Para entendê-los é preciso perceber a diferença entre Utility
Computing, ASP e terceirização.

Um paradigma no modelo de negócios

Como já abordado nos módulos anteriores, o mercado também entende Utility


Computing como sinônimo on demand computing, ou negócios sob demanda.
Existem pontos positivos e negativos também nesse modelo. Nele, os recursos
tecnológicos e computacionais são alocados para uma organização que em
determinado período tem necessidade de obter os recursos computacionais para
processar grandes quantidades de dados, ou ainda, que necessite de recursos
adequados para analisar todos os dados coletados. Nesse caso, por exemplo, é
possível utilizar servidores externos que forneçam a capacidade extra dos recursos
somente nos períodos críticos especificados.

É preciso esclarecer e reforçar que em um outro cenário dentro da própria


organização, o conceito de Utility Computing engloba o Grid Computing. Isso
acontece quando uma empresa direciona recursos de TI para os usuários internos de
forma individual, na medida de sua necessidade. Por exemplo, recursos
computacionais como ciclos do processador central, disponibilidade da largura de
banda, aplicações e armazenamento podem ser canalizados aos usuários baseados
nas tarefas que estão executando em horários determinados. Se um grupo de
usuários estiver trabalhando com aplicações que demandam uma grande largura de
banda, a mesma poderá ser alocada de forma específica, sendo desviada de outros
usuários que não necessitam da largura de banda naquele mesmo momento.

Os recursos sob demanda podem ser internos da empresa, que é o modelo de Grid
Computing ou a companhia pode terceirizar suas necessidades adicionais
momentâneas, com um fornecedor de serviços externos.

ASP rumo ao Utility Computing

Em 2001, a Vale.com, que é o braço digital da companhia Vale do Rio Doce, efetivou
a primeira experiência de uso de um ASP em sua totalidade. Esse projeto pioneiro foi
implementado pela Aspix, empresa de ASP da Xerox, que se comprometeu a seguir à
risca os mandamentos básicos do ASP. Até então, nenhuma empresa havia utilizado
o conceito ASP de forma integral. Naquela época, os fornecedores do serviço no
Brasil, em geral, cobravam o licenciamento do software, fato que acarretava em um
alto custo para utilizar programas que ajudavam no gerenciamento (ERP), por
exemplo. O custo de implementação de um software ERP em uma empresa de
pequeno porte girava em torno de R$ 10 mil.

- 15 –
Ao longo do tempo, os fornecedores de soluções observaram que a necessidade do
mercado coorporativo era projetar suas vendas no mundo e-business e, com base na
demanda crescente e na tendência tecnológica do e-commerce, foram alterando a
visão no que se referia a modelos de negócios e pendendo para o ASP. Uma das
vantagens das aplicações utilizadas no modelo ASP está na sua estrutura
tecnológica, que é compartilhada por todos os clientes que as alugam por taxas
mensais. Essas taxas estão longe dos altos valores despendidos na aquisição e
manutenção de hardwares e softwares.

No ano de 2003, a maioria das companhias ainda sofria com os investimentos


exigidos pelo bug do milênio e não se registrava interesse por novos equipamentos
de TI. Ocorreu, então, uma tentativa de ressuscitar o mercado, que tinha um novo
comportamento em resposta às mudanças na tecnologia, assim como alterações no
modo como as empresas passaram a enxergar TI.

Alguns fatores levaram à reavaliação e à mudança no modelo de negócios por parte


das empresas usuárias e, conseqüente adaptação das fabricantes e fornecedoras de
soluções de tecnologia da informação, que buscavam uma forma de oferecer
performance com redução de custo. A mudança tecnológica mais perceptível se deu
no tocante ao aumento da potência e na queda do custo do hardware. De 1993 até o
ano de 2003, o preço da capacidade de processamento e de armazenamento caiu de
maneira considerável. Por outro lado, o gastos com software e mão-de-obra
qualificada aumentaram de forma drástica. Dez anos antes, o hardware respondia
pela maior parte do orçamento do setor de tecnologia da informação. Em 2003, já
equivalia a menos de 10%.

Outro fator pode ser notado: os ciclos tecnológicos encurtaram, e isso pressionou as
empresas a renovarem o hardware com maior regularidade, além de inibir o mercado
de equipamentos de segunda mão. O valor do hardware como ativo é altamente
depreciável. Como conseqüência, nessa época, os recursos de leasing passaram,
cada vez mais a ser empregados na aquisição de projetos completos, incluindo
licenças de software, elaboração e implementação de sistemas. Antes, frente à
escassez financeira, o financiamento de tecnologia se restringia ao hardware de
grande porte (mainframe) e midrange. Nesse momento, tecnologia da informação
passa a ser oferecida como serviço, tendência que se originou dos desdobramentos
ocorridos no sentido da terceirização.

Avaliando o conceito

Utility Computing – assim como outros conceitos – oferece vantagens e


desvantagens às empresas usuárias. O benefício de Utility Computing é que a
corporação usa seus recursos de forma mais eficiente, disponibilizando somente a
capacidade e as facilidades necessárias para aquele determinado momento ou tarefa.
Nesse modelo, a empresa paga somente pelos recursos adicionais realmente
utilizados, como a conta de energia elétrica, por exemplo.

- 16 –
Outro ponto forte é a questão do custo, que pode ser melhor gerenciado e sofre uma
considerável redução, já que se paga somente pelo o que é utilizado, conforme a
necessidade da companhia, sem o custo de capacidade ociosa por longos períodos.

Quem pensa em adotar o modelo Utility Computing deve saber exatamente e


claramente o que quer, o que necessita. Ao contrário, os modelos ASP e outsourcing
iniciaram-se com base na infra-estrutura de TI e a pergunta era como é possível
fazer melhor. Utility Computing é funcionalidade de TI com base na demanda,
enquanto que os outros dois modelos são recursos tecnológicos, infra-estrutura, e/ou
aplicações para alugar. Utility Computing é um serviço que demonstra benefícios
mais palpáveis e os outros dois são as opções que apresentam aspectos
ambivalentes para os usuários em relação ao comércio tradicional.

Os gerentes ou CIOs demonstram que gostariam de começar o modelo de Utility


Computing com confiança e de forma rentável, com custo efetivo sobre o que utiliza.
A analogia estabelecida com a forma de cobrança das empresas públicas de
eletricidade, de água, e de telefonia (utilities) é apropriada, porque os serviços
realizados hoje por essas empresas têm custo acessível pela maioria da população e
recebem total confiança dos usuários. Um verdadeiro provedor de funcionalidades
sob demanda constrói uma arquitetura de TI fundamental, de tal maneira, que
examina as vantagens, seja da Internet ou recursos compartilhados da aplicação, por
exemplo, uma base de dados.

Os modelos ASP e outsourcing supõem a execução de um contrato tradicional de


software, de licença e de manutenção, que incentiva preços excessivamente altos da
funcionalidade. A receita de um fornecedor Utility Computing, em que se paga o
quanto se utiliza, depende da entrega da funcionalidade necessária e somente
quando o usuário a solicita. Então, nesse modelo, as barreiras entre os provedores
de serviços caem consideravelmente. Como resultado, os provedores de serviço
terão significativamente maior capacidade de resposta do que os departamentos
internos de TI de uma empresa, assim como as terceirizações e os ASPs.

As diferenças entre Utility Computing e os modelos do ASP e do outsourcing estão


enumeradas na tabela abaixo. Utility Computing é um modelo novo, mesmo que
alguns de seus adeptos não concordem inteiramente. Mas uma coisa é certa, há
abundância dos interessados que vão analisar as vantagens do crescimento da
demanda de Utility Computing. Isso porque esse conceito terá sucesso onde outros
falharam, defendem alguns analistas de mercado.

Não se tem a data exata de quando surgiu o primeiro provedor de serviços de


aplicações – ASP, mas já no início do ano 2000, nos Estados Unidos, esse conceito
transformava-se na melhor notícia que o mercado recebeu desde o surgimento das
próprias aplicações. De certa perspectiva, o sincronismo entre a oferta e o mercado
comprador era bom. Os idealizadores do ASP podiam atender às grandes
expectativas advindas com a explosão das empresas dot.com.

- 17 –
Na ocasião, boa parte das companhias, inclusive as grandes empresas de
telecomunicações como a AT&T e a Sprint entraram na onda dos ASPs. Parecia que o
conceito tinha tudo para dar certo. Um terceiro provedor que vai operar e manter as
aplicações do usuário, oferecendo como resultado economias de custo e melhor
desempenho. O único problema que não contavam é que os usuários não foram
convencidos.

As empresas que ofereciam a comercialização de soluções via modelo ASP tinham


poucos argumentos e se apoiaram em uma proposta fraca do valor: as economias de
custo disponíveis para hospedar outras aplicações. Os usuários fizeram um
comparativo e não ficaram impressionados com o que viram. É compreensível a falta
de entusiasmo desse usuário devido a fatores como a economia mínima, os modelos
de negócio questionáveis de muitos dos ASPs e as conseqüências da falha desse
modelo.

Para muitos, hoje o termo ASP chega a ter conotação negativa e está de certa forma,
prestes a transformar-se em uma nota de rodapé como referência histórica. A
maioria de fornecedores retirou-se desse mercado. Entretanto, alguns ASPs
perduram por esperança de melhorias na carteira comercial, ou simplesmente
cumprem as obrigações contratuais.

Em busca da simplicidade tecnológica

Uma empresa de médio porte se vê de mãos amarradas diante do desafio de


encontrar fornecedores de serviços sob demanda. Os centros de dados ficam
separados do recurso. As potencialidades do armazenamento e da comunicação
apresentam uma área quase incontrolável de crescimento e os usuários estão
exigindo constantemente funcionalidades adicionais.

Grandes mudanças vêm ocorrendo no segmento de terceirização de TI por conta das


exigências do mercado que está cada vez mais competitivo. Os modelos tradicionais
estão sendo substituídos por serviços cobrados conforme o uso, amplamente
adotados por empresas de médio porte, que visam atender a demanda de seus
recursos de TI sem ter de desembolsar grandes quantias em dinheiro.

Para a maioria das empresas do SMB (samll and médium business) ou as de


pequeno e médio portes, o gerenciamento das funcionalidades tecnológicas é uma
tarefa que demanda altos custos e não dispõem de verba suficiente. Porém, é
preciso implementar e operar as tecnologias e os aplicativos como gerenciamento de
e-mail, segurança dos dados e proteção contra vírus; gerenciamento de rede, CRM e
ERP, entre outros.

Outro problema deve ser considerado, que são as tentativas de invasão das redes,
que interrompem o funcionamento de muitas empresas.

- 18 –
Números do mercado dão conta de que 54% das grandes empresas contam com um
plano estratégico, ao passo que somente 28% das pequenas e médias concretizaram
esse plano.

O conceito de Utility Computing proporciona o acesso desse porte de empresa a um


melhor gerenciamento dos seus custos e de recursos tecnológicos. Até pouco tempo
atrás, ou contratavam mão-de-obra ou terceirizavam as tarefas, ambas ações
incorriam em custos que não podia arcar. Com o conceito de pagar somente pelo o
que é usado, os riscos são transferidos para o provedor de soluções e, com isso,
ganha flexibilidade e competitividade.

Com esse modelo, empresas do SMB têm a oportunidade de utilizar novas


tecnologias, antes privilégio das grandes, além de terem acesso à infra-estrutura em
tempo real e ao compartilhamento de recursos de TI.

De acordo com o Gartner, até 2007 30% de todas as empresas irão adotar o modelo
Utility Computing, sendo que atualmente 15% das empresas já utilizam esse
modelo, principalmente nos países desenvolvidos. Ainda conforme o instituto de
pesquisa, entre 10% a 20% dos custos totais da operação são destinados à área de
tecnologia de forma direta ou indireta. Na forma de cobrança do Utlity Computing, é
possível que o cliente determine o dia do pagamento. É possível atingir uma redução
de até 50% no custo total de operações de TI por parte das pequenas e médias
empresas, sem contar que o custo com a atualização de softwares via modelo Utility
Computing pode chegar a uma redução de até 30% ao ano.

Tempo também é dinheiro, por isso deve-se considerar a redução de custos no que
se refere ao tempo gasto para pesquisar e manter os inúmeros fornecedores de TI.
Para as empresas do SMB, o custo para detectar um fornecedor é duas vezes maior
do que das corporações. No SMB, são 29% dos custos totais de contratação e nas
empresas de grande porte esses custos são de 14%, de acordo com o Gartner.

Para os defensores do Utility Computing, as empresas podem ter um planejamento


adequado, ser mais competitiva, e investir no negócio o que gastaria com infra-
estrutura tecnológica e seus up grades.

Utility Computing, descrito como uma ferramenta poderosa capaz de reduzir custos e
a complexidade, tem uma vasta lista de tecnologias que promovem uma
reestruturação na estratégia, tornando uma empresa adaptável, ágil e operando
conforme a demanda.

O fator mais forte associado ao conceito é a simplicidade. Em um contexto específico


de um centro de dados, de um sistema de CRM, de otimização da corrente de fonte,
do armazenamento ou do modelo do pagamento por serviços de manutenção
conforme são entregues, a facilidade e a simplicidade são colunas-chaves do modelo
Utility Computing.
- 19 –
Transformando o modelo do outsourcing

Segundo dados do instituto de pesquisas Gartner, hoje Utility Computing caminha


para ser a força que mais vai influenciar o outsourcing com implicações a longo
prazo, além da tendência off-shore. Uma das falhas do modelo tradicional do
outsourcing foi a necessidade de adiantar demandas do negócio em até 10 anos. Isto
resulta freqüentemente no preço e no ressentimento do mercado.

Agora algumas companhias, incluindo o segmento de bancos nos Estados Unidos,


abriram novos caminhos no outsourcing utilizando esse conceito sob demanda. Os
resultados são algo que nenhum executivo deve ignorar.

Aspectos jurídicos

Nesse modelo, no que se refere a negócios, as questões a serem consideradas


envolvem confidencialidade, segurança da Informação (observando a norma
BS7799), privacidade, responsabilidade perante terceiros, exclusividade, proteção de
equipes e principalmente de domínio de conhecimento, que não necessariamente
está sendo transferido no contrato e pode ser cedido apenas em uso.

Com isso, ganha relevância a carteira de contratos, que devem ser geridos pelo
executivo de tecnologia, tais como os de prestação de serviços, conhecidos como
Service Level Agreements (SLA) e contratos de terceirização de processos,
conhecidos como Business Process Outsourcing (BPO).

Em 2004, um estudo do instituto de pesquisas Gartner dava conta de que o mercado


de BPOs seria de US$ 240 bilhões. Em muitas empresas, a boa efetivação desses
contratos pode significar a continuidade ou a quebra de toda a cadeia de entrega de
um serviço.
As tarefas do CIO também se alteram. A função de gerenciar uma equipe de técnicos
passa a ser a administração de contratos. Transformar custos fixos em custos
variáveis, riscos em oportunidades são as vantagens que podem ser apontadas.
Ainda há questionamentos sobre terceirizar serviços não essenciais e deixar na
empresa aqueles que requerem confidencialidade e maiores cuidados.

No Brasil, existem estudos e acompanhamentos jurídicos no tocante ao outsourcing,


sendo que são previstos os modelos de terceirização de mão-de-obra e de serviços e
aplicações. Quando o tema são pessoas, deve-se considerar os riscos com a questão
fraude trabalhista, de direitos autorais, de privacidade e de responsabilidade frente a
terceiros.

Se a maior parte das empresas de serviço é remunerada por processos de


conhecimento, então é muito importante ter esses riscos medidos e gerenciados de
modo a não se ter um custo maior com a terceirização do que com a própria
execução da atividade pela empresa.
- 20 –
Um formato interessante é o uso do modelo de franchising, substituindo o de
cooperativas que já não resolve da melhor forma a situação do ponto de vista
trabalhista.

A terceirização, ao contrário dos ASPs, tem um histórico longo no mundo do


provisionamento de serviços e mão-de-obra em TI e continua a exercer uma atração
sobre determinado segmento do mercado comprador. Ainda, apesar de sua
longevidade, há poucos clientes descontentes com o outsourcing, mas muitos
usuários têm uma questão a ser respondida: se estão começando um negócio bom
ou não, quando optam pela terceirização dos seus serviços.

A queixa mais comum sobre o outsourcing pode ser parafraseada como "a
produtividade não é melhor com a terceirização do que seria com recursos internos,
mas há menor controle e altos pagamentos". Não é possível afirmar se esta frase é
verdadeira ou não, ao menos o comentário traz à tona um problema com o formato
de terceirização: não há maneira eficaz para medir o desempenho e se estabelecer
um comparativo.
A única linha de base que a maioria das companhias tem para traçar um parâmetro é
a produtividade medida em seus próprios departamentos de TI antes de adotarem o
outsourcing. A pergunta que o CIO deve fazer para obter essa medição é: de quanto
era a produtividade interna antes da terceirização?

A satisfação do cliente transforma-se na única forma de medir seu desempenho,


sendo que no outsourcing e nos contratos do ASP existe a necessidade de
desenvolver uma lista de aquisições em TI e auferir métricas de desempenho.

Arestas a serem aparadas

Por mais vital que sejam o controle e a eficiência de custo, na realidade Utility
Computing não proporciona em suas oportunidades, a criação e o crescimento de
conhecimento e capacitação de profissionais.

O mercado se ressente muito da falta de esclarecimento em torno das


funcionalidades de Utility Computing. Por não deixar claro a própria definição desse
modelo de negócios e também por ter uma atuação tímida, alguns dos fabricantes
que esperam se beneficiar da tendência, contribuíram para confusão e dúvidas
deixadas sobre o conceito.

Como conseqüência, os usuários se estão esforçando para perceber a diferença entre


Utility Computing, ASP e terceirização. Assim como agiram os provedores de serviço
da aplicação (ASPs) e o outsourcing (terceirização) que se precipitaram com
argumentos de redução de custos e redução da complexidade de TI, fabricantes
envolvidos no Utility Computing também iniciaram a divulgação do conceito com
esses argumentos. A tarefa agora é explicar porque Utility Computing terá sucesso
onde falharam os dois outros modelos de comercialização.
- 21 –
Para alguns especialistas, um exemplo está na nova safra de fornecedores de CRM
on demand. Em um nível, oferecem um exemplo simplificado de como Utility
Computing traz oportunidades novas do crescimento. Em um outro nível, o mercado
está sendo jogado em uma situação que ainda não está totalmente clara, com o
modelo de software que licencia cada vez mais sob a ameaça. Seus fornecedores de
software favoritos sobreviverão ao turbilhão? Como as potencialidades específicas e
aplicações customizadas são imputadas cada vez mais ao modelo Utility Computing,
o relacionamento com o fornecedor será cada vez mais profundo.

Os early adopters (ou loucos por novidades e que saem na frente) dessas aplicações
poderão perceber que Utility Computing não terá as mesmas falhas que o modelo
ASP. O custo por tempo do serviço, do tempo de implementação e as vendas estão
sendo impulsionados por uma maior colaboração do cliente e por novas parcerias.

Não se engane sobre o fornecedor: apesar do confiável marketing da maioria deles,


alguns têm melhor preparo na oferta do conceito do que outros. A chave para você e
sua companhia é determinar quais deles representam a melhor escolha.

As exigências do mercado provocam alterações no relacionamento entre TI e a


estratégia de negócios; esta situação é hoje avaliada e torna-se tão necessária como
nunca para a sobrevivência da corporação, haja visto as movimentações no conceito
de Governança em TI.

Não obstante, Utility Computing representa um deslocamento enorme na condução


da atividade-fim e remove muitas barreiras entre a área de tecnologia e a estratégia
de negócio de uma corporação. Para inúmeras companhias, o contrapeso de poder
estar-se deslocando e ajustando-se ao sucesso trazido no passado.

- 22 –
- 23 –
Módulo 4 – Modelos de oferta e Precificação

Como escolher o provedor dos produtos e serviços de Utility Computing? Qual o novo
papel dos profissionais de TI diante deste novo modelo de negócios? Como será a
dinâmica de tomada de decisão quanto ao rumo tecnológico das empresa? Conheça o
Utility Comp

Novos modelos de negócio disponíveis no mercado

Ao que tudo indica – e se depender do empenho de algumas empresas fornecedoras


– o modelo de comercialização que segue a filosofia do pagar pelo que se utiliza veio
para ficar. Ainda em estágio inicial, porém, sem volta, na opinião de analistas do
mercado de TI, Utility Computing aos poucos vai deixando para trás o modelo
tradicional de compra de tecnologia e suas funcionalidades. Essa visão, porém, ainda
é discutível, porque é preciso dar um tempo para que o conceito amadureça, torne-
se uma prática usual e se consolide, assim como acontece com o fornecimento de
energia elétrica.

O novo modelo, com base em antigos conceitos como os ASPs (Application Service
Providers) ou provedores de aplicações que cobram um aluguel mensal pelo
fornecimento de software, traz inúmeras alterações na forma de comercialização e
nas funções dos CIOs (Chief Information Officer). Tudo isto requer mudanças
culturais e leva algum tempo, como mostra a história.

Alguns cuidados e opiniões de terceiros sobre o provedor dos produtos e serviços de


Utility Computing podem ajudar na escolha do parceiro certo. Dentro do novo
modelo de negócios, o usuário precisa estar atento quanto à escolha do fornecedor.
Alguns pontos são fundamentais e devem ser analisados nesse momento. O
comprador deve se certificar de que o prestador de serviços não esteja passando por
dificuldades financeiras, que seja uma empresa sólida.

Não é uma regra, mas normalmente as empresas competentes são renomadas,


portanto, procure aquelas com tradição no mercado. Flexibilidade no contrato é fator
primordial, então, o usuário deve buscar um parceiro que ofereça um SLAs – Service
Level Agreements, que tratam das obrigações dos prestadores de serviço para com
os clientes, compatível com as necessidades da empresa.

Certifique-se de que a linha de trabalho e a forma de atuação do fornecedor são as


mesmas que as suas; que existe sintonia. E, por último, vá até um outro cliente do
potencial parceiro, onde já exista um projeto implementado, e converse com ele. Se
não for possível, pelo menos colha informações sobre o fornecedor por telefone ou e-
mail.

- 24 –
Adequação do profissional

Com a adoção do modelo, os profissionais responsáveis por administrar


departamentos de tecnologia nas empresas passam a exercer funções distintas das
inerentes ao modo tradicional, quando se discutia as especificações técnicas e
comerciais para a aquisição de equipamentos ou de soluções. Com Utility Computing,
os CIOs passam a gerenciar e a responder pelos contratos de nível de serviço
oferecidos pelos fornecedores contratados, também conhecidos como SLA.

Diante do novo modelo, outras áreas da companhia como marketing e finanças, além
da alta administração também se envolvem na tomada de decisão quanto ao rumo
tecnológico da empresa. Esta função antes era exercida somente pelos profissionais
de TI. Portanto, muda também o perfil do CIO que tem de adquirir um perfil mais
comercial e de marketing. É fundamental a existência do poder de convencimento, já
que será necessário, muitas vezes, defender a implementação de projetos ou a
adoção de uma nova tecnologia. Tudo isso envolve também a demonstração do ROI
(retorno do investimento) junto aos donos ou presidentes das companhias.

Formas de pagamentos variáveis

Reduzir os custos e a complexidade dos ambientes de TI é a premissa básica, de


onde partem os fabricantes para oferecer aos seus clientes produtos e serviços em
Utility Computing, em que o cliente paga somente pelo uso e em determinado
período. Em uma era em que a computação em rede tem na infra-estrutura seu
alicerce, surgem inúmeras oportunidades de negócios para uma gama de
prestadores de serviços, além, é claro, dos fabricantes. Um dos grandes problemas
enfrentados por fornecedores e consumidores é a questão de como cobrar pelos
serviços sob demanda.

Existem diversas formas sendo praticadas, porém, não há ainda um padrão definido.
Há planos de pagamentos que prevêem a utilização efetiva ou apenas projetada do
consumo. São aluguéis fixos, ou o custo pelo uso de Megabytes, por exemplo.
Existem mecanismos e softwares para essa contagem. Já a performance pode ser
medida por métricas a serem definidas pelo usuário.

Para a integração de produtos, serviços e financiamentos que irão suprir as


necessidades tecnológicas do cliente, fornecedores oferecem várias opções de baixo
custo. A proposta é transferir de forma gradual os recursos de TI, de acordo com a
demanda, com flexibilidade para adaptar a infra-estrutura, conforme as variações de
pico de processamento.

A HP, por exemplo, oferece as soluções Utility Pricing, que prometem maior controle
sobre a utilização e sobre os custos, sem sacrifício do desempenho. A fabricante
oferece um plano de pagamento com base na utilização real ou planejada.

- 25 –
Fornecedores se adaptam ao conceito

Apesar da falta de uma padronização, até por ter ainda baixo índice de
implementação, fornecedores de Utility Computing tentam se adequar à nova
maneira de vender TI. Existem formas diferentes no mercado de se oferecer as
soluções, de cobrar por elas e, até mesmo, diferentes modelos do próprio conceito.
E, por enquanto, nenhuma delas tornou-se referência para que se estabeleça um
padrão.

Uma das formas adotadas por fabricantes até o momento para cobrar pelo uso é
estabelecer um valor para cada Megabyte utilizado em uma infra-estrutura que,
acumulados, formarão o valor a ser pago pelo cliente no mês. Assim, se uma
companhia cobrar US$ 0,02 por Megabyte e o cliente utilizar – apenas a título de
exemplo – 1 mil Megabytes, decorridos os trinta dias, o cliente terá de desembolsar
US$ 20.

A principal vantagem do modelo de negócio ASP (Application Service Provider) para a


oferta de software, que é exatamente a fórmula do pague conforme o uso, atrai hoje
os fornecedores, apesar de o ASP não ter feito sucesso entre os usuários, conforme
já foi abordado em capítulos anteriores.

Alguns fabricantes de pequeno porte, principalmente dos Estados Unidos, têm


adotado esse modelo na entrega de seus sistemas de TI. Ou seja, não cobra
antecipadamente pelo equipamento, implementação e treinamento, pelo contrário,
os custos são incluídos na taxa mensal e os distribuídos ao longo da duração do
contrato, sendo que é cobrado uma quantia fixa por usuário.

Para esses pequenos fornecedores, é difícil passar a operar nesse formato de


comercialização, porque não podem contar com receitas antecipadas. Em função
disso, muitos vão em busca de financiamento, tendo em vista que a maioria dos
fabricantes não tem condições de assumir o risco para conquistar o mercado de
Utility Computing.

O maior desafio de fabricantes de pequeno porte, que não apresentam capacidade


financeira para sustentar o início de operações de Utility Computing, é desenvolver
os sistemas para, somente depois, cobrar taxa mensal pelo que o cliente utilizou. É
um investimento inicial pesado e a passagem da simples venda de hardware para a
comercialização de serviços, em que recebe uma taxa mensal, constitui-se em uma
transição complexa.

Por outro lado, players como a IBM, Sun Microsystems, Oracle, Cisco, EDS, Intel e
HP, entre outros, têm enorme fôlego financeiro para manter os benefícios do modelo
ASP e aproveitá-los no Utility Computing. Com a adesão dessas grandes empresas, o
modelo recebe melhorias e aperfeiçoamentos, além de obter maior divulgação. Não é
por acso que esses fabricantes se voltaram para a venda de tecnologia sob demanda.
- 26 –
Há iniciativas significativas para o desenvolvimento de formas inéditas de financiar
recursos ao usuário final. Até porque há várias indicações, tanto na área de negócios
como em tecnologia, de que ocorre uma mudança no modo como as pessoas
enxergam a tecnologia da informação. E como não poderia deixar de ser, as gigantes
estão de olho mercado e se antecipando às suas tendências, as quais muitas vezes
são impostas por essas mesmas empresas. As companhias líderes da indústria de
processadores, sistemas operacionais e de rede, entre elas, a Intel, Microsoft e
Cisco, estão guiando os padrões por meio de iniciativas conjuntas de mercado e
desenvolvimento tecnológico.

Em tempos de crise e escassez financeira, todos têm de economizar, apresentar


retorno dos investimentos e orçamentos enxutos. Frente ao fator econômico, não
mais existem aqueles grandes e longos projetos de tecnologia que se arrastavam por
anos nas empresas. Hoje, o cliente quer agilidade, economia e flexibilidade, porque o
CIO precisa de resultados concretos e com retorno rápido ao se reportar aos
acionistas das corporações ou a seus superiores.

Para chegar a uma equação para resolver o problema, a indústria de TI se fez valer
de tecnologias, conceitos e funcionalidades mais antigas que, por alguma razão, não
deram certo, e extraíram o lado positivo. Somaram com tecnologias atuais e o
resultado é Utility Computing, viabilizado pelo advento das conexões em banda
larga, das tecnologias de virtualização (capacidade virtual de proteção e recuperação
em caso no de falha física) e de Grid Computing (grade de processamento), além de
aspectos positivos do ASP.

A movimentação da indústria

A proposta aqui não é listar tudo o que existe no mercado em produtos e serviços
voltados para Utility Computing, mas mostrar como e o quanto alguns fabricantes
estão empenhados em fazer para que o conceito de pagar pelo uso, ou o per-pay-
use, seja solidificado. Dessa forma, evitando o que ocorreu com o modelo ASP. A
IBM deu a largada para toda essa movimentação e está basicamente toda voltada
para o conceito on demand, com a quase totalidade de seu portfólio adaptado ao
conceito.

Sun Microsystems

A Sun Microsystems, por exemplo, aderiu definitivamente ao conceito de Utility


Computing, Pelo menos, é o que indica o fato de a companhia ter lançado mais de 30
inovações tecnológicas, produtos, soluções e serviços e modelos de negócios
baseados no conceito. Para oferecer aos clientes uma alternativa aos padrões de
custo fixo, praticado atualmente pela indústria de TI, ou seja, o modo tradicional de
comercialização, a Sun propõe novos modelos de assinatura, de preços e de
serviços.

- 27 –
Entre eles estão o Sun Preventive Services, que foi desenvolvido para reduzir custos
e aumentar os níveis de eficiência dos data centers e conta com mais de 100
diferentes serviços, integrados em um único portfólio. O Sun Utility Computing foi
formatado para sistemas e o seu custo tem base no Sun StorEdge Power Units, com
preço inicial de US$ 0,02 por Megabyte, sendo que o valor cobrado sobre o que foi
utilizado será mensal.

O que difere o modelo da Sun de outras formas de se apresentar Utility Computing, é


que o Power Unit oferece uma combinação de hardware e software associada a
serviços, incluindo instalação, suporte SunSpectrum Platinum, gerenciamento pelo
portal Sun StorEdge e as principais licenças de software.

Os desenvolvedores de software, também conhecidos como Independent Software


Vendors (ISVs) podem trabalhar no sistema sob demanda. Para isso, a empresa
oferece tecnologias para desenvolvimento de serviços de rede, que é uma versão do
sistema operacional Solaris – plataforma em ambiente UNIX, a segunda edição do
Java Enterprise System e do Java Desktop System e o novo portfólio de produtos de
gerenciamento de identificação.

Entre outros produtos que estão sob o conceito de Utility Computing estão o servidor
Netra 440, equipamento robusto, com quatro processadores UltraSPARC, rodando
Solaris 64-bit e complementado pelos novos NEBS- storage arrays; o Sun Java
System RFID Software e o Sun Java Desktop System 2, com ferramentas de
gerenciamento integrado, proporcionam ao usuário controle total sobre o ambiente
desktop, as aplicações, licenças de uso e políticas de interface.

Atuação da Intel

Também atenta à movimentação do mercado, a Intel prepara seus chips com a


tecnologia de virtualização, tecnologia facilitadora para a consolidação do Utility
Computing. Essa tecnologia vai simplificar o processo de um software rodar em
diferentes sistemas operacionais em uma única plataforma. Para que fique mais
claro, a virtualização permite o acesso, o gerenciamento e a utilização dos recursos
existentes por vários meios. No caso de storage, por exemplo, uma vez que os dados
não estão associados a dispositivos específicos de hardware, a virtualização
possibilita um nível sem precedentes de flexibilidade na utilização de recursos. O
provisionamento consiste em fornecer aos usuários ou aplicações, a quantidade e o
melhor tipo de armazenamento, no momento certo. A virtualização torna muito mais
fácil esse processo.

A companhia tem planos de inserir a tecnologia de virtualização, chamada de VT,


para a linha de processadores Pentium para PCs no terceiro trimestre de 2005 e, em
breve, para o Itanium e Xeon nos servidores. O Centrino, processador destinado a
equipamentos móveis, deve agregar virtualização no primeiro semestre de 2006.

- 28 –
Atuação da HP

Na onda da virtualização e padronização, a HP oferece um ambiente onde os


recursos tecnológicos são reunidos e compartilhados e disponibilizados conforme a
demanda do cliente, que não terá mais uma infra-estrutura superdimensionada e
dispendiosa. Padronização é a chave mestra da estratégia Adaptive Enterprise,
adotada pela fabricante. As soluções enfocam três áreas principais que representam
aumento do valor para os negócios e importância estratégica para as empresas:
virtualização de elementos, virtualização integrada e soluções completas de utility.

Entre os exemplos de soluções estão o HP-UX Workload Manager, o mecanismo


inteligente de políticas do HP Virtual Server Environment, que permite movimentar
recursos automaticamente para atender a SLAs (Service-Level Agreements), que
agora oferece mudanças automáticas e dinâmicas de licenças Instant Capacity on
Demand entre nPars ou partições. O software também tem uma interface
aprimorada e está mais integrado ao HP Serviceguard; o Instant Capacity on
Demand para HP ProLiant BL oferece servidores blade que seguem padrões da
indústria, prontos para funcionar e que podem ser ativados conforme a necessidade.
Ao usar um blade, o cliente é cobrado automaticamente pelo uso do servidor e
percentual da infra-estrutura e o HP Utility Data Center Automated Service Usage,
que possibilita fazer cobranças com base no consumo, automatizar as funções de
coleta e cobrar pelo uso de serviços de TI. Os processos de negócio podem se apoiar
na infra-estrutura de TI, por meio do fornecimento de serviços baseados em portais
e da alocação dinâmica de recursos, ajudando as empresas a concretizar infra-
estruturas auto-gerenciadas e auto-recuperáveis.

Para a área de telecomunicações, portifólio da empresa contém o OpenCall de


software para soluções interativas de voz (baseadas no VoiceXML), sinalização de
redes (baseadas no SS7) e LBS (Location Bbased Services). A HP também oferece
tecnologia e processos como parte de seu cardápio de serviços gerenciados on
demand, aumentando a flexibilidade financeira e permitindo a terceirização
estratégica para clientes que procuram soluções de virtualização.

Atuação da Microsoft

A Microsoft atua no mercado on demand com o pacote de soluções para CRM 3.0.
Essa nova versão do produto está prevista para chegar ao mercado no final de 2005
e as novas aplicações serão oferecidas pelo modelo de cobrança que o usuário paga
pelo que usa.

Atuação da Veritas Software / Symantec

A Veritas criou as soluções SRM, que auxiliam a migração para o Utility Computing,
na área de armazenamento. Os profissionais de TI, com as as ferramentas SEM,
tratar o gerenciamento de storage de todos os ângulos. A solução é composta por
- 29 –
SANPoint Control, que cobre o gerenciamento físico do storage; pelo Veritas Storage
Repórter, que cuida do gerenciamento lógico e pelo Service Manager for Storage,
que realiza as funções de gerenciamento do negócio. Ou seja, essas três ferramentas
trabalham juntas para alcançar uma melhor eficiência e otimização do uso do
hardware. Além disso, elas oferecem um único e consistente ponto de gerenciamento
para SAN, NAS e DAS, o que ajuda a reduzir o erro do operador, que é a maior causa
de downtime não planejado.

Atuação da EDS

Agility Alliance é uma iniciativa da EDS que conta com a participação de empresas
como Cisco, Dell, EMC, Microsoft, Oracle, SAP, Siebel, Sun, Towers Perrin e Xerox.
Com investimentos de US$ 16 bilhões, a aliança global tem como objetivo prover o
conceito de Utility Computing para as áreas de infra-estrutura, aplicações e BPO
(Business Process Outsourcing). O investimento da EDS na plataforma foi de US$ 2
bilhões.

As parceiras participam da iniciativa desde a pesquisa e desenvolvimento até a


gestão da gama de produtos. Uma equipe trabalha, por exemplo, no
desenvolvimento do novo sistema operacional da Microsoft, dessa forma, quando o
sistema for lançado já estará com a arquitetura flexível e adaptada ao conceito. O
sistema operacional Linux não está de fora dos planos.

Em breve, chegará ao mercado uma nova geração de serviços com base em uma
arquitetura flexível, que visa a melhor adequação das empresas nas mudanças que
se vem operando.

Atuação da Cisco Systems

Como mais um exemplo de ações de grandes companhias rumo ao Utility


Computing, a Cisco Systems adquiriu a Topspin, empresa que fabrica switches para
conectar servidores em grid e fornece conectividade em rede e armazenamento para
processamento em grade. Os produtos são voltados a empresas, provedoras de
serviços, institutos de pesquisa e universidades que estejam implementando Grid e
Utility Computing, aplicações corporativas em cluster ou virtualização de servidores.

Pelo investimento dessas e outras gigantes de TI, é possível arriscar o palpite de que
Utility Computing veio para ficar e revolucionar a forma de adquirir e vender recursos
tecnológicos.

- 30 –
Módulo 5 – Retorno do Investimento

Mutações do conceito

É uma realidade que o mercado têm hoje à disposição novas formas de operar e
contratar recursos tecnológicos, como o conceito Utility Computing. Porém, a sua
adoção ainda está em um estágio bem inicial. O polêmico artigo "IT Doesn’t Matter"
(TI não importa), publicado pela Harvard Business Review, foi escrito por Nicholas G.
Carr e tornou-se conhecido no segmento. O autor escreve que na medida em que a
tecnologia amadurece, tende a tornar-se commodity (como a energia elétrica) e,
quando a tecnologia torna-se mais padronizada, seu valor estratégico diminui. Para o
autor, do ponto de vista estratégico, a eletricidade e todos os serviços públicos
tornaram-se invisíveis ao consumidor, tendo em vista que não há uma preocupação
corriqueira com essas facilidades.

É exatamente isso que acontece atualmente com a tecnologia da informação. A


afirmação de que TI é estratégica é o outro ponto polemizado no ensaio: a tecnologia
da informação só é fundamental para a estratégia corporativa devido à sua
capacidade de cortar gastos, aumentar a produtividade e a competitividade.

Pode-se concluir do artigo de Carr que o futuro da tecnologia nas corporações e sua
forma de comercialização está em xeque. Todavia, ninguém pode afirmar que Utility
Computing é o melhor modelo ou até mesmo predizer se vai decolar e passar a ser
padrão de mercado. Porém, é certo que o modelo atual ainda não é o definitivo.
Ainda há muitos desafios pela frente e o setor ainda vai passar por inúmeras
transformações.

Mesmo assim, o crescimento do uso de soluções conforme a demanda ganha adeptos


diante da necessidade de redução de investimentos, otimização da administração do
parque tecnológico e melhoria na gestão da infra-estrutura, assim como agilidade no
retorno do investimento, fatores que configuram como algumas das vantagens da
adoção do Utility Computing, que torna-se uma tendência mundial. Para dar um
exemplo, um fornecedor nacional de sistemas de CRM e ERP sob demanda cobra US$
100 ao mês por usuário. Em caso de aumento de largura de banda, esse custo sobe
conforme o uso. Ao se comparar com o valor de aquisição, manutenção e atualização
de versões, fica claro porque redução de custo é um dos maiores atrativos do
conceito.

A flexibilidade proporcionada pelo modelo, que permite expandir ou retrair o


consumo, dependendo do volume de dados e da necessidade de processamento,
provoca investimentos de grandes empresas no sentido de consolidar esse tipo de
comercialização.

- 31 –
No Brasil e em países em desenvolvimento de maneira geral, há enormes chances de
que o conceito se consolide, tendo em vista a escassez de recursos financeiros para
investimentos em TI.

Claro que vai depender do avanço em melhorias e padronização da oferta. Mas isso
não é privilégio de países em desenvolvimento. Nos Estados Unidos e na Europa, a
tendência de que o conceito será amplamente adotado é forte. O Meta Group
(instituto de pesquisas) afirma que há maiores possibilidades de adesão em clientes
que precisem gerenciar a demanda e os ativos do ambiente e controlar gastos e
mudanças internas.

Uma das grandes vantagens pregadas pelo conceito é que o usuário não tem de
fazer altos investimentos iniciais. Há, porém, alguns problemas a serem superados
pelos fornecedores do conceito, como o alto custo de comunicação e as dificuldades
técnicas de soluções que envolvem diversas filiais. Nesse caso, o fabricante tem de
investir altas somas no gerenciamento da infra-estrutura. Para o conceito sob
demanda avançar, é fundamental que os custos de comunicação sejam reduzidos.

Quando analisamos o aspecto cultural, é detectado o receio do CIO ou do


proprietário em manter as informações da empresa fora do centro de negócios. Para
solucionar essa dificuldade, os fornecedores do conceito passam a mensagem de que
há alto grau de segurança nos seus hostings. Um dos argumentos de convencimento
vem com números do instituto de pesquisa Gartner: 80% dos roubos de dados são
praticados pelos próprios funcionários. Nas empresas multinacionais, há maior
credibilidade no modelo de entrega de recursos de TI.

Segurança levada a sério

A segurança é tudo em uma infra-estrutura baseada em computação sob demanda.


Para sanar esse problema, os fabricantes investem alto para conseguir os melhores
índices de proteção aos dados. Muitas empresas usuárias se deparam com o desafio
de proteger a infra-estrutura para evitar ataques internos, o que é extremamente
complexo de implementar. Alguns produtos que estão disponíveis no mercado
fornecem modelos de criptografia em cada camada e camufla o máximo de dados
possível para garantir que as identidades dos executores fiquem ocultas.

Na maioria dos modelos de oferta, os próprios clientes controlam cada informação de


seu negócio. Quem decide o que o fornecedor pode ou não acessar é o cliente.
Determinados acessos são exclusivos dos usuários, sendo que só eles terão
permissão para tais ações; o fornecedor só tem essa permissão, caso o cliente
autorize.

- 32 –
Os dados do cliente que são armazenados na infra-estrutura do fornecedor podem
ser buscados na hora em que a empresa desejar, por meio de uma rede
criptografada e são armazenados temporária ou permanentemente em sistemas de
arquivos também criptografados. Para oferecer alta disponibilidade ao mercado,
alguns fabricantes, como a Sun, replicam os dados na malha do Sun Grid.

A maioria das empresas obterá benefícios imediatos com a migração para um modelo
pague pelo uso, porque ele fornece capacidade de computação em qualquer
quantidade, sem envolver enormes despesas de capital.

Como definir pela adesão?

Para identificar as áreas onde o grid computing oferecerá mais valor, responda as
seguintes perguntas: sua empresa precisa aumentar o poder de processamento? Há
algum projeto especial que requeira recursos computacionais adicionais por um
período de tempo limitado? Há demanda cíclica diária, semanal, mensal ou periódica
para tarefas com uso intenso de cálculos? Existem tarefas de cálculo que podem ser
executadas em lote? Qual é a capacidade do seu data center? Com as respostas,
você terá um entendimento perfeito de como Utility Computing poderá ajudá-lo a
administrar melhor os recursos.

O modelo revoluciona a maneira tradicional da construção de sistemas. Em geral, um


sistema é construído para um aplicativo da seguinte forma: primeiro, é elaborado um
estudo de requisitos; depois, a divisão de TI trabalha no que precisa ser
desenvolvido e, por fim, monta o sistema para atender os requisitos do aplicativo.
Utility Computing requer uma abordagem completa. A divisão de TI analisará quais
recursos e componentes de serviços estão disponíveis por meio do grid. Depois,
analisará os requisitos dos aplicativos e avaliará como o grid pode cumpri-los. Pode
ser que o grid não atenda a todos os requisitos dos aplicativos, mas são tão grandes
os benefícios de custo, que o CIO realmente precisará ponderar seu grau de
necessidade em assumir a despesa adicional de personalizar o aplicativo e construir
um sistema que o execute.

É preciso conhecer a arquitetura do usuário

A estratégia on demand também ajuda os fabricantes a solucionarem o problema de


oferecer solução fixa para um ambiente variável. A maioria dos fabricantes de
hardware tem seus produtos adaptados ao conceito e o cliente pode adquirir essas
máquinas ou utilizá-las como um serviço.

O cliente compra equipamentos com determinados recursos, que podem ser ativados
e desativados quando solicitar. Como exemplo: é possível adquirir uma máquina com
cinco processadores, porém somente dois serão ativados. Isso, com a possibilidade
de aumentar a capacidade em períodos específicos, por meio da aquisição de um
código, ou ativar os recursos para uso contínuo, pagando o valor integral.
- 33 –
Então, a mensalidade é pelo o que é utilizado. Dependendo da solução, há o
compartilhamento de fonte de energia, placas de rede e a possibilidade de integrar
no mesmo ambiente servidores Intel ou UNIX, sistemas operacionais Linux e
Windows.

Para a venda de um projeto de Utility Computing, é preciso que os fornecedores, os


ISVs, VARs e empresas de hosting conheçam a evolução da arquitetura do usuário
em detalhes. Entre os argumentos que podem facilitar o fechamento do acordo está
a possibilidade de redução de até 50% nos investimentos com a infra-estrutura de
TI.

Os vendedores têm oportunidades comerciais com o modelo Utility Computing na


utilização de ferramentas para monitorar a rede do cliente, vendendo a solução como
um serviço. Dados do Gartner projetam que até 2007 a receita proveniente de
serviços de gerenciamento de TI na América Latina será 9% acima dos atuais US$ 20
milhões.

Para uma empresa adotar o conceito de Utility Computing é preciso observar alguns
pontos:

1. Antes de qualquer ação é necessário realizar uma radiografia interna,


conhecer profundamente as necessidades internas antes de procurar um
fornecedor para adotar o sistema de pagar pelo que se utiliza.
2. Trace os objetivos de forma clara, definida e que sejam possíveis de realizar.
3. É bom lembrar de que riscos existem também com esse conceito, porém, com
a probabilidade é menor.
4. Se optar pela adoção, faça-o por ser estratégico e não somente pela redução
dos custos
5. Busque um fornecedor que seja efetivamente parceiro.
6. Estabeleça SLAs flexíveis e que sigam o objetivo e a filosofia da empresa
7. Trace objetivos reais para evitar frustrações
8. Meça as necessidades para poder negociar bem os SLAs e manter a qualidade
9. Meça o retorno do investimento ROI

Como medir o retorno do investimento

Hoje, as empresas vivem um dilema: enquanto o volume de dados cresce, o


orçamento diminui de forma inversamente proporcional ao aumento da
competitividade comercial entre as empresas. Outro comparativo é que, enquanto há
aumento dos dados, a complexidade da infra-estrutura de IT também aumenta. Por
isso, as soluções (hardware e software) devem apresentar interoperabilidade e
escalabilidade, ao mesmo tempo em que o acesso aos dados deve ser simples e
contínuo, sem comprometer a segurança.

- 34 –
A informação é a espinha dorsal das empresas modernas. Conduzidas pelos avanços
na área de armazenamento e transmissão de informação, as empresas podem tomar
decisões com base nos negócios de forma consciente.

No lado oposto das necessidades tecnológicas, há contenção de gastos, baixo índice


de contratação e foco no serviço ao cliente e na gestão dos dados, que são um dos
elementos vitais do sucesso das empresas. Na medida em que os dados se tornam
cada vez mais importantes para as empresas, na mesma proporção, é mais crítica a
escolha de uma solução. Com isso, surgem necessidades de novos processos,
tecnologias avançadas, e formação de pessoal.

Diante das exigências do mercado em reduzir custos, se faz necessário demonstrar e


claramente fundamentar os benefícios de adquirir uma solução tecnológica ou
renovar a atual infra-estrutura de IT. É sobre ROI que discorremos abaixo, como
forma de auxiliá-lo a ultrapassar algumas das barreiras que são sentidas na área dos
investimentos.

Com a escassez financeira, os CIOs estão sendo cada vez mais cobrados a
apresentar o retorno de investimentos, a reduzir o custo total de propriedade e a
apresentar resultados concretos do departamento de TI, junto aos donos das
empresas. Foi exigido um perfil mais administrativo, de gestor e de marketing, além
do conhecimento técnico.

Essa é a lei da sobrevivência das empresas, que se adaptam à nova ordem mundial.
Já vai longe o tempo em que as organizações compravam tecnologia com o
argumento de se manterem atualizadas. Hoje, é preciso justificar cada gasto. Todos
os gestores têm por obrigação saber qual será o retorno do investimento, antes de
assinar qualquer tipo de contrato de compra.

As siglas ROI e TCO são corriqueiras entre quaisquer transações comerciais no


segmento de tecnologia da informação. Existem no mercado ferramentas (softwares)
prontas e que podem ser customizadas, para efetivar esse cálculo, porque, a bem da
verdade, não é simples de se chegar a esses resultados sem o apoio de um
programa, que tem métricas e metodologias listadas.

Muitas consultorias e empresas fornecedoras têm suas próprias metodologias e que


podem ajudar o cliente a estabelecer um parâmetro entre a situação atual e a futura,
com a aquisição, no caso, do Utility Computing.

As empresas querem destinar recursos financeiros em equipamentos, software e


serviços que tragam retorno imediato sobre o que foi investido. Isso já acontecia
desde 2003 nos Estados Unidos e não poderia ser diferente no Brasil.

- 35 –
Uma pesquisa realizada no país, no mesmo ano, apontou que cerca dos 59% dos
executivos de empresas brasileiras pretendiam aumentar seus investimentos em
tecnologia, porém, ressaltaram que 46% do total seriam aplicados aquisições, que
trouxessem retorno em curto prazo.

Antes de mais nada é primordial saber o real valor daquilo que se pretende adquirir
e, inclusive, dos custos de não se realizar a implementação da solução proposta.

Benefícios tangíveis e intangíveis

A justificativa da aquisição é realizada com base em benefícios tangíveis e


intangíveis. Os benefícios tangíveis podem ser quantificados e são inquestionáveis na
sua natureza, demonstrando reduções de custos ou aumento de benefícios. Esses
benefícios são facilmente quantificáveis, por meio da diminuição de TB (Terabyte) de
armazenamento ou de um menor número de servidores, por exemplo.

Os benefícios intangíveis, por outro lado, estão presentes na solução, mas são
difíceis de quantificar: aumento na satisfação e crescimento de produtividade dos
usuários. Alguns dos benefícios intangíveis podem ser estratégicos, como maior
credibilidade da empresa, melhoria na qualidade da oferta ao cliente por meio de
pró-atividade e do aumento de informação disponibilizada.

Fica a ressalva de que essa forma pode ajudar a decisão no processo de adoção de
Utility Computing, porém, é a tradicional aplicada na aquisição de soluções
tradicionais.As justificativas financeiras são utilizadas para controlar as aquisições
tecnológicas e para tomar decisões mais acertadas. As justificativas permitem ter
uma medida do risco e do custo do investimento, permitindo ter uma perspectiva do
Valor do Negócio.

Uma das formas de simplificar o processo de análise e melhorar a justificativa das


aquisições da infra-estrutura é utilizando cálculos de ROI em termos de valores da
moeda corrente.Outra da forma é utilizar a medida do custo total de propriedade
(TCO), que ajuda a compreender como controlar os custos da infra-estrutura de IT.A
primeira ação é a criação de modelos com cenários operacionais que endereçam
vários tipos de análises.

Alguns exemplos em armazenamento:

1. Aumentar a utilização de disco


2. Deixar de comprar disco
3. Aumentar os TB geridos por administrador
4. Reduzir o espaço físico do Data Center
5. Deixar de comprar de bibliotecas de cartuchos
6. Novas capacidades de Disaster Recovery
7. Opções de recuperação online
- 36 –
8. Aumentar a disponibilidade dos dados
9. Reduzir o número de servidores
10. Aumentar a performance da LAN/WAN, diminuindo a necessidade de
upgrade
11. Reduzir/eliminar os servidores de backup
12. Reduzir/eliminar o batch e as janelas de backup
13. Storage on demand
14. Aumentar a proteção dos dados
15. Gestão dos custos, como uma percentagem dos custos de storage
16. Reduzir os custos de manutenção de storage
17. Staff utilization for server management
18. Aumentar o tempo de vida do Storage
19. Escalabilidade
20. Evitar o crescimento dos dados de rede
21. Impacto em novas aplicações a migrar
22. Impacto nas aplicações de desenvolvimento e testes
23. Estender o tempo de vida dos servidores
24. Reduzir a carga de CPU nos servidores
25. Suportar servidores em cluster
26. Serviços secundários de segurança
27. Consolidação

Na maioria dos casos, para uma nova infra-estrutura ou para a reestruturação da


atual infra-estrutura, várias análises das que foram apresentadas podem ser
consideradas.

Cálculo do ROI

O ROI é usualmente calculado num período de 3 a 5 anos, por meio de ações como:

1. Definir os custos da base da análise


2. Definir a topologia que se pretende, e determinar os seus custos
3. Selecionar as análises que podem ser consideradas para a topologia
pretendida, e calcular o ROI para cada uma delas.
4. Calcular os diferentes ROI e realizar gráficos e conclusões
5. Rever as conclusões e fazer ajustes à topologia e ao cálculo do ROI

Diminuição dos valores de manutenção de hardware e software – Diminuição dos


custos de Gestão – Diminuição de recursos de hardware não utilizados

- 37 –
Controle total sobre o que foi contratado

Uma das preocupações ao aderir ao conceito é saber exatamente o que está sendo
pago e exatamente o que está sendo adquirido. Alguns fabricantes estão fazendo
parcerias com os fornecedores de telecomunicações, integradores de sistemas e
prestadores de serviços para que a compra de uma variedade de serviços de
computação sob demanda se torne simples e conveniente.

A Sun Microsystems é um exemplo. Conta com programas-piloto que determinarão


como usar o modelo para agilizar o desenvolvimento de software, fornecer serviços
de desktop seguros e executar aplicações críticas como ERP e CRM sob demanda.

Em resumo, as organizações necessitam de soluções que as ajudem a aumentar a


eficiência, ao mesmo tempo em que diminuem o seu TCO e aumentam o retorno do
investimento.

- 38 –
Módulo 6 – Previsões

Controvérsias desenham o quadro atual

Como flexibilidade é uma exigência para a sobrevivência de uma empresa – além da


drástica redução dos custos fixos – Utility Computing cai como uma luva na dinâmica
atual das organizações. Porém, há quem diga que TI será utility em dez ou 15 anos.

Toda essa mudança no modo de comercialização de TI traz conseqüências para o


mercado. Segundo pesquisa do Gartner, o crescimento de serviços para infra-
estrutura automatizada e processos de negócios onde se paga somente pelo que foi
consumido, vão gerar grande redução nos empregos na área de TI. De acordo com o
instituto, a terceirização tem sido supervalorizada e o impacto da automação é
grande. Portanto, nos próximos 10 anos, a queda na taxa de empregos no setor
pode ser atribuída a esse fator. Por outro lado, novos empregos serão criados para o
gerenciamento de processos de negócios e relacionamento.

A International Data Corporation (IDC) avalia que Utility Computing crescerá, porém
ainda não será adotado largamente como o conceito é vendido. O instituto prega que
ele é uma boa aposta, mas a longo prazo. Utility Computing causará grandes
mudanças na arquitetura e na administração de sistemas, pacotes de serviços e
produtos de TI e na forma de cobrança pelo que é fornecido, como já
exemplificamos, analogicamente, com o setor de energia elétrica.

Embora haja alguns esforços de marketing na divulgação do conceito, ainda será


necessário um esforço maior dos fabricantes no sentido de sanar a confusão sobre o
significado, suas propostas e como será na prática utilizar recursos de TI sob
demanda. Empresas fornecedoras direcionam esforços nesse sentido. Muitas estão
promovendo seminários, palestras e road-shows pelas principais capitais do país
para explicar Utility Computing.

O atrativo é grande frente ao seu maior argumento: a redução de custos. Esses


eventos servem também para sossegar os CIOs que temem manter as informações
da companhia distante dos seus olhos e controle. Fabricantes transmitem aos
profissionais dados que garantem a segurança do hosting.

De novo, a questão cultural passa pela consolidação do modelo. Uma empresa


nacional concentrava seu centro de processamento e infra-estrutura internamente
até que, ao ter seu controle acionário nas mãos de uma multinacional passou a
utilizar o modelo de hospedagem. O fato demonstra como uma decisão estratégica
pode ser afetada pela cultura.

De acordo com uma pesquisa da IDC, realizada em julho de 2005, 28% das 103
empresas participantes têm receio em compartilhar seus dados e informações com
os fornecedores e prestadores de serviço.
- 39 –
A preocupação com o retorno dos investimentos (ROI) no modelo Utility Computing
foi apontada por 19% das organizações. Para 17% das participantes, confiança no
data center do fornecedor é uma questão fundamental.

Acelerar o processo

A adoção se torna mais lenta na medida em que ainda existe uma percepção muito
confusa por parte do usuário sobre o que é exatamente o modelo. No que se refere
ao fabricante, existem conflitos internos que dificultam o esclarecimento do cliente,
já que elas têm a oferecer dois modelos de comercialização: pay-per-use e também
o de licenças. É necessário detalhar para o usuário as vantagens e os processos de
cada um deles.

O avanço do uso de soluções conforme a necessidade será mais lento, tendo em


vista a necessidade de preparar a estrutura do mercado. Com esse ponto
solucionado, os clientes passam a adquirir produtos desenvolvidos com virtualização,
tecnologia que garante flexibilidade na expansão da infra-estrutura. Com essa
tecnologia, é possível utilizar um data center virtual, gerenciado pelo fabricante.

Antes disso, porém, é necessário que sejam implementadas políticas de melhores


práticas, com base em Governança de TI e processos de consolidação no ambiente.
Hoje, os usuários brasileiros estão nessa etapa e, acreditam os analistas, que a
adoção maciça ocorrerá dentro de alguns anos. No Brasil, a TAM e a GVT estão na
fase de adoção do conceito. Já os mercados europeu e norte-americano estão mais
definidos.

Tendências

Por enquanto, as maiores oportunidades comerciais estão em segmentos como


manufatura, serviços, telecomunicações e data centers. Para alguns especialistas do
setor, o segmento financeiro, que tem um grande volume de sistemas legados, em
pouco tempo também vai aderir ao conceito, indo em busca de sistemas de
consolidação e, posteriormente, deve ocorrer a migração para o conceito de Utility
Computing. Somente o tempo dirá se eles estão certos.

Outra tendência marcante é a união de forças de grandes empresas no sentido de


que o modelo evolua tecnologicamente e fazer com que o mercado entenda o
conceito. Nesse sentido, a busca por aumento do valor dos negócios, incentivou o
fechamento de parcerias e aquisições para proporcionar uma oferta de tecnologia
mais ágil, de acordo com o conceito de Utility Computing.

- 40 –
Os indicadores de mercado apontam para o gradual aumento na adesão do Utility
Computing. O estudo IDC Predictions 2005 prevê um crescimento moderado do setor
de TI e consolidação de tendências anteriormente apontadas. A expectativa é que
ocorra uma reorientação de fornecedores e ofertas voltadas a processos e soluções
de negócios, além do crescimento de estratégias baseadas em computação utilitária.
Os analistas acreditam em um crescimento de 6,1% do mercado de TI em 2005,
com pequeno destaque para os negócios nos Estados Unidos e Europa Ocidental.

Para o Brasil, o estudo revela que problemas com produtividade e propriedade


intelectual podem atrapalhar o potencial econômico. A indústria de TI no país possui
características de mercado emergente, a exemplo do México, mas sem o ritmo de
crescimento previsto para China, Índia e Rússia. Terceirização é uma das fortes
tendências de adoção pelo mercado local.

Mais recente e dirigido, um estudo financiado pela Oracle revela que hoje o
segmento de comercialização sob demanda movimenta no Brasil cerca de US$ 278,8
milhões. Realizada pela IDC Brasil, a pesquisa que foi divulgada em 27 de julho de
2005 aponta ainda que a expectativa é que Utility Computing cresça, ao ano, em
torno de 24,4% até 2009, atingindo, portanto, o montante de US$ 667 milhões.

Outro item detectado é que as empresas locais estão priorizando a compra de


serviços e diminuindo a destinação de verba para equipamentos, com a finalidade de
reforçar a estratégia de negócios. O padrão atual de investimento em TI das
organizações brasileiras é destinar cerca de 47% para hardware e 17% para
software. Para serviços, que englobam a terceirização de infra-estrutura o índice é de
36%. Cinco anos atrás o investimento em hardware era de, em média, 60% das
verbas de TI. Com as vantagens enxergadas na terceirização de serviços e na infra-
estrutura, esse volume vem diminuindo. Hoje, o fornecedor não passa pelo processo
de criar, empacotar e entregar uma solução para o cliente.

Mesmo com essas alterações rumo aos serviços, o mercado local ainda não
incorporou totalmente o conceito de comprar recursos de TI pelo modelo sob
demanda. Este, em comparação com mercados internacionais ainda é muito tímido
no Brasil. A porcentagem ideal projetada para o Brasil é de cerca de 30% de
investimentos com hardware e mais de 40% em serviços. Comparativamente, no
mercado norte-americano, onde o conceito dá mostras de estar mais maduro,
hardware, software e serviços recebem investimentos de 32%, 25% e 44%,
respectivamente. A melhor fórmula para que o modelo se desenvolvesse no país
seria com os serviços recebendo a maior parte dos investimentos e não a compra de
hardware.

As significativas mudanças provocaram alterações na maneira de os fornecedores


atuarem no mercado, inclusive no que se refere à correção de estratégias de
produtos e serviços, com o objetivo de se adequarem à realidade que se desenha. A
oferta e a procura de bens de TI no formato de serviços é uma das fortes tendências.

- 41 –
Para não perder o bonde do momento, fabricantes estão habilitando vendedores na
correta venda do modelo de pagar pelo o que se utiliza em algumas soluções como
servidores, armazenamento de dados, software, aplicativos e impressão. Em busca
de novas oportunidades, a indústria de TI se reinventa e acirra a disputa para
atender à clientela nesse modelo. Depois das crises econômicas, ficou claro para os
fabricantes que a venda de tecnologia pura não existe mais, mesmo porque, com o
grau de automatização, TI se está tornando commodity, como destacam os analistas
de mercado. Talvez esse seja o período mais difícil por que passam fabricantes e
CIOs, que enfrentam uma tormenta de desafios estruturais.

Polêmica estabelecida

Hoje, questiona-se até que ponto TI é importante na estratégia das organizações e


se efetivamente é um diferencial competitivo de mercado. Com as transformações do
cenário, para alguns, o controle de custos e o gerenciamento de riscos são questões
a serem consideradas em primeiro lugar, depois vêm investimentos e inovação.
Pregam alguns analistas mais polêmicos que TI deve priorizar vulnerabilidades e não
em oportunidades; e ainda gastar menos e não ser um early adopters, os que
adotam tecnologias antes mesmo de serem lançadas.

A Accenture realizou uma pesquisa, em 2003, com 580 executivos seniores de 18


países, inclusive do Brasil, com a finalidade de levantar a real influência que a
tecnologia da informação exerce sobre as corporações. O resultado foi que 55% das
empresas entrevistadas têm características de inovação que as diferenciam do
restante do mercado. Por esse estudo, são as mais inovadoras as que dão maior
importância à renovação de produtos, serviços e processos e, por conseqüência, são
elas que obtêm melhores resultados estratégicos.

Ainda de acordo com a pesquisa da Accenture, 64% das empresas consideradas


inovadoras atingiram as metas a que se propuseram com o investimento em
sistemas, sendo que apenas 28% das menos inovadoras conseguiram seus objetivos.
As que priorizam a inovação destinam mais de 30% do orçamento de TI em novas
ações, contra menos de 20% entre as pouco inovadoras. Por outro lado, estas
últimas, investem quase 40% da receita em tecnologias operacionais e, as mais
inovadoras destinam cerca de 20%. Com base nesses índices, não se pode afirmar
que TI está virando commodity. Mais uma vez, quem dirá quem está com a razão é o
tempo.

Por outro lado, para tentar entender o cenário de TI, imagine uma pirâmide e a
dividida em quatro partes. Em sua base se encontra a infra-estrutura de TI (redes,
hubs, conectividade e hardware); na camada de cima situam-se os softwares
básicos, que são representados por plataformas como sistemas operacionais e banco
de dados, por exemplo. Com o avanço do Utility Computing, essas duas partes
estruturais podem se tornar, de fato, 100% commodities. Nesse ponto, estão certos
os que afirmam que TI perderá seu valor estratégico.

- 42 –
Só que a situação se altera nos terceiro e quarto níveis da pirâmide, onde você pode
imaginar os software aplicativos e funções de negócios com aplicações de TI,
respectivamente. No terceiro nível, representado por sistemas de CRM, ERP e supply
chain, alguns analistas arriscam dizer que a commoditização chegaria, no máximo, a
70% dessas aplicações. Isso porque, as empresas têm processos distintos; metas e
objetivos específicos.
A complexidade do cenário aumenta no topo da pirâmide. Nesse nível, é preciso que
haja perfeita sincronia entre as decisões estratégicas e as inovações tecnológicas
disponíveis. Nas aplicações, a questão é mais profunda e a distância entre a inovação
tecnológica e a empresa que a adota é muito grande. É elevado o grau de
complexidade para que não haja cópias dessas aplicações. Nesse nível, a
commoditização não ultrapassa a casa dos 40%.

Flexibilidade é a palavra-chave

A inovação dos processos pode ser considerada como o que alguns pesquisadores
chamam de domesticação da tecnologia, que significa adaptar de maneira recíproca
a tecnologia ao usuário. Como exemplo, da mesma forma que o aparelho celular é
adequado à agenda de telefones e compromissos; o usuário se adapta ao seu
aparelho, decidindo se atende ou não a ligação, por exemplo.

O diferencial é esse. É justamente essa flexibilidade que vai determinar o melhor


aproveitamento da tecnologia e de seus recursos e, aqueles que querem adotar
novos conceitos, só alcançarão suas metas se mantiverem o poder de incorporar
rapidamente as inovações aos processos da organização.

O quadro desenhado em TI prova que ainda há muito chão a se percorrer para


transformar as soluções de TI aderentes aos negócios. Pode-se dizer, então, que
existem dois mundos: a infra-estrutura, com os serviços pay-per-use e terceirização.
E um segundo, o das aplicações, que alguns especialistas do mercado afirmam que
não é commodity e nunca será.

Sem predizer o que a tecnologia da informação reserva para o setor, observa-se uma
perspectiva de mudança. Inúmeros indicativos ajudam a constatar que separar a
inovação e a competitividade dos avanços tecnológicos, sejam eles voltados ao
usuário final ou às empresas, torna-se quase impossível.

Ações efetivas para a consolidação

Seguindo as tendências, os fabricantes se posicionam como defensores do conceito,


formam alianças tecnológicas e parcerias comerciais. Sem contar com anúncios de
aumento ou a adaptação de seus produtos e serviços ao modelo Utility Computing.

- 43 –
A Citrix disponibiliza o Citrix MetaFrame Access Suite solutions, que permite às
empresas a construção de acesso à infra-estrutura para entregarem um
empreendimento on demand, de modo seguro. A Computer Associates conta com a
tecnologia Sonar, ferramenta para correlacionar processos de negócio com os ativos
de TI, alinhando os investimentos em infra-estrutura com as prioridades de negócio.

A Sun Microsystems possui inovações tecnológicas e novos modelos de negócios


baseados no conceito de Utility Computing. A companhia possui produtos, soluções e
serviços, com o objetivo de ajudar os usuários a construir a base de
desenvolvimento de novas aplicações de rede, enquanto reduz os custos e a
complexidade dos ambientes de TI. A Microsoft apresentou algumas das novidades
que estarão em seu pacote de soluções para CRM 3.0. O produto está previsto para
chegar ao mercado no final de 2005 e as novas aplicações serão oferecidas pelo
modelo on demand.

A Cisco Systems desembolsou US$ 250 milhões para a aquisição da empresa de


Utility Computing, Topspin Communications, que produz uma família de switches
para conectar servidores em grid e fornece conectividade em rede e armazenamento.
A aquisição vai adicionar suporte ao portfolio da Cisco. Fornecedores como Dell, HP,
IBM, NEC e Sun estabeleceram parcerias com a Topspin para incluir a tecnologia de
switching InfiniBand como parte de seus portfólios.

Outra a entrar para o time é a EMC e oferece OpenScale, ferramenta que auxilia a
cobrança dos serviços, mede o quanto do sistema de armazenamento de dados está
sendo utilizado. O programa colhe informações dos data centers dos consumidores
por meio de um software chamado "Collector", que emite relatórios.

Já o modelo Adaptive Enterprise da HP deve ajudar os usuários a medir, projetar e


gerenciar mudanças na estrutura de TI, sempre atendendo a demanda de negócios.
A companhia tem uma gama de produtos e serviços Utility Computing. A HP também
vem trabalhando no desenvolvimento do Linux e de sistemas de código aberto. Com
isso, torna mais fácil a experiência de implementação do código aberto, abrindo
caminho para o Adaptive Enterprise.

A IBM tem praticamente todo seu portfólio de produtos e serviços voltado ao


conceito. Para a companhia, as empresas e a indústria de tecnologia estão entrando
na era on demand. Com isso, terão de responder rapidamente a demanda dos
clientes, oportunidades de mercado e ameaças externas. A EDS vem trabalhando no
desenvolvimento da plataforma Agile Enterprise em conjunto com a Cisco Systems
para construir uma rede global segura, e com a EMC em storage e outras soluções
de gerenciamento.

- 44 –
A Sun Microsystems trabalha para a criação de vários componentes de hosting por
virtualização e soluções de Utility Computing, enquanto Xerox e EDS desenvolvem
abordagens novas para infra-estruturas de gerenciamento de documentos. Além
disso, lidera a Agility Alliance, também em conjunto com outros gigantes do setor.

A Symantec/Veritas criou as soluções SEM para que os profissionais de TI possam


migrar para Utility computing a partir da perspectiva do storage. As soluções
oferecem um único ponto de gerenciamento para a SAN, NAS e DAS, o que ajuda a
reduzir o erro do operador, que é a maior causa de downtime não planejado.

Em 2004, a Veritas adquiriu a Invio Software, Inc., especializada em automatização


de processos de TI e contribuiu para as funcionalidades presentes nos programas
que viabilizam o Utility Computing. A família de produtos Oracle 10g possibilita a
adoção do modelo. O Oracle Grid Computing atende os requisitos do conceito,
permitindo que grupos independentes de usuários possam compartilhar recursos
computacionais de acordo com a demanda.

Mas o mercado de Utility Computing não é formado apenas pelas empresas de maior
porte. Muitas outras também de olho nas transformações do mercado, passam a
oferecer soluções sob demanda. É o caso da NeoGrid, empresa de comércio
colaborativo que substituiu a venda de licença para o seu e-Collaboration Suite por
um modelo on demand. Já a CorpFlex lança o modelo ASP (Application Service
Provider) sob demanda, sendo que o serviço tem a finalidade de ajudar os
fabricantes de sistemas de gestão a ganhar mercado.

Podemos concluir que a competência que a empresa tem de incorporar a tecnologia


aos seus processos é o verdadeiro diferencial a ser destacado. É a inovação dos
processos que proporciona vantagem competitiva às empresas, reduzindo custos e
aumentando a produtividade.

- 45 –

Vous aimerez peut-être aussi