Académique Documents
Professionnel Documents
Culture Documents
Módulo 1 – Conceito
Servidores, por exemplo, ficam por muito tempo em desuso dentro da empresa por
cumprirem a função de garantir o pleno funcionamento dos sistemas e cumprir a
demanda em períodos de pico. A média de utilização de servidores sobressalentes é
de 15% do uso de sua capacidade, fator que contribui com o aumento dos custos de
uma corporação.
-1–
Ao optar pelo uso sob demanda, um comércio varejista, por exemplo, que tem em
dezembro um pico gigantesco de uso com as vendas do Natal e em janeiro o uso
quase que vai a zero, pagará de forma diferenciada e proporcional pelos recursos de
TI.
Esse modelo de negócio no qual se paga apenas o que se utiliza retomou suas forças
com a massificação da banda larga e com as novas tecnologias de Grid Computing,
nomenclatura que define a divisão do trabalho a ser realizado entre os recursos
computacionais disponíveis. Com o correr do tempo, Grid Computing será
acrescentada a muitas infra-estruturas corporativas e trará um grande crescimento
da potência de CPU para tarefas que exigem computação intensiva.
Para abordar o assunto e passar a idéia da venda conforme o uso para o mercado
comprador, a indústria adota nomenclaturas diferentes para essa infra-estrutura de
TI. Talvez o termo mais conhecido seja on demand (sob demanda), adotado pela
IBM. A Oracle optou por utilizar o termo Grid e a HP, por sua vez, usa a terminologia
empresa adaptativa. Existem, obviamente, variações na abordagem, no formato e na
venda da tecnologia de empresa para empresa, porém, a base é a mesma em todas
elas, ou seja, todas mantêm a premissa de oferecer e cobrar pelos produtos e
serviços conforme o uso.
Esses players enxergam a infra-estrutura a ser ofertada como componentes
automatizados, módulos que o cliente compra de acordo com sua necessidade
momentânea. Esses módulos são complementares e seguem as orientações da
governança corporativa e suas melhores práticas.
-2–
Outras gigantes do segmento de TI aderiram ao modelo. A EDS investiu US$ 2
bilhões no que chamou de estratégia Agile Enterprise, que visa a oferecer o formato
de Utility Computing para as áreas de infra-estrutura, aplicações e BPO (Business
Process Outsourcing). A empresa encabeça um grupo de empresas como a Cisco,
Dell, EMC, Microsoft, Oracle, SAP, Siebel, Sun Microsystems, Towers Perrin e Xerox.
Todas elas estão também empenhadas na divulgação e na adesão à oferta de Utility
Computing no Brasil e envolvidas nas pesquisas, no desenvolvimento e na gestão do
portfólio de ofertas ao mercado. Cada uma dessas empresas entra com suas
particularidades e potencialidades e a EDS alinha os serviços a serem prestados.
Estratégia de negócios
Crises econômicas, regulamentações como a Sarbane Oxley (SOx) e Basiléia II, para
citar uns exemplos, têm obrigado o mercado a cortar todo o tipo de despesas e a
enxugar o orçamento para conquistar metas e acertar o compasso da corporação
com a nova ordem mundial. Com tudo isso acontecendo, executivos buscam novas
fórmulas e caminhos alternativos.
Na mira dos executivos está uma série de medidas que visa a economia e o ajuste
do orçamento das corporações, como a redução do TCO, ou total coast operation,
que é a diminuição do custo total de propriedade, assim como a busca pelo retorno
dos investimentos (ROI) e tantas outras iniciativas que têm agora como aliado o
pagamento conforme o uso de recursos de TI.
-3–
De acordo com analistas de mercado, há grande preocupação de usuários na procura
por prestadores de serviços que ofereçam soluções no âmbito das infra-estruturas de
TI – redes de comunicação, desktops e gerenciamento.
Evolução constante
Após ter sustentado contínuo crescimento por quatro anos consecutivos, o mercado
de tecnologia chegou ao seu ápice em 2000, incluindo-se nesse contexto o impulso
conseguido em função do Bug do Milênio. Depois disso, as dificuldades se vêm
acentuando, com demonstrativos financeiros nem tanto satisfatórios por parte da
maioria das empresas.
Esse fato tem provocado na indústria e nos gestores iniciativas para tirar TI (e, claro,
as empresas) da curva descendente que se apresenta. E é frente à necessidade que
o ser humano se torna mais criativo. Daí surgem soluções como Utility Computing
que tem como propósito o controle de custos diante do pagamento do que se usa.
Na sua análise, a IDC chega à conclusão de que Utility Computing ainda está em um
estágio inicial, tendo um longo caminho a percorrer até estar apto a corresponder à
grande proposta de não apenas reduzir custos, mas acima de tudo ser uma
excelente estratégia de negócios. No entanto, já avançou no sentido de conquistar o
topo da lista de tecnologias mais necessárias e cobiçadas.
-4–
Em processo de consolidação, o conceito terá de passar ainda para as fases de
automatização e de virtualização, passos já iniciados, porém ainda não concluídos.
Ao longo de todo o processo (passando pelas fases de automatização e de
virtualização), até 2006 inúmeras e vantajosas oportunidades de negócio surgirão
para os envolvidos nesse segmento. A fase de partilha, que permite que todos os
recursos de TI de uma companhia sejam divididos (ou partilhados) e
automaticamente locados a tarefas específicas, deverá ser o mais rentável da área
de Utility Computing depois do processo amadurecido, ou seja, após 2006.
Pelo lado da indústria fornecedora, a maneira de vender conforme o uso pode ser
aplicada na mais variada gama de software, assim como em sistemas de bancos de
dados e servidores de aplicações, por exemplo. A oferta de produtos como utility
beneficia também as pequenas e médias empresas, por não precisarem arcar com a
manutenção de uma equipe interna para cuidar da tecnologia.
Uma das formas de fornecer produtos e serviços sob demanda é por meio de data
centers – centros de altíssima tecnologia, totalmente equipados e preparados para
aplicações pesadas e onde são compartilhados os sistemas, com segurança e
confiabilidade.
-5–
Ainda há desconfiança nesse modelo e o fato do gerente de informática não ter uma
máquina perto de si para gerenciá-la, ainda causa desconforto em alguns
profissionais. Na outra modalidade, o cliente opta por deixar o servidor na própria
empresa e fazer tudo, desde o gerenciamento, até as atualizações com a equipe
interna.
Algumas mudanças podem ser observadas nos data centers, que passam a exercer
um novo modelo de negócios, atendendo de forma satisfatória o modelo de
pagamento sob demanda. Esses mecanismos de oferta de produtos e serviços
centralizados evoluem e deixam de ser meros fornecedores de TI e passam a
abranger toda uma infra-estrutura de produção.
-6–
Em busca do sucesso
-7–
Módulo 2 – Cenário
Apesar de recente, o conceito de Utility Computing não é novo. Pode-se dizer que é
uma evolução do modelo de comercialização denominado ASP – Application Service
Provider, ou provedores de solução. A forma de comercialização em TI que prevê o
pagamento somente do que se utiliza de um hardware ou de aplicativos é uma
alternativa para empresas que buscam economia e controle na utilização dos seus
recursos de TI. Por meio da automatização tecnológica, as empresas simplificam a
prestação de serviços, ativando ou desativando recursos de acordo com o nível de
demanda.
O que faz do Utility Computing uma tecnologia tão interessante é o fato de permitir
ao empresário planejar sua estrutura de maneira mais flexível e, simplesmente
utilizar os serviços que interessam e quando for conveniente. Como já acontece com
as contas de telefone celular, que pagamos somente pela quantidade de minutos
utilizados e pré-acordados, assim também funciona o Utility Computing. Em resumo,
esse conceito reduz as despesas com hardware e os custos operacionais, alinha a
área de TI às iniciativas do negócio e diminui o tempo para disponibilizar recursos
novos ou adicionais aos usuários.
A base para a forma atual de uso do Utility Computing vem dos ASPs (que teve os
primeiros adeptos no Brasil no final do ano 2000) e é definido como o mecanismo
pelo qual as empresas alugam sistemas e pagam pelo uso, em vez de comprá-los.
Ou seja, ASP é um sistema com estrutura computacional centralizada, capaz de
atender a diversas empresas em um único software ou hardware. Sendo assim, as
empresas não precisariam obter um parque tecnológico (servidores, software,
sistemas completos e backbone) necessário para montar sua própria infra-estrutura.
-8–
ASP rumo ao Utility Computing
Em 2001, a Vale.com, que é o braço digital da companhia Vale do Rio Doce, efetivou
a primeira experiência de uso de um ASP em sua totalidade. Esse projeto pioneiro foi
implementado pela Aspix, empresa de ASP da Xerox, que se comprometeu a seguir à
risca os mandamentos básicos do ASP. Até então, nenhuma empresa havia utilizado
o conceito ASP de forma integral. Naquela época, os fornecedores do serviço no
Brasil, em geral, cobravam o licenciamento do software, fato que acarretava em um
alto custo para utilizar programas que ajudavam no gerenciamento (ERP), por
exemplo. O custo de implementação de um software ERP em uma empresa de
pequeno porte girava em torno de R$ 10 mil.
Outro fator pode ser notado: os ciclos tecnológicos encurtaram, e isso pressionou as
empresas a renovarem o hardware com maior regularidade, além de inibir o mercado
de equipamentos de segunda mão. O valor do hardware como ativo é altamente
depreciável. Como conseqüência, nessa época, os recursos de leasing passaram,
cada vez mais a ser empregados na aquisição de projetos completos, incluindo
licenças de software, elaboração e implementação de sistemas.
-9–
Antes, frente à escassez financeira, o financiamento de tecnologia se restringia ao
hardware de grande porte (mainframe) e midrange. Nesse momento, tecnologia da
informação passa a ser oferecida como serviço, tendência que se originou dos
desdobramentos ocorridos no sentido da terceirização.
A retomada do uso
É fato que o conceito de fornecimento de software como serviço (ASP) não obteve,
naquela época, a repercussão e o uso esperados pelo mercado por diversos motivos.
Entre eles, o fator cultural pesou bastante, tendo em vista que até hoje os
executivos de TI e mesmo os presidentes das empresas não se sentem confortáveis
com os dados confidenciais de suas companhias rodando fora da empresa. O fator
segurança foi fundamental para o modelo ASP não ter vingado. Por outro lado, as
facilidades do “pay-per-user” ou pague pelo que utilizar, se mantêm.
Aperfeiçoando o conceito
Sem esse tipo de problema a enfrentar, gigantes como IBM e HP, partem também
para a oferta do conceito pague somente pelo que utiliza. Sempre atentas às
tendências que o mercado apresenta e em busca de uma solução para as questões
advindas das mudanças e necessidades do mercado comprador, as grandes
empresas aperfeiçoam o modelo, indo além do objetivo de financiar projetos no setor
da tecnologia da informação.
- 10 –
Para resolver situações como essas, as gigantes do segmento de tecnologia da
informação, partem para o desenvolvimento e o aprimoramento de alternativas e
funcionalidades como a computação em grade (Grid Computing), virtualização,
tecnologias ASP e redes de banda larga. Todas elas contribuem para a viabilidade do
conceito de Utility Computing.
Esse conceito, que teve sua idealização nos sistemas em que a energia elétrica é
produzida e distribuída conforme o uso, foi se adequando ao segmento de tecnologia
da informação ao longo desses anos. Grid, que se traduz como grade, é definido por
Ian Foster, pesquisador e professor de ciências da Computação da Universidade de
Chicago e um dos maiores divulgadores dessa tecnologia, como uma infra-estrutura
de hardware e software que provê capacidades computacionais consistentes,
variáveis e baratas.
- 12 –
O terceiro pilar do modelo da IBM está ligado às redes, onde o desafio foi identificar
uma rede mais inteligente que os modelos existentes e que pudesse se beneficiar
dos recursos ociosos. Surgiu então, a recuperação do grid.
O quarto pilar do on demand foi conhecer o negócio de cada cliente para fornecer
soluções de acordo com as demandas e da forma mais adequada possível. Houve
grandes investimentos da companhia para a conclusão dessa etapa, que culminou
com a aquisição da empresa de pesquisa PriceWaterHouse Consulting, por US$ 3,5
bilhões.
- 13 –
O primeiro consiste no modelo tradicional, que delega a empresas prestadoras de
serviço a infra-estrutura, as aplicações e a rede de voz utilizada pela empresa, por
exemplo. A segunda é conhecida como adapting computing, e ajusta o pagamento
dos serviços de TI de acordo com o uso por parte do contratante. Já o Utility
Computing é a terceira fase desse processo evolutivo e refere-se à utilização dos
serviços de TI em função das necessidades das empresas, como é procedido nos
casos do consumo de água e de eletricidade, como exemplo.
- 14 –
Módulo 3 – Prós e Contras
Os recursos sob demanda podem ser internos da empresa, que é o modelo de Grid
Computing ou a companhia pode terceirizar suas necessidades adicionais
momentâneas, com um fornecedor de serviços externos.
Em 2001, a Vale.com, que é o braço digital da companhia Vale do Rio Doce, efetivou
a primeira experiência de uso de um ASP em sua totalidade. Esse projeto pioneiro foi
implementado pela Aspix, empresa de ASP da Xerox, que se comprometeu a seguir à
risca os mandamentos básicos do ASP. Até então, nenhuma empresa havia utilizado
o conceito ASP de forma integral. Naquela época, os fornecedores do serviço no
Brasil, em geral, cobravam o licenciamento do software, fato que acarretava em um
alto custo para utilizar programas que ajudavam no gerenciamento (ERP), por
exemplo. O custo de implementação de um software ERP em uma empresa de
pequeno porte girava em torno de R$ 10 mil.
- 15 –
Ao longo do tempo, os fornecedores de soluções observaram que a necessidade do
mercado coorporativo era projetar suas vendas no mundo e-business e, com base na
demanda crescente e na tendência tecnológica do e-commerce, foram alterando a
visão no que se referia a modelos de negócios e pendendo para o ASP. Uma das
vantagens das aplicações utilizadas no modelo ASP está na sua estrutura
tecnológica, que é compartilhada por todos os clientes que as alugam por taxas
mensais. Essas taxas estão longe dos altos valores despendidos na aquisição e
manutenção de hardwares e softwares.
Outro fator pode ser notado: os ciclos tecnológicos encurtaram, e isso pressionou as
empresas a renovarem o hardware com maior regularidade, além de inibir o mercado
de equipamentos de segunda mão. O valor do hardware como ativo é altamente
depreciável. Como conseqüência, nessa época, os recursos de leasing passaram,
cada vez mais a ser empregados na aquisição de projetos completos, incluindo
licenças de software, elaboração e implementação de sistemas. Antes, frente à
escassez financeira, o financiamento de tecnologia se restringia ao hardware de
grande porte (mainframe) e midrange. Nesse momento, tecnologia da informação
passa a ser oferecida como serviço, tendência que se originou dos desdobramentos
ocorridos no sentido da terceirização.
Avaliando o conceito
- 16 –
Outro ponto forte é a questão do custo, que pode ser melhor gerenciado e sofre uma
considerável redução, já que se paga somente pelo o que é utilizado, conforme a
necessidade da companhia, sem o custo de capacidade ociosa por longos períodos.
- 17 –
Na ocasião, boa parte das companhias, inclusive as grandes empresas de
telecomunicações como a AT&T e a Sprint entraram na onda dos ASPs. Parecia que o
conceito tinha tudo para dar certo. Um terceiro provedor que vai operar e manter as
aplicações do usuário, oferecendo como resultado economias de custo e melhor
desempenho. O único problema que não contavam é que os usuários não foram
convencidos.
Para muitos, hoje o termo ASP chega a ter conotação negativa e está de certa forma,
prestes a transformar-se em uma nota de rodapé como referência histórica. A
maioria de fornecedores retirou-se desse mercado. Entretanto, alguns ASPs
perduram por esperança de melhorias na carteira comercial, ou simplesmente
cumprem as obrigações contratuais.
Outro problema deve ser considerado, que são as tentativas de invasão das redes,
que interrompem o funcionamento de muitas empresas.
- 18 –
Números do mercado dão conta de que 54% das grandes empresas contam com um
plano estratégico, ao passo que somente 28% das pequenas e médias concretizaram
esse plano.
De acordo com o Gartner, até 2007 30% de todas as empresas irão adotar o modelo
Utility Computing, sendo que atualmente 15% das empresas já utilizam esse
modelo, principalmente nos países desenvolvidos. Ainda conforme o instituto de
pesquisa, entre 10% a 20% dos custos totais da operação são destinados à área de
tecnologia de forma direta ou indireta. Na forma de cobrança do Utlity Computing, é
possível que o cliente determine o dia do pagamento. É possível atingir uma redução
de até 50% no custo total de operações de TI por parte das pequenas e médias
empresas, sem contar que o custo com a atualização de softwares via modelo Utility
Computing pode chegar a uma redução de até 30% ao ano.
Tempo também é dinheiro, por isso deve-se considerar a redução de custos no que
se refere ao tempo gasto para pesquisar e manter os inúmeros fornecedores de TI.
Para as empresas do SMB, o custo para detectar um fornecedor é duas vezes maior
do que das corporações. No SMB, são 29% dos custos totais de contratação e nas
empresas de grande porte esses custos são de 14%, de acordo com o Gartner.
Utility Computing, descrito como uma ferramenta poderosa capaz de reduzir custos e
a complexidade, tem uma vasta lista de tecnologias que promovem uma
reestruturação na estratégia, tornando uma empresa adaptável, ágil e operando
conforme a demanda.
Aspectos jurídicos
Com isso, ganha relevância a carteira de contratos, que devem ser geridos pelo
executivo de tecnologia, tais como os de prestação de serviços, conhecidos como
Service Level Agreements (SLA) e contratos de terceirização de processos,
conhecidos como Business Process Outsourcing (BPO).
A queixa mais comum sobre o outsourcing pode ser parafraseada como "a
produtividade não é melhor com a terceirização do que seria com recursos internos,
mas há menor controle e altos pagamentos". Não é possível afirmar se esta frase é
verdadeira ou não, ao menos o comentário traz à tona um problema com o formato
de terceirização: não há maneira eficaz para medir o desempenho e se estabelecer
um comparativo.
A única linha de base que a maioria das companhias tem para traçar um parâmetro é
a produtividade medida em seus próprios departamentos de TI antes de adotarem o
outsourcing. A pergunta que o CIO deve fazer para obter essa medição é: de quanto
era a produtividade interna antes da terceirização?
Por mais vital que sejam o controle e a eficiência de custo, na realidade Utility
Computing não proporciona em suas oportunidades, a criação e o crescimento de
conhecimento e capacitação de profissionais.
Os early adopters (ou loucos por novidades e que saem na frente) dessas aplicações
poderão perceber que Utility Computing não terá as mesmas falhas que o modelo
ASP. O custo por tempo do serviço, do tempo de implementação e as vendas estão
sendo impulsionados por uma maior colaboração do cliente e por novas parcerias.
- 22 –
- 23 –
Módulo 4 – Modelos de oferta e Precificação
Como escolher o provedor dos produtos e serviços de Utility Computing? Qual o novo
papel dos profissionais de TI diante deste novo modelo de negócios? Como será a
dinâmica de tomada de decisão quanto ao rumo tecnológico das empresa? Conheça o
Utility Comp
O novo modelo, com base em antigos conceitos como os ASPs (Application Service
Providers) ou provedores de aplicações que cobram um aluguel mensal pelo
fornecimento de software, traz inúmeras alterações na forma de comercialização e
nas funções dos CIOs (Chief Information Officer). Tudo isto requer mudanças
culturais e leva algum tempo, como mostra a história.
- 24 –
Adequação do profissional
Diante do novo modelo, outras áreas da companhia como marketing e finanças, além
da alta administração também se envolvem na tomada de decisão quanto ao rumo
tecnológico da empresa. Esta função antes era exercida somente pelos profissionais
de TI. Portanto, muda também o perfil do CIO que tem de adquirir um perfil mais
comercial e de marketing. É fundamental a existência do poder de convencimento, já
que será necessário, muitas vezes, defender a implementação de projetos ou a
adoção de uma nova tecnologia. Tudo isso envolve também a demonstração do ROI
(retorno do investimento) junto aos donos ou presidentes das companhias.
Existem diversas formas sendo praticadas, porém, não há ainda um padrão definido.
Há planos de pagamentos que prevêem a utilização efetiva ou apenas projetada do
consumo. São aluguéis fixos, ou o custo pelo uso de Megabytes, por exemplo.
Existem mecanismos e softwares para essa contagem. Já a performance pode ser
medida por métricas a serem definidas pelo usuário.
A HP, por exemplo, oferece as soluções Utility Pricing, que prometem maior controle
sobre a utilização e sobre os custos, sem sacrifício do desempenho. A fabricante
oferece um plano de pagamento com base na utilização real ou planejada.
- 25 –
Fornecedores se adaptam ao conceito
Apesar da falta de uma padronização, até por ter ainda baixo índice de
implementação, fornecedores de Utility Computing tentam se adequar à nova
maneira de vender TI. Existem formas diferentes no mercado de se oferecer as
soluções, de cobrar por elas e, até mesmo, diferentes modelos do próprio conceito.
E, por enquanto, nenhuma delas tornou-se referência para que se estabeleça um
padrão.
Uma das formas adotadas por fabricantes até o momento para cobrar pelo uso é
estabelecer um valor para cada Megabyte utilizado em uma infra-estrutura que,
acumulados, formarão o valor a ser pago pelo cliente no mês. Assim, se uma
companhia cobrar US$ 0,02 por Megabyte e o cliente utilizar – apenas a título de
exemplo – 1 mil Megabytes, decorridos os trinta dias, o cliente terá de desembolsar
US$ 20.
Por outro lado, players como a IBM, Sun Microsystems, Oracle, Cisco, EDS, Intel e
HP, entre outros, têm enorme fôlego financeiro para manter os benefícios do modelo
ASP e aproveitá-los no Utility Computing. Com a adesão dessas grandes empresas, o
modelo recebe melhorias e aperfeiçoamentos, além de obter maior divulgação. Não é
por acso que esses fabricantes se voltaram para a venda de tecnologia sob demanda.
- 26 –
Há iniciativas significativas para o desenvolvimento de formas inéditas de financiar
recursos ao usuário final. Até porque há várias indicações, tanto na área de negócios
como em tecnologia, de que ocorre uma mudança no modo como as pessoas
enxergam a tecnologia da informação. E como não poderia deixar de ser, as gigantes
estão de olho mercado e se antecipando às suas tendências, as quais muitas vezes
são impostas por essas mesmas empresas. As companhias líderes da indústria de
processadores, sistemas operacionais e de rede, entre elas, a Intel, Microsoft e
Cisco, estão guiando os padrões por meio de iniciativas conjuntas de mercado e
desenvolvimento tecnológico.
Para chegar a uma equação para resolver o problema, a indústria de TI se fez valer
de tecnologias, conceitos e funcionalidades mais antigas que, por alguma razão, não
deram certo, e extraíram o lado positivo. Somaram com tecnologias atuais e o
resultado é Utility Computing, viabilizado pelo advento das conexões em banda
larga, das tecnologias de virtualização (capacidade virtual de proteção e recuperação
em caso no de falha física) e de Grid Computing (grade de processamento), além de
aspectos positivos do ASP.
A movimentação da indústria
A proposta aqui não é listar tudo o que existe no mercado em produtos e serviços
voltados para Utility Computing, mas mostrar como e o quanto alguns fabricantes
estão empenhados em fazer para que o conceito de pagar pelo uso, ou o per-pay-
use, seja solidificado. Dessa forma, evitando o que ocorreu com o modelo ASP. A
IBM deu a largada para toda essa movimentação e está basicamente toda voltada
para o conceito on demand, com a quase totalidade de seu portfólio adaptado ao
conceito.
Sun Microsystems
- 27 –
Entre eles estão o Sun Preventive Services, que foi desenvolvido para reduzir custos
e aumentar os níveis de eficiência dos data centers e conta com mais de 100
diferentes serviços, integrados em um único portfólio. O Sun Utility Computing foi
formatado para sistemas e o seu custo tem base no Sun StorEdge Power Units, com
preço inicial de US$ 0,02 por Megabyte, sendo que o valor cobrado sobre o que foi
utilizado será mensal.
Entre outros produtos que estão sob o conceito de Utility Computing estão o servidor
Netra 440, equipamento robusto, com quatro processadores UltraSPARC, rodando
Solaris 64-bit e complementado pelos novos NEBS- storage arrays; o Sun Java
System RFID Software e o Sun Java Desktop System 2, com ferramentas de
gerenciamento integrado, proporcionam ao usuário controle total sobre o ambiente
desktop, as aplicações, licenças de uso e políticas de interface.
Atuação da Intel
- 28 –
Atuação da HP
Atuação da Microsoft
A Microsoft atua no mercado on demand com o pacote de soluções para CRM 3.0.
Essa nova versão do produto está prevista para chegar ao mercado no final de 2005
e as novas aplicações serão oferecidas pelo modelo de cobrança que o usuário paga
pelo que usa.
A Veritas criou as soluções SRM, que auxiliam a migração para o Utility Computing,
na área de armazenamento. Os profissionais de TI, com as as ferramentas SEM,
tratar o gerenciamento de storage de todos os ângulos. A solução é composta por
- 29 –
SANPoint Control, que cobre o gerenciamento físico do storage; pelo Veritas Storage
Repórter, que cuida do gerenciamento lógico e pelo Service Manager for Storage,
que realiza as funções de gerenciamento do negócio. Ou seja, essas três ferramentas
trabalham juntas para alcançar uma melhor eficiência e otimização do uso do
hardware. Além disso, elas oferecem um único e consistente ponto de gerenciamento
para SAN, NAS e DAS, o que ajuda a reduzir o erro do operador, que é a maior causa
de downtime não planejado.
Atuação da EDS
Agility Alliance é uma iniciativa da EDS que conta com a participação de empresas
como Cisco, Dell, EMC, Microsoft, Oracle, SAP, Siebel, Sun, Towers Perrin e Xerox.
Com investimentos de US$ 16 bilhões, a aliança global tem como objetivo prover o
conceito de Utility Computing para as áreas de infra-estrutura, aplicações e BPO
(Business Process Outsourcing). O investimento da EDS na plataforma foi de US$ 2
bilhões.
Em breve, chegará ao mercado uma nova geração de serviços com base em uma
arquitetura flexível, que visa a melhor adequação das empresas nas mudanças que
se vem operando.
Pelo investimento dessas e outras gigantes de TI, é possível arriscar o palpite de que
Utility Computing veio para ficar e revolucionar a forma de adquirir e vender recursos
tecnológicos.
- 30 –
Módulo 5 – Retorno do Investimento
Mutações do conceito
É uma realidade que o mercado têm hoje à disposição novas formas de operar e
contratar recursos tecnológicos, como o conceito Utility Computing. Porém, a sua
adoção ainda está em um estágio bem inicial. O polêmico artigo "IT Doesn’t Matter"
(TI não importa), publicado pela Harvard Business Review, foi escrito por Nicholas G.
Carr e tornou-se conhecido no segmento. O autor escreve que na medida em que a
tecnologia amadurece, tende a tornar-se commodity (como a energia elétrica) e,
quando a tecnologia torna-se mais padronizada, seu valor estratégico diminui. Para o
autor, do ponto de vista estratégico, a eletricidade e todos os serviços públicos
tornaram-se invisíveis ao consumidor, tendo em vista que não há uma preocupação
corriqueira com essas facilidades.
Pode-se concluir do artigo de Carr que o futuro da tecnologia nas corporações e sua
forma de comercialização está em xeque. Todavia, ninguém pode afirmar que Utility
Computing é o melhor modelo ou até mesmo predizer se vai decolar e passar a ser
padrão de mercado. Porém, é certo que o modelo atual ainda não é o definitivo.
Ainda há muitos desafios pela frente e o setor ainda vai passar por inúmeras
transformações.
- 31 –
No Brasil e em países em desenvolvimento de maneira geral, há enormes chances de
que o conceito se consolide, tendo em vista a escassez de recursos financeiros para
investimentos em TI.
Claro que vai depender do avanço em melhorias e padronização da oferta. Mas isso
não é privilégio de países em desenvolvimento. Nos Estados Unidos e na Europa, a
tendência de que o conceito será amplamente adotado é forte. O Meta Group
(instituto de pesquisas) afirma que há maiores possibilidades de adesão em clientes
que precisem gerenciar a demanda e os ativos do ambiente e controlar gastos e
mudanças internas.
Uma das grandes vantagens pregadas pelo conceito é que o usuário não tem de
fazer altos investimentos iniciais. Há, porém, alguns problemas a serem superados
pelos fornecedores do conceito, como o alto custo de comunicação e as dificuldades
técnicas de soluções que envolvem diversas filiais. Nesse caso, o fabricante tem de
investir altas somas no gerenciamento da infra-estrutura. Para o conceito sob
demanda avançar, é fundamental que os custos de comunicação sejam reduzidos.
- 32 –
Os dados do cliente que são armazenados na infra-estrutura do fornecedor podem
ser buscados na hora em que a empresa desejar, por meio de uma rede
criptografada e são armazenados temporária ou permanentemente em sistemas de
arquivos também criptografados. Para oferecer alta disponibilidade ao mercado,
alguns fabricantes, como a Sun, replicam os dados na malha do Sun Grid.
A maioria das empresas obterá benefícios imediatos com a migração para um modelo
pague pelo uso, porque ele fornece capacidade de computação em qualquer
quantidade, sem envolver enormes despesas de capital.
Para identificar as áreas onde o grid computing oferecerá mais valor, responda as
seguintes perguntas: sua empresa precisa aumentar o poder de processamento? Há
algum projeto especial que requeira recursos computacionais adicionais por um
período de tempo limitado? Há demanda cíclica diária, semanal, mensal ou periódica
para tarefas com uso intenso de cálculos? Existem tarefas de cálculo que podem ser
executadas em lote? Qual é a capacidade do seu data center? Com as respostas,
você terá um entendimento perfeito de como Utility Computing poderá ajudá-lo a
administrar melhor os recursos.
O cliente compra equipamentos com determinados recursos, que podem ser ativados
e desativados quando solicitar. Como exemplo: é possível adquirir uma máquina com
cinco processadores, porém somente dois serão ativados. Isso, com a possibilidade
de aumentar a capacidade em períodos específicos, por meio da aquisição de um
código, ou ativar os recursos para uso contínuo, pagando o valor integral.
- 33 –
Então, a mensalidade é pelo o que é utilizado. Dependendo da solução, há o
compartilhamento de fonte de energia, placas de rede e a possibilidade de integrar
no mesmo ambiente servidores Intel ou UNIX, sistemas operacionais Linux e
Windows.
Para uma empresa adotar o conceito de Utility Computing é preciso observar alguns
pontos:
- 34 –
A informação é a espinha dorsal das empresas modernas. Conduzidas pelos avanços
na área de armazenamento e transmissão de informação, as empresas podem tomar
decisões com base nos negócios de forma consciente.
Com a escassez financeira, os CIOs estão sendo cada vez mais cobrados a
apresentar o retorno de investimentos, a reduzir o custo total de propriedade e a
apresentar resultados concretos do departamento de TI, junto aos donos das
empresas. Foi exigido um perfil mais administrativo, de gestor e de marketing, além
do conhecimento técnico.
Essa é a lei da sobrevivência das empresas, que se adaptam à nova ordem mundial.
Já vai longe o tempo em que as organizações compravam tecnologia com o
argumento de se manterem atualizadas. Hoje, é preciso justificar cada gasto. Todos
os gestores têm por obrigação saber qual será o retorno do investimento, antes de
assinar qualquer tipo de contrato de compra.
- 35 –
Uma pesquisa realizada no país, no mesmo ano, apontou que cerca dos 59% dos
executivos de empresas brasileiras pretendiam aumentar seus investimentos em
tecnologia, porém, ressaltaram que 46% do total seriam aplicados aquisições, que
trouxessem retorno em curto prazo.
Antes de mais nada é primordial saber o real valor daquilo que se pretende adquirir
e, inclusive, dos custos de não se realizar a implementação da solução proposta.
Os benefícios intangíveis, por outro lado, estão presentes na solução, mas são
difíceis de quantificar: aumento na satisfação e crescimento de produtividade dos
usuários. Alguns dos benefícios intangíveis podem ser estratégicos, como maior
credibilidade da empresa, melhoria na qualidade da oferta ao cliente por meio de
pró-atividade e do aumento de informação disponibilizada.
Fica a ressalva de que essa forma pode ajudar a decisão no processo de adoção de
Utility Computing, porém, é a tradicional aplicada na aquisição de soluções
tradicionais.As justificativas financeiras são utilizadas para controlar as aquisições
tecnológicas e para tomar decisões mais acertadas. As justificativas permitem ter
uma medida do risco e do custo do investimento, permitindo ter uma perspectiva do
Valor do Negócio.
Cálculo do ROI
O ROI é usualmente calculado num período de 3 a 5 anos, por meio de ações como:
- 37 –
Controle total sobre o que foi contratado
Uma das preocupações ao aderir ao conceito é saber exatamente o que está sendo
pago e exatamente o que está sendo adquirido. Alguns fabricantes estão fazendo
parcerias com os fornecedores de telecomunicações, integradores de sistemas e
prestadores de serviços para que a compra de uma variedade de serviços de
computação sob demanda se torne simples e conveniente.
- 38 –
Módulo 6 – Previsões
A International Data Corporation (IDC) avalia que Utility Computing crescerá, porém
ainda não será adotado largamente como o conceito é vendido. O instituto prega que
ele é uma boa aposta, mas a longo prazo. Utility Computing causará grandes
mudanças na arquitetura e na administração de sistemas, pacotes de serviços e
produtos de TI e na forma de cobrança pelo que é fornecido, como já
exemplificamos, analogicamente, com o setor de energia elétrica.
De acordo com uma pesquisa da IDC, realizada em julho de 2005, 28% das 103
empresas participantes têm receio em compartilhar seus dados e informações com
os fornecedores e prestadores de serviço.
- 39 –
A preocupação com o retorno dos investimentos (ROI) no modelo Utility Computing
foi apontada por 19% das organizações. Para 17% das participantes, confiança no
data center do fornecedor é uma questão fundamental.
Acelerar o processo
A adoção se torna mais lenta na medida em que ainda existe uma percepção muito
confusa por parte do usuário sobre o que é exatamente o modelo. No que se refere
ao fabricante, existem conflitos internos que dificultam o esclarecimento do cliente,
já que elas têm a oferecer dois modelos de comercialização: pay-per-use e também
o de licenças. É necessário detalhar para o usuário as vantagens e os processos de
cada um deles.
Tendências
- 40 –
Os indicadores de mercado apontam para o gradual aumento na adesão do Utility
Computing. O estudo IDC Predictions 2005 prevê um crescimento moderado do setor
de TI e consolidação de tendências anteriormente apontadas. A expectativa é que
ocorra uma reorientação de fornecedores e ofertas voltadas a processos e soluções
de negócios, além do crescimento de estratégias baseadas em computação utilitária.
Os analistas acreditam em um crescimento de 6,1% do mercado de TI em 2005,
com pequeno destaque para os negócios nos Estados Unidos e Europa Ocidental.
Mais recente e dirigido, um estudo financiado pela Oracle revela que hoje o
segmento de comercialização sob demanda movimenta no Brasil cerca de US$ 278,8
milhões. Realizada pela IDC Brasil, a pesquisa que foi divulgada em 27 de julho de
2005 aponta ainda que a expectativa é que Utility Computing cresça, ao ano, em
torno de 24,4% até 2009, atingindo, portanto, o montante de US$ 667 milhões.
Mesmo com essas alterações rumo aos serviços, o mercado local ainda não
incorporou totalmente o conceito de comprar recursos de TI pelo modelo sob
demanda. Este, em comparação com mercados internacionais ainda é muito tímido
no Brasil. A porcentagem ideal projetada para o Brasil é de cerca de 30% de
investimentos com hardware e mais de 40% em serviços. Comparativamente, no
mercado norte-americano, onde o conceito dá mostras de estar mais maduro,
hardware, software e serviços recebem investimentos de 32%, 25% e 44%,
respectivamente. A melhor fórmula para que o modelo se desenvolvesse no país
seria com os serviços recebendo a maior parte dos investimentos e não a compra de
hardware.
- 41 –
Para não perder o bonde do momento, fabricantes estão habilitando vendedores na
correta venda do modelo de pagar pelo o que se utiliza em algumas soluções como
servidores, armazenamento de dados, software, aplicativos e impressão. Em busca
de novas oportunidades, a indústria de TI se reinventa e acirra a disputa para
atender à clientela nesse modelo. Depois das crises econômicas, ficou claro para os
fabricantes que a venda de tecnologia pura não existe mais, mesmo porque, com o
grau de automatização, TI se está tornando commodity, como destacam os analistas
de mercado. Talvez esse seja o período mais difícil por que passam fabricantes e
CIOs, que enfrentam uma tormenta de desafios estruturais.
Polêmica estabelecida
Por outro lado, para tentar entender o cenário de TI, imagine uma pirâmide e a
dividida em quatro partes. Em sua base se encontra a infra-estrutura de TI (redes,
hubs, conectividade e hardware); na camada de cima situam-se os softwares
básicos, que são representados por plataformas como sistemas operacionais e banco
de dados, por exemplo. Com o avanço do Utility Computing, essas duas partes
estruturais podem se tornar, de fato, 100% commodities. Nesse ponto, estão certos
os que afirmam que TI perderá seu valor estratégico.
- 42 –
Só que a situação se altera nos terceiro e quarto níveis da pirâmide, onde você pode
imaginar os software aplicativos e funções de negócios com aplicações de TI,
respectivamente. No terceiro nível, representado por sistemas de CRM, ERP e supply
chain, alguns analistas arriscam dizer que a commoditização chegaria, no máximo, a
70% dessas aplicações. Isso porque, as empresas têm processos distintos; metas e
objetivos específicos.
A complexidade do cenário aumenta no topo da pirâmide. Nesse nível, é preciso que
haja perfeita sincronia entre as decisões estratégicas e as inovações tecnológicas
disponíveis. Nas aplicações, a questão é mais profunda e a distância entre a inovação
tecnológica e a empresa que a adota é muito grande. É elevado o grau de
complexidade para que não haja cópias dessas aplicações. Nesse nível, a
commoditização não ultrapassa a casa dos 40%.
Flexibilidade é a palavra-chave
A inovação dos processos pode ser considerada como o que alguns pesquisadores
chamam de domesticação da tecnologia, que significa adaptar de maneira recíproca
a tecnologia ao usuário. Como exemplo, da mesma forma que o aparelho celular é
adequado à agenda de telefones e compromissos; o usuário se adapta ao seu
aparelho, decidindo se atende ou não a ligação, por exemplo.
Sem predizer o que a tecnologia da informação reserva para o setor, observa-se uma
perspectiva de mudança. Inúmeros indicativos ajudam a constatar que separar a
inovação e a competitividade dos avanços tecnológicos, sejam eles voltados ao
usuário final ou às empresas, torna-se quase impossível.
- 43 –
A Citrix disponibiliza o Citrix MetaFrame Access Suite solutions, que permite às
empresas a construção de acesso à infra-estrutura para entregarem um
empreendimento on demand, de modo seguro. A Computer Associates conta com a
tecnologia Sonar, ferramenta para correlacionar processos de negócio com os ativos
de TI, alinhando os investimentos em infra-estrutura com as prioridades de negócio.
Outra a entrar para o time é a EMC e oferece OpenScale, ferramenta que auxilia a
cobrança dos serviços, mede o quanto do sistema de armazenamento de dados está
sendo utilizado. O programa colhe informações dos data centers dos consumidores
por meio de um software chamado "Collector", que emite relatórios.
- 44 –
A Sun Microsystems trabalha para a criação de vários componentes de hosting por
virtualização e soluções de Utility Computing, enquanto Xerox e EDS desenvolvem
abordagens novas para infra-estruturas de gerenciamento de documentos. Além
disso, lidera a Agility Alliance, também em conjunto com outros gigantes do setor.
Mas o mercado de Utility Computing não é formado apenas pelas empresas de maior
porte. Muitas outras também de olho nas transformações do mercado, passam a
oferecer soluções sob demanda. É o caso da NeoGrid, empresa de comércio
colaborativo que substituiu a venda de licença para o seu e-Collaboration Suite por
um modelo on demand. Já a CorpFlex lança o modelo ASP (Application Service
Provider) sob demanda, sendo que o serviço tem a finalidade de ajudar os
fabricantes de sistemas de gestão a ganhar mercado.
- 45 –