Vous êtes sur la page 1sur 10

Mainframe

Um mainframe é um computador de grande porte, dedicado normalmente ao


processamento de um volume grande de informações. Os mainframes são capazes de
oferecer serviços de processamento a milhares de usuários através de milhares de
terminais conectados diretamente ou através de uma rede. (O termo mainframe se refere
ao gabinete principal que alojava a unidade central de processamento nos primeiros
computadores.).

Embora venham perdendo espaço para os servidores de arquitetura PC e servidores


Unix, de custo bem menor, ainda são muito usados em ambientes comerciais e grandes
empresas (bancos, empresas de aviação, universidades, etc.).

São computadores que geralmente ocupam um grande espaço e necessitam de um


ambiente especial para seu funcionamento, que inclui instalações de refrigeração (alguns
usam refrigeração a água). Os mainframes são capazes de realizar operações em grande
velocidade e sobre um volume muito grande de dados.
História
Os mainframes nasceram em 1946 e foram sendo aperfeiçoados. Em 7 de abril de 1964,
a IBM apresentou o System/360, mainframe que, na época, foi o maior projeto de uma
empresa. Desde então, outras empresas -- como a HP e a Burroughs (atual Unisys) --
lançaram seus modelos de mainframe. Existem mainframes em operação no mundo
inteiro.

Contemporaneos aos /360 da IBM foram os Burrough B-200, B-300 e B-500 (de pequeno
porte) e os B-5500 (de grande porte).

Posteriormente a IBM lançou a série /370, e a Burroughs por sua vez lancou as máquinas
de terceira geração: B-3500 e B-6500, sucedidas pela série 700: B-3700 e B-6700.

No fim da década de 70, ao mesmo tempo que cresciam os sistemas destinados a


grandes corporações, começaram a reduzir o tamanho de uma série das máquinas para
chegar a clientes menores: a IBM lançou o /3 e a Burroughs a série B-1700 e
posteriormente o B-700, máquinas de quarta geração, cujo software básico era escrito em
MIL (Micro Implemented Language) e SDL (Software Development Language). Foram as
primeiras máquinas Burroughs microprogramáveis, o que lhes dava uma flexibilidade
impar. Estas máquinas marcaram o início do uso de circuitos integrados com tecnologia
TTL com integração em média escala (MSI).

Atualmente a IBM produz quatro versões de mainframes, denominados System Z series,


que modernizados, suportam diversos sistemas operacionais: z/OS®, z/OS.e, z/VM®,
z/VSE™, VSE/ESA™, TPF, z/TPF e Linux on System z™.

Hoje, segundo especialistas, há uma forte tendência de crescimento para este setor,
inclusive com as novas versões do Cobol (principal linguagem usada nos Mainframes)
usando ambiente gráfico.[carece de fontes?]
Mainframes versus supercomputadores
A distinção entre supercomputadores e mainframes não é clara e direta, mas geralmente
falando, os supercomputadores são utilizados na solução de problemas em que o tempo
de cálculo é um limite, enquando os mainframes são utilizados em tarefas que exigem alta
disponibilidade e envolvem alta taxa de transferência de dados (internos ou externos ao
sistema). Como consequência:

 os supercomputadores são mais complexos do ponto de vista do programador,


devido ao alto grau de paralelismo na execução das instruções e pelo fato de
que, ao contrário dos mainframes, não existe uma camada de abstração que
esconde estas questões;

 os supercomputadores são otimizados para realização de tarefas complicadas


utilizando principalmente a memória, enquanto os mainframes são otimizados
para realizar tarefas que acessam grandes quantidades de informação oriunda
de bases de dados;

 normalmente os supercomputadores são utilizados em aplicações científicas e


militares, enquanto os mainframes são voltados a aplicações civis, sejam
governamentais ou empresariais. A análise de modelos de clima, análise
estrutural de proteínas e processamento de filmes digitais são tarefas bastante
apropriadas para os supercomputadores. O processamento de cartões de
crédito, gerenciamento de contas bancárias, negociações mercantis e
processamento de seguro social são tarefas normalmente realizadas por
mainframes. (Uma exceção: certas aplicaçãoes militares exigem um nível de
segurança muito alto, que é uma forte característica dos mainframes);

 as tarefas executadas pelos supercomputadores toleram interrupções (por


exemplo, cálculos de modelos de previsão de aquecimento global ou pesquisa
acadêmica). Os mainframes executam tarefas que exigem alta disponibilidade,
podendo executar serviços continuamente por anos (por exemplo, sistemas de
emissão de passagens aéreas ou processamento de cartões de crédito);

 os supercomputadores são construídos para atender uma finalidade específica.


Os mainframes são construídos para realizar uma grande variedade de tarefas
de execução diária;

 os mainframes suportam totalmente o software antigo (no caso da IBM,


inclusive aplicações escritas na década de 60) convivendo com novas versões.
No caso dos supercomputadores, a tendência é ignorar a compatibilidade
retroativa de software no projeto de novos sistemas;

 os mainframes possuem um grande número de processadores que auxiliam os


processadores centrais. Eles são utilizados em funções de criptografia,
gerenciamento de I/O, monitoração do ambiente, manipulação de memória, e
etc. Devido a esta característica o número de processadores dos mainframes é
muito maior do que se esperaria. Os projetos de supercomputadores não
incluem este grande número de processadores de uso específico já que eles
não adicionam poder de processamento de cálculo.

Supercomputador

Nas décadas de 1940 e 1950, todos os computadores do mundo eram gigantescos e caros,
agregando tudo o que havia de mais avançado em termos de conhecimento humano. Hoje, pode
parecer ridículo que qualquer calculadora de mão de 3 reais possa ter um poder de processamento
muito superior ao de um ENIAC, que só de manutenção consumia o equivalente a quase 200.000
dólares por dia (em valores corrigidos). Mas, os supercomputadores continuam existindo, tão
grandes e caros quanto um ENIAC, porém incomparavelmente mais rápidos do que os micros de
mesa, como o que você está usando neste exato momento.

Esses mastodontes estão por trás de muitos dos avanços da humanidade e, apesar de estarem
escondidos em grandes salas refrigeradas, são alvo de grande curiosidade.

Enquanto escrevo, o supercomputador mais rápido do planeta (segundo o http://www.top500.org/) é


o IBM Blue Gene/L, desenvolvido pela IBM. Ele é composto por nada menos do que 131.072
processadores PowerPC e possui 32 terabytes de memória RAM.
Para chegar a esses números, a IBM desenvolveu módulos relativamente simples, cada um
contendo 2 processadores, 512 MB de RAM e uma interface de rede gigabit Ethernet, similares a
um PC doméstico. Esses módulos foram agrupados em racks (chamados de nós), cada um com 128
deles. No final, chegaram a 512 racks, interligados por uma complexa malha de cabos de rede,
rodando um software próprio de gerenciamento. Essa gigantesca estrutura funciona como um
cluster, onde o processamento é dividido em pequenos pedaços e dividido entre os módulos. Veja
uma foto mostrando parte das instalações:

IBM Blue Gene/L (foto publicada com autorização da IBM)


Os primeiros supercomputadores começaram a surgir na década de 60, aliás uma década de muitos
avanços, já que no final da década de 50 foi feita a transição das válvulas para os transístores. Cada
transístor era centenas de vezes menor que uma válvula, era muito mais durável e tinha a vantagem
de gerar pouco calor.

Todos os computadores da década de 60 já utilizavam transístores, o que permitiu o


desenvolvimento dos primeiros minicomputadores. Naquela época, minicomputador era qualquer
coisa do tamanho de um armário, com uma capacidade de processamento inferior ao de uma agenda
eletrônica atual, das mais baratas.

Os computadores de grande porte, porém, continuaram a ser desenvolvidos, passando a ser


chamados de supercomputadores. O primeiro supercomputador para fins comerciais foi o CDC
6600, que foi seguido pelos IBM 360/95 e 370/195.

Na década de 70 surgiu uma nova revolução: o microchip. Um microchip sozinho oferecia uma
capacidade de processamento equivalente à de um minicomputador, mas em compensação era
escandalosamente menor e mais barato. Surgiram então os primeiros microcomputadores.

Os supercomputadores da década de 70 já eram centenas de vezes mais poderosos do que os


produzidos uma década antes. Os principais modelos foram o CDC 7600, o BSP, produzido pela
Burroughs, e o ASC da Texas Instruments.

Esses sistemas atingiram a marca de 100 megaflops, ou seja, 100 milhões de cálculos de ponto
flutuante por segundo. Essa é a mesma capacidade de processamento de um Pentium 60, porém
atingida 20 anos antes. :)

No final da década de 70 surgiram os supercomputadores Cray, produzidos pela Seymour. O


primeiro da linha, chamado de Cray 1, também processava 100 megaflops, porém o Cray-XMP
atingiu a incrível marca de 1 gigaflop, ainda no início da década de 80, uma capacidade de
processamento próxima à de um Pentium II 350.

Só para efeito de comparação, o Blue Gene/L, que citei há pouco, possui 360 teraflops de poder de
processamento, ou seja, é 360 mil vezes mais rápido.
Apesar de mesmo um "PC de baixo custo" atualmente possuir um poder de processamento superior
ao de um supercomputador, que custava 5 milhões de dólares há 15 anos atrás, a demanda por
sistemas cada vez mais rápidos continua.

As aplicações são várias, englobando principalmente pesquisas científicas, aplicações militares e


diversos tipos de aplicativos financeiros e relacionados à Internet; aplicativos que envolvem uma
quantidade absurda de processamento, e claro, são necessários para instituições que podem pagar
muito mais do que 5 ou 10 mil dólares por um computador o mais rápido possível. Existindo
demanda, aparecem os fornecedores.

Atualmente, todos os supercomputadores são construídos com base em praticamente os mesmos


componentes que temos em micros de mesa, memória, HDs e processadores, Intel, IBM ou AMD.

Ao invés de usar apenas um disco rígido IDE ou SATA, como num micro de mesa, um
supercomputador utiliza um array de centenas de HDs, sistemas semelhantes ao RAID, mas numa
escala maior, que permitem gravar dados de forma fragmentada em vários discos e ler os pedaços
simultaneamente a partir de vários HDs, obtendo taxas de transferência muito altas.

Processadores e memória RAM geralmente são agrupados em nós, cada nó engloba de um a quatro
processadores e uma certa quantidade de memória RAM e cache. Isso garante que os processadores
tenham um acesso à memória tão rápido quanto um PC de mesa.

Os nós por sua vez são interligados através de interfaces de rede, o que os torna partes do mesmo
sistema de processamento, assim como neurônios interligados para formar um cérebro. Um nó
sozinho não tem uma capacidade de processamento tão surpreendente assim, mas ao interligar
algumas centenas, ou milhares de nós, a coisa muda de figura.

Supercomputador Cray X1 no laboratório de Oak Ridge


Computador pessoal

Um computador pessoal é um computador de pequeno porte e baixo custo, que se destina ao uso
pessoal (ou para uso de um pequeno grupo de indivíduos). A expressão "computador pessoal" é
geralmente abreviada para a sigla PC, cujo significado em inglês é "personal computer". Também é
muito comum utilizar o termo desktop para esta classe de computadores.

História

Até o final dos anos 70, reinavam absolutos os mainframes, computadores enormes, trancados em
salas refrigeradas e operados apenas por alguns poucos privilegiados. Apenas grandes empresas e
bancos podiam investir alguns milhões de dólares para tornar mais eficientes alguns processos
internos e o fluxo de informações. A maioria dos escritórios funcionava mais ou menos da mesma
maneira que no começo do século. Arquivos de metal, máquinas de escrever, papel carbono e
memorandos faziam parte do dia-a-dia.

Computadores domésticos

O uso profissional dos micros só deslanchou quando a IBM lançou o IBM-PC. A empresa dominava
(e domina até hoje) o mercado de computadores de grande porte e, desde a primeira metade do
século XX, máquinas de escrever com sua marca estavam presentes nos escritórios de todo mundo.
O IBM-PC tinha um preço de tabela de US$ 2.820, bem mais caro que os concorrentes, mas foi um
sucesso imediato. Em 4 meses foram vendidas 35 mil unidades, 5 vezes mais do que o esperado.
Como observou o jornalista Robert X Cringley: "ninguém nunca tinha sido despedido por comprar
produtos IBM". Os micros deixaram definitivamente de ser um brinquedo.

Em 1980, a IBM estava convencida de que precisava entrar no mercado da microinformática. Como
não estava acostumada à agilidade do novo mercado, criado e dominado por jovens dinâmicos e
entusiasmados, a gigantesca corporação decidiu que o PC não podia ser criado na mesma
velocidade na qual ela estava acostumada a desenvolver novos produtos.

Por isso, a empresa criou uma força tarefa especial para desenvolver o novo produto. Assim, um
grupo de 12 engenheiros liderados por William C. Lowe foi instalado em um laboratório em Boca
Raton, na Flórida, longe dos principais centros de desenvolvimento da corporação que, até hoje,
ficam na Califórnia e em Nova York.
As decisões desse grupo definiram os rumos da indústria dos computadores pessoais. A força tarefa
resolveu usar componentes disponíveis produzidos por terceiros, como os processadores fabricados
pela Intel. O único item patenteado e desenvolvido pela IBM foi o chip que cuida da comunicação
entre os componentes do computador, o BIOS (Basic Input/Output System).

Assim, a IBM conseguiu desenvolver o PC em cerca de um ano, um recorde para a empresa e um


sucesso imediato. Entretanto, não foi duradouro. Em 1982, três ex-funcionários da Texas
Instruments criaram a Compaq Computer Corp com o objetivo de criar um computador portátil
compatível com o PC. Como quase todas as partes do microcomputador podiam ser compradas em
qualquer loja especializada, o principal desafio era copiar o chip do BIOS sem violar a lei de
patentes.

Foi usada uma técnica conhecida como engenharia reversa. A idéia é simples: contratam-se alguns
engenheiros para examinar e registrar tudo o que o componente original faz, montando um projeto
detalhado com todas as características do chip a ser "imitado". Então, esse time é dispensado e, em
seguida, reune-se um novo grupo que não tenha mantido qualquer contato com a equipe anterior ou
com o projeto do componente original. Dessa forma, a segunda equipe desenvolve um produto
baseado nas características registradas pelo primeiro grupo, criando um novo componente
compatível.

Depois do lançamento do primeiro microcomputador Compaq em 1983, dezenas de outros


fabricantes usaram essa mesma técnica. Algumas empresas como a American Megatrends (AMI) e
a Phoenix Technologies começaram a comercializar BIOS compatíveis com aqueles que eram
usadas no PC e centenas de clones [2] apareceram no mercado. Os preços e os lucros caíram e a IBM
transformou-se em apenas um dos concorrentes a lutar em um mercado extremamente competitivo.

Outra decisão do grupo de trabalho de Boca Raton tornou Bill Gates o homem mais rico do mundo.
Para funcionar, todo computador precisava de um software básico chamado sistema operacional. A
Microsoft, que havia sido contratada apenas para desenvolver uma versão da linguagem Basic para
o PC, indicou para os executivos da IBM a Intergalactic Digital Research, fundada e dirigida pelo
pioneiro Gary Kildall, que produzia o CP/M, o melhor sistema operacional da época.

Quando os representantes da IBM foram tentar fechar um contrato para usá-lo no PC, Kildall faltou
à reunião, segundo diz a lenda, para passear em seu avião particular. A mulher dele, aconselhada
por um advogado, recusou-se a assinar um acordo para garantir o sigilo da conversação e nem
chegou a iniciar a negociação. Os homens da IBM perderam a paciência, desistiram do CP/M e
voltaram a procurar a Microsoft.

Gates não perdeu tempo. Apesar de não ter nada para entregar, ele fechou um acordo para fornecer
um sistema operacional. Então, a Microsoft bateu na porta de outra pequena empresa de
informática, a Seattle Computer Products, e comprou, por US$ 50 mil, os direitos sobre um sistema
operacional simples chamado QDOS (Quick and Dirty Operating System) que, depois de algumas
melhorias, foi rebatizado de DOS.

De acordo com o contrato, a Microsoft cedeu o DOS e o Basic sem restrições quanto ao número de
microcomputadores IBM nos quais os programas seriam instalados e, no início, não ganhou muito
dinheiro. Entretanto, Bill Gates deteve os direitos autorais sobre o software e pôde cobrá-los de
todas as empresas que produziram os clones que surgiram posteriormente. Desta forma, ele iniciou
a construção do império que faturou mais de US$ 25,30 bilhões no ano fiscal encerrado em
30/06/2001 e que vale hoje US$ 318 bilhões.
Com o propósito de corrigir esses dois erros estratégicos, a IBM ainda tentou lançar, em 1987, um
microcomputador que utilizava componentes e sistema operacional exclusivos, o PS/2. Mas era
tarde. Os clones de sua invenção dominavam o mercado e a Microsoft já havia lançado uma
interface gráfica para o DOS, o Windows.

GUI – Interface Gráfica

Em 1981, com a chegada do IBM PC, os microcomputadores tornaram-se uma ferramenta de


trabalho respeitável e deixaram definitivamente de ser um hobby de garotos privilegiados. Planilhas
eletrônicas e processadores de textos começaram a fazer parte do dia-a-dia de muitas empresas.

Entretanto, as máquinas ainda eram difíceis de usar. Para operar um microcomputador, era preciso
conhecer a "linguagem" da máquina e a sintaxe correta para aplicá-la. Por exemplo, quando o
usuário queria copiar um arquivo para outro lugar, era preciso digitar o comando "copy arquivo.txt
c:\pasta" e apertar a tecla "enter". Uma letra errada e a operação não era realizada, exigindo a
digitação do comando correto. Assim, antes de aproveitar os benefícios da informática, era
indispensável aprender a "falar" a língua dos computadores.

Atualmente, as coisas ficaram bem mais fáceis. Basta clicar com o mouse e arrastar um ícone para
outro lugar. As várias opções aparecem em menus e não é preciso decorar nenhum comando como
antigamente. Esse conjunto de recursos é chamado de interface gráfica (ou GUI, Graphical User
Interface).

A utilização da GUI para manipular pastas, janelas e ícones com um mouse foi colocada em prática,
pela primeira vez, no Palo Alto Research Center (PARC) -- o laboratório que a Xerox criou em
1970 para inventar o futuro. Na época, a empresa dominava o mercado de copiadoras, mas
acreditava que o seu negócio poderia perder rentabilidade com a redução do fluxo de documentos
em papel, por causa do uso de documentos em formato eletrônico.

O primeiro computador com uma interface gráfica foi o Xerox Alto, que foi desenvolvido pelo
PARC e apresentado ao público em 1979. Apesar de ser um produto de alta tecnologia para a época,
ele não chegou a ser produzido, porque o seu preço era muito elevado. Só a memória da máquina
custava cerca de US$ 7 mil.

No começo dos anos 80, a empresa tentou vender outro sistema avançado, que foi baseado no Alto
e batizado de "The Star Office System". Entretanto, também não obteve sucesso comercial, pois o
produto custava US$ 17 mil -- um custo bem maior que o do IBM PC, vendido na época por US$
2,8 mil. Com esses fracassos comerciais, a Xerox desistiu de produzir computadores e voltou a
concentrar seus esforços nas copiadoras, que tornaram a empresa conhecida em todo o mundo.

Mas a tecnologia produzida no PARC não seria desperdiçada. Em dezembro de 1979, a Apple
Computer era a empresa de maior sucesso da microinformática. O carro chefe da empresa, o Apple
II+ já estava presente em escolas e residências da elite americana. Entretanto, o produto, com quase
2 anos de existência, já começava a ficar velho e a empresa precisava criar algo novo para continuar
competindo.

Em busca de novas idéias, o jovem que criou a Apple na garagem da casa dos pais, Steve Jobs,
trocou opções de compra de ações de sua empresa por uma visita detalhada ao PARC. Durante a
visita ao laboratório, Jobs conheceu muitas novidades como as redes locais e impressoras laser, mas
o que mais chamou atenção dele foi a interface gráfica e o mouse.
O primeiro produto lançado pela Apple usando os conceitos criados pela Xerox foi o Lisa. Apesar
de moderno, não chegou a ser produzido em grande quantidade, pois o mercado não estava
preparado para pagar quase US$ 10 mil apenas pela facilidade de uso. Mas, em 1984 surgiu o
Macintosh, o primeiro computador de sucesso com uma interface gráfica amigável, usando ícones,
janelas e mouse. No PC, a primeira interface amigável usada em larga escala só chegou em maio de
1990, com o lançamento do Microsoft Windows 3.0, quase 6 anos depois.

Estação de trabalho

Estação de trabalho (do inglês Workstation) era o nome genérico dado a computadores situados,
em termos de potência de cálculo, entre o computador pessoal e o computador de grande porte, ou
mainframe. Algumas destas máquinas eram vocacionadas para aplicações com requisitos gráficos
acima da média, podendo então ser referidas como Estação gráfica ou Estação gráfica de
trabalho (Graphical workstation).

No início da década de 1980, os pioneiros nesta área foram Apollo Computer e Sun Microsystems,
que criaram estações de trabalho rodando UNIX em plataformas baseadas no microprocessador
68000 da Motorola.

Hoje, devido ao poder de processamento muito maior dos PCs comuns, o termo às vezes é usado
como sinônimo de computador pessoal.

Vous aimerez peut-être aussi