Académique Documents
Professionnel Documents
Culture Documents
Aos sumérios se deve a invenção da cerveja. Muita gente diria que, se eles não tivessem
feito mais nada, só com isso já teriam garantido seu lugar no trem da História. E na
janelinha. Mas eles fizeram. Entre outras bagatelas, devem-se aos sumérios o conceito de
que os homens foram criados à imagem dos deuses, a fabricação dos primeiros
instrumentos agrícolas, as tentativas iniciais de organização de cidades, os rudimentos do
cooperativismo e a fabricação do vidro. Uau! Mas o auge da intelectualidade ainda estava
por vir: os sumérios foram a primeira civilização da Terra capaz de registrar a própria
história, porque eles inventaram a palavra escrita.
[Max Gehringer e Jack London] Hoje, pode parecer que passar da palavra escrita à
invenção dos algarismos numéricos foi só um pulinho, quase uma conseqüência natural,
[Abril Cultural] mas entre os dois fatos atravessamos um abismo de alguns séculos. Muita gente pode não
[Março de 2001] ter essa impressão, mas aprender a escrever é muito, muito mais simples do que aprender a
calcular. Tanto que, enquanto a escrita se desenvolvia através de diferentes símbolos para Mas mostrar os dedos era uma coisa e saber contar era outra. A maioria dos povos da
diferentes sílabas, as contagens continuavam a ser feitas com base no conceito Um evento, Idade do Dedo sabia contar apenas até três; do quatro em diante a coisa já entrava numa
igual a um risquinho, numa pedra, numa árvore ou num osso. dimensão meio fantástica. Em praticamente todos os idiomas, as palavras para os três
primeiros algarismos se parecem, porque todas elas derivam de uma língua antiquíssima e
Muitas categorias profissionais contribuíram para o avanço da ciência do cálculo e uma já extinta, o sânscrito: an, dve, dri. Já a noção de quatro é tão posterior que cada povo
delas foi a dos primitivos pastores. Durante séculos a fio, eles foram repetindo uma mesma desenvolveu sua própria palavra para expressá-la: catvarah em sânscrito, tessares em
e modorrenta rotina, a de soltar seus rebanhos pela manha, para pastar em campo aberto, grego, quattuor em latim, feower em inglês antigo.
e de recolhê-los à tardinha, para o confinamento noturno. Tudo na maior tranqüilidade, até
que um dia alguém chegou para um pastor e levantou a lebre (ou será que foi a ovelha): Quando a humanidade aprendeu a fazer contas?
Muito. A primeira maneira que os seres humanos encontraram para mostrar a que A primeira tentativa bem sucedida de criar uma máquina de contar foi o ábaco. O nome
quantidade estavam se referindo foi o uso dos dedos das mãos. Hoje isso pode parecer tem origem numa palavra hebraica abaq (pó), em memória antiquíssimos tabletes de
brincadeira, mas 5 mil anos atrás para contar até 20 eram necessários dois homens, porque pedra, aspergidos com areia, onde os antigos mestres desenhavam figuras com o dedo
tinham que ser usadas quatro mãos. Demorou alguns séculos até que caísse a ficha e para educar seus discípulos.
alguém dissesse: "Olha, pessoal, já acumulei o resultado de duas mãos e agora vou
continuar, voltando à primeira mão". Os inventores do ábaco de calcular, aparentemente,
foram os chineses, que deram ao aparelhinho o nome de
suan pan. Mas há controvérsias: os japo- neses também
reivindicam a invenção - no Japão o ábaco chama-se
soroban -, para não falar dos russos: o deles é conhecido
como tschoty. Feito com fios verticais paralelos pêlos
quais seus operadores podiam fazer deslizar sementes
Através dos tempos, as mãos foram sendo substituídas por equipamentos mais sofisticados, secas, o ábaco chinês era incrivelmente eficiente. E
mas a palavra em latim para dedo, digitus, sobrevive até hoje, tanto na palavra dígito - um rápido: um operador com prática podia, por exemplo,
algarismo - quanto no verbo digitar - escrever com os dedos (sendo que seu verbo gêmeo, multiplicar dois números de cinco algarismos cada um
datilografar, vem da mesma palavra para dedo, só que a grega - datilos). Os dez dedos são com a mesma velocidade com que alguém hoje faria a
também a origem do mesma conta numa calculadora digital. Quase 3 mil anos
sistema numérico com base decimal. depois de ter sido inventado, o ábaco ainda é usado em
muitas regiões da Ásia por pequenos comerciantes.
Como sempre, a verdade não é exatamente um conceito, mas um atributo dos
Quando surgiram os algarismos atuais? vencedores. Napoleão deu ao mundo uma belíssima aula sobre os limites da razão e as
razões do poder, ao mandar esculpir em seus canhões a seguinte expressão latina: ultima
Essa seqüência que conhecemos hoje por algarismos arábicos tem pouco mais de mil anos. ratio Regis, ou seja, a última razão do Rei.
A bem da verdade, os algarismos arábicos não são arábicos: foram criados pêlos hindus. Os
árabes ficaram com a fama porque foi através deles que os números escritos se espalharam Com a socialização dos numerais, a coisa foi ficando cada vez mais sofisticada: da palavra
pelo mundo. A própria palavra algarismo é uma homenagem a um renomado matemático grega para número, arithmos, veio Aritmética. Conceitos muito simples foram ampliados e
árabe do século 9 d.C., al-Huarizmi. viraram ciência, como a Trigonometria, que antigamente era só uma continha para medir os
lados de um triângulo: trigon, em grego, quer dizer três cantos. E mesmo termos que antes
Os algarismos arábicos foram trazidos da Índia para o Ocidente por volta do ano 770 da era não tinham nada a ver com números foram sendo adaptados à numerologia: do árabe al-
cristã, mas não foram adotados de imediato, porque outros povos já estavam acostumados jabr, consertar ossos fraturados, derivou Álgebra.
com suas próprias maneiras de representar os numerais, por mais complicadas que elas
parecessem. As três principais correntes eram as formas romana, grega e egípcia. Que na A palavra capital, tão importante para a história moderna de nosso bizarro planeta, tem
verdade nem eram algarismos numéricos, mas letras que assumiam funções de números. origem na forma mais primitiva de contar bens e valores: a cabeça de uma rês, ou, em
latim, capita. Quanto mais vacas alguém amealhava, melhor era sua posição na sua
O número 323, por exemplo, era escrito da seguinte forma:
comunidade. Curiosamente esta palavra está ligada hoje ao conceito de riqueza, de centro
do pensamento, de cidade mais importante, além de algumas mais prosaicas, como
Em algarismos romanos: decapitar, perder a cabeça, encabeçar. Afinal, o que temos de tão importante nessas nossas
CCCXXIII cabeças?
Em caracteres gregos: À medida que o homem abandonava as contas e os cálculos primitivos e se aventurava em
HHHAEAEIII conceitos mais complexos, o que era uma tecnologia baseada apenas em extensões do
corpo - dedos e cabeças - foi exigindo técnicas mais apuradas.
Em sinais egípcios:
A situação chegou a tal refinamento que extrair uma raiz quadrada começou a levar mais
tempo do que extrair um dente. E ambas eram experiências bastante dolorosas. Estava
Mas os romanos não se atrapalhavam na hora de somar C com X? mais que na hora de alguém começar a pensar em alguma coisa para amenizar o
sofrimento...
Pelo jeito, não. Quem se acostuma com um sistema, só enxerga complicação no sistema dos E, pode apostar: com o tempo, alguém acabou pensando...
outros. Ainda nos dias de hoje, a gente fica se perguntando: Não seria mais fácil raciocinar
em metros do que em pés? Entender o peso em quilos não seria mais simples do que pesar O que é um computador?
em onças? Não é mais fácil visualizar 8 milímetros do que 1/32 de polegada? Não senhor é
tudo uma questão de costume. Como somos um povo que mede seu grau de aquecimento Até meados do século 19, um computador não era
específico, inclusive da cerveja, com graus centígrados, achamos que o sistema de graus uma máquina, mas uma pessoa que tinha a função
Fahrenheit é coisa de doido, a começar pelo nome esquisito; depois porque para de fazer contas e arbitrar conflitos que envolvessem
transformá-lo em graus centígrados é preciso subtrair 32, dividir por 9 e multiplicar por 5 números. Seus descendentes diretos são os atuais
Mas quem usa o sistema Fahrenheit, e que em geral bebe cerveja quente, tem que fazer o contadores, os técnicos em contabilidade que
cálculo inverso para chegar aos graus centígrados: dividir por 5, multiplicar por 9 e somar registram os números para fins legais.
32. Logo, eles acham que os complicados somos nós, porque para eles é tudo muito
simples: 95 graus é quente para burro e 35 graus é frio de rachar. Mas, voltando ao computador, no século 17 os
franceses criaram o verbo computer, com o sentido
O que fez com que os algarismos arábicos se tornassem o padrão numérico mundial não de calcular, mas foram os ingleses que
foi sua simplicidade, foi o poderio militar dos árabes. Durante dois milênios, até 1432, transformaram o verbo no substantivo computer,
enquanto o Império Romano dominou o mundo, os dominados não se cansavam de elogiar para designar as primitivas máquinas que hoje
a beleza e a eficiência dos algarismos romanos. Foi somente com a queda de Roma e a chamamos de calculadoras.
ascensão ao poder dos turcos otomanos (mais de 700 anos depois de os algarismos
arábicos terem chegado à Europa e menos de 100 anos antes do Brasil ser descoberto) que A aplicação do termo ao moderno computador só
os algarismos arábicos foram, digamos assim, globalizados. Por pressão, não por precisão. aconteceria a partir de 1944, quando o jornal inglês London Times publicou uma então
delirantíssima matéria sobre alguns equipamentos inteligentes que no futuro poderiam vir A somadora original de Pascal ainda existe, ainda
a substituir o esforço humano. O Times chamou uma hipotética máquina pensante de funciona, e está exposta no
computer. Foi isso, gente. Conservatoire dês Arts et Metiers, em Paris.
Curiosamente, apesar de terem usado pela primeira vez a palavra computer, os franceses Olhando para ela, qualquer pessoa com dois
jamais a aceitaram para definir as engenhocas que hoje chamamos de computadores. Para neurônios ativos diria: Mas isso é muito simples. E
os franceses, estas caixinhas feias e cheias de fios são ordinateurs de gestion, ou seja, é mesmo, mas também é verdade que qualquer
ordenadores de gestão, e nada mais. coisa parece simples depois que alguém já fez. Interessante é que a maquininha não tenha
sido criada por nenhum dos grandes cientistas da época: quando a construiu. Pascal tinha
Quem inventou o computador? só 19 anos. A História vem se cansando de registrar façanhas como essa: de vez em
quando, um garoto aparece do nada e muda o mundo.
O computador é uma invenção sem inventor. Ao contrário de muitas novidades, que
alguém com nome, sobrenome e atestado de vacina desenvolveu em um laboratório, ou Antes de morrer, aos 39 anos, em 1662, Pascal daria outras grandes contribuições a vários
descobriu por acaso, o computador sempre foi um aperfeiçoamento constante de idéias campos da ciência. Por isso, acabou ficando em segundo plano um outro invento seu, usado
anteriores. Muitas vezes, nada acontecia durante séculos, até alguém dar o passo seguinte; até hoje, uma conseqüência até meio óbvia de sua somadora original: a caixa registradora
e alguns desses passos foram gigantescos. É só ler o que vem a seguir para perceber que
ainda falta muito - mas muito mesmo - para ser inventado no campo da computação.
Há pouco menos de 400 anos, o que significa que o ábaco era mesmo uma invenção
danada de boa. A única grande desvantagem do ábaco era que o operador não podia errar Como a somadora se transformou em computador?
ou se distrair. Se uma dessas duas coisas acontecesse, ele teria que começar tudo de novo,
porque o ábaco não tinha memória. A máquina de Pascal teve uma vida útil de quase 200 anos e foi sendo aperfeiçoada por
diversos inventores. Funcionava cada vez melhor, mas tinha um limite; a entrada de dados
O primeiro instrumento moderno de calcular - na dependia da eficiência da pessoa que estivesse batendo os números em suas teclas. E,
verdade, uma somadora foi construído pelo físico, mesmo que essa tarefa fosse executada por alguém altamente treinado, esse alguém ainda
matemático e filósofo francês Blaise Pascal em. seria um ser humano, e seres humanos têm limites físicos. Assim, o passo seguinte teria que
1642. A máquina, com seis rodas dentadas, cada ser necessariamente o aumento na velocidade de alimentação dos dados. Quem conseguiu
uma contendo algarismos de O a 9, permitia somar encontrar a solução para isso foi um francês, Joseph-Marie Jacquard, depois de passar 20
até três parcelas de cada vez, desde que o total não anos matutando. Curiosamente, ele era de um ramo que não tinha nada a ver com números
ultra- passasse 999999. Uma multiplicação, por e calculadoras: a tecelagem.
exemplo, de 28 por 15 era feita somando-se 15
vezes o número 28. Filho de tecelões - e, ele mesmo, um aprendiz têxtil desde os dez
anos de idade - , Jacquard sentiu-se incomodado com a monótona
Aliás, soma é uma palavra interessante: em latim tarefa que lhe fora confiada na adolescência: alimentar os teares
antigo, summa significava essência. Daí vieram com novelos de linhas coloridas para formar os desenhos no pano
sumário e súmula, no sentido de resumo, duas que estava sendo fiado. Como toda a operação era manual, a tarefa
palavras anteriores à aplicação do termo soma ao de Jacquard era interminável: a cada segundo, ele tinha que mudar o
campo da matemática. Soma é, então, uma série novelo, seguindo as determinações do contramestre.
de parcelas resumidas em um total.
Com o tempo, Jacquard foi percebendo que as mudanças eram sempre seqüenciais. E
inventou um processo simples: cartões perfurados, onde o contramestre poderia registrar,
ponto a ponto, a receita para a confecção de um tecido. Daí, Jacquard construiu um tear
automático, capaz de ler os cartões e executar as operações na seqüência programada. A
primeira demonstração prática do sistema aconteceu na virada do século 19, em 1801,
quando Jacquard tinha 48 anos. Dez anos depois, já havia mais de 10 mil teares de cartões Mas, se os planos de Babbage não resultaram em nada de prático na época, pelo
em uso na França. O método de Jacquard se espalhou pelo mundo e perdurou, inalterado, menos seus conceitos teóricos se espalharam pelo mundo, e os famosos cartões
pêlos 150 anos seguintes! Mas fez, talvez, a primeira vítima da tecnologia: perfurados logo ganharam sua primeira aplicação prática na computação de dados,
através de Holierith.
o contramestre, importantíssimo no sistema de tecelagem por ser o único a saber de cabeça
a seqüência de operações, que foi então substituído em suas funções mais nobres por uma Holierith?!
máquina. Os mesmos cartões perfurados de Jacquard, que mudaram a rotina da indústria
têxtil, teriam, poucos anos depois, uma decisiva influência no ramo da computação. E, Isso mesmo, Herman Holierith (o nome dele é o apelido que muita gente ainda dá a seu
praticamente sem alterações, continuam a ser aplicados ainda hoje: foram eles, os recibo de pagamento). O conceito de Holierith tinha duas etapas: primeiro, transferir
famigerados punching cards, que causaram toda aquela confusão na Flórida, na eleição para dados numéricos para um cartão duro, perfurando-o em campos predeterminados;
presidente dos Estados Unidos em 2000. depois, transformar os furos em impulsos, através da energia elétrica que passava por
eles, ativando dessa forma os contadores mecânicos dentro de uma máquina. O pulo do
Os cartões perfurados são a origem do computador? gato de Holierith foi O de juntar duas coisas que já existiam: os cartões de Jacquard e o
conceito de impulsos elétricos para transmissão de dados, usando um princípio que
Sozinhos não, mas foram um passo crucial. Eles eram uma maneira eficiente de alimentar a Samuel Morse havia desenvolvido bem antes, em. 1844, quando inventou o telégrafo e
máquina com milhares de dados em poucos minutos, eliminando a lentidão humana. transformou letras e números em sinais elétricos.
Faltavam ainda outros dois passos, e quem primeiro conseguiu equacioná-los foi um inglês. O cartão perfurado de Holierith estreou em 1887, em
Charles Babbage, em 1834. estudos estatísticos sobre mortalidade. Mas foi em 1890, no
recenseamento dos Estados Unidos, que o sistema ganhou
Babbage chamou seu projeto de. aparelho analítico e anteviu os passos que até hoje são fama mundial. Pela primeira vez, o pessoal do censo não
a base do funcionamento de um computador: precisou fazer o estafante trabalho braçal de tabular os
milhões de dados que haviam sido coletados pêlos
• Alimentação de dados, através de cartões pesquisadores. O recenseamento ficou pronto numa fração
perfurados. do tempo que normalmente levaria, gerou uma enorme
• Uma unidade de memória, onde os números economia para o governo americano e deu fama instantânea
podiam ser armazenados e a Holierith.
reutilizados.
• Programação seqüencial de operações, um Portanto, há mais de 100 anos, no final do século 19, já
procedimento que hoje chama- mos de sistema existiam equipamentos capazes de transferir dados para
operacional. máquinas, que podiam processá-los e tabulá- los a grande
velocidade. E, durante os 40 anos seguintes, isso pareceu coisa de ficção sideral, pelo
Infelizmente, a máquina de Babbage nem menos para as pessoas normais - aquelas que ainda estavam discutindo as vantagens do
chegou a ser construída: professor de fogão a lenha sobre seu similar a gás. Como se vê, não é de hoje que coexistem esses
Matemática na Universidade de Cambridge, ele mundos diferentes, o do progresso e o da manutenção.
não dispunha de recursos para financiá-la, nem
encontrou investidores dispostos a ir além de algumas doações ocasionais. Mas seus O que ainda estava faltando para o computador computar?
relatórios e projetos tornaram-se leitura obrigatória - e inspiradora - para todos os
cientistas que dali em diante se aventuraram pelo mesmo caminho. Uma guerra, talvez. Apesar de serem um dos maiores contra-sensos da humanidade, as
guerras têm sido uma espécie de dínamo tecnológico: novidades que demorariam anos
Curiosamente, os planos originais de Babbage ficaram engavetados por 157 anos, até que para surgir em tempos de paz acabam sendo antecipadas pela urgência da vitória (ou o
em 1991 cientistas britânicos do Museu da Ciência, em Kensington, resolveram montar a pavor da derrota). Foi durante a Segunda Guerra Mundial (1938/1945) que a ciência da
engenhoca. Que funcionou, com uma fantástica precisão de 31 casas depois da vírgula. Se computação deu seu salto definitivo.
bem que hoje qualquer coisa é possível... Recentemente, um maluco aí pulou no primeiro
pára- quedas. projetado há 550 anos por Leonardo da Vinci, e aterrissou inteirinho. O segredo do enigma indecifrável
Até parece filme de espionagem: para cifrar suas mensagens, os nazistas haviam criado
uma máquina chamada, muito apropriadamente, de Enigma. Durante os primeiros anos
10
da guerra, os serviços de contra-espionagem dos países aliados conseguiam interceptar aliados sobre Berlim, em 1944. Porém, além do próprio Zuse, que sobreviveu ao
as mensagens dos alemães, mas eram incapazes de decifrá-las. E, quando finalmente foguetório para contar sua história, restaram as suas anotações e as plantas de
conseguiam, isso pouco adiantava, porque a mensagem seguinte vinha num código construção, e os princípios do Z1 se mostraram incrivelmente semelhantes a tudo o que
diferente. O que o Enigma fazia era gerar novos códigos a cada mensagem. Desvendar viria depois.
como esses códigos eram reprogramados passou a ser uma prioridade absoluta, e os
ingleses resolveram que isso não era trabalho para heróis com bazucas, mas para Uma ampla e muito bem-feita campanha promocional talvez explique por que hoje se
cientistas com massa cinzenta. Um deles foi Alan Turing. acredita que o primeiro computador tenha sido uma máquina americana, o ENIAC.
Turing já havia publicado trabalhos teóricos sobre computação de dados antes da guerra O ENIAC é de quando?
e por isso foi recrutado a toque de caixa pelas Forças Armadas. Se suas teorias estivessem
correias, elas levariam à construção de uma máquina capaz de imitar o cérebro humano Foi ligado na tomada em 1946. Era uma geringonça
para explorar - como num jogo de xadrez - todas as alternativas possíveis a partir de uma que funcionava usando
variável. Como a hipotética máquina de Turing estaria apta a computar e traduzir 17480 válvulas de rádio, pesava 4 toneladas,
milhares de caracteres por segundo, bastaria alimentá-la com qualquer mensagem media incríveis 30 metros de comprimento por 3
cifrada alemã, para que ela em seguida devolvesse a mesma mensagem escrita em de altura. Ocupava uma área de 180 m2, e era
alemão compreensível. Simples... só faltava alguém construir a tal máquina. capaz de fazer 5 mil somas por segundo. Foi
construído por dois cientistas da Universidade da
E alguém construiu? Pennsylvania, nos Estados Unidos, e seu nome
vem das letras iniciais de Electronic Numérica!
Claro, senão o filme não teria graça. Porém, mais interessante ainda foi uma nova Integrator And Computer - Integrador e
máquina, construída logo em seguida, a partir do aprendizado com o Enigma. Maior, Computador Numérico-Eletrônico. Seu desenvolvimento foi financiado pelas Forças
mais elaborada e mais sofisticada, e não por acaso batizada de Colossus, a máquina Armadas americanas, a um custo, na época, de 500 mil dólares, o que hoje
levou um ano para ser montada nos laboratórios dos correios londrinos, pelo cientista corresponderia a uns 20 milhões de dólares. Por conta da repercussão daquela matéria
Thomas Flowers. Mas, uma vez plugada, programada e alimentada, resolvia qualquer do London Times, a mídia americana usou a palavra computer para explicar ao povão o
questão de criptografia em poucos minutos. que aquele paquiderme era capaz de fazer. Se a escolha recaísse sobre o l de ENIAC, e
Concluído em 1941, o Colossus ainda não era um modelo bem-acabado não sobre o C, hoje poderíamos ter integradores ao invés de computadores.
de computador, porque só executava uma única e específica tarefa, mas
mostrou que a computação poderia resolver rapidamente qualquer Como o primeiro computador funcionava?
problema que pudesse ser transformado em instruções numéricas. Mas,
como tudo isso foi mantido em segredo durante e após a guerra (as dez Hoje, ao clicar o mouse, ou ao teclar um ESC, um usuário não tem a mínima idéia de
unidades construídas do Colossus foram desmontadas em 1946, para como as coisas acontecem lá dentro do sistema. Simplesmente, o comando é
evitar que caíssem em mãos inimigas), a obra de Turing só se tornou obedecido, e isso parece a coisa mais natural do mundo. No ENIAC, tudo isso acontecia
pública anos depois, quando outras máquinas mais eficientes já haviam do lado de fora. Primeiro, um grupo de cientistas desenvolvia equações matemáticas na
surgido. exata seqüência em que elas tinham que ser digeridas pelo sistema. A seguir, seis
especialistas programavam o computador para executá-las, girando botões de sintonia
e plugando centenas de fios nas tomadas correias. Portanto, o que hoje chamamos de
sistema operacional era, em 1946, uma operação totalmente manual.
Mister Watson vacilou? Nem tanto, porque previsões sobre computadores têm sido uma O que é bit?
das piores armadilhas para quem se arrisca a exercícios de futurologia. Em 1949, a
influente revista americana Mecânica Popular profetizou, empolgadíssima: Enquanto Bit é uma palavra formada pelas duas primeiras letras de binário e pela última letra de
atualmente um computador tem 18 mil válvulas e pesa 30 toneladas, no futuro eles terão dígito (digit. em inglês). Quem inventou a palavrinha foi um engenheiro belga, Claude
apenas mil válvulas e pesarão no máximo 1 tonelada e meia. Depois dessa, seu micro não Shannon, em sua obra Teoria Matemática da Comunicação, de 1948. Nela, Shannon
se sentiu um tanto quanto anoréxico? Bom, para não ficarmos apenas na pré-história, que descrevia um bit como sendo uma unidade de informação.
tal essa frase de Bill Gates, em 1981, quando a IBM lançou seu computador pessoal: Não
vejo motivos para algum dia alguém querer ter um micro com mais de 64K de memória. Por que não bid, que seria mais óbvio? Talvez porque bit, em inglês, quer dizer pequena
64K??? Sim, houve um tempo em que 64K era uma memória dê elefante! parte. E bid significa lance, oferta. Pode ser que a formação bit seja menos correta
gramaticalmente, mas define com mais perfeição aquela partezinha que dá início a tudo.
O curioso nessa história toda é que a ciência da computação não foi a primeira a usar o
sistema binário. Os papuas, habitantes da Nova Guiné, são uma tribo tão primitiva, mas
tão primitiva, que até hoje ainda não aprenderam a contar usando os dedos. Há
milênios, eles se utilizam de um rudimentar sistema binário. Há um símbolo para 1, Um kilobyte são mil bytes, assim como um quilômetro são mil metros e um
outro para 2 e daí em diante, para qualquer quantidade, emprega-se um grunhido que quilograma são mil gramas?
significa imensamente mais.. Kilo é uma palavra grega que significa mil, logo um kilobyte tem mil bytes, certo?
Infelizmente, a informática é simples, mas nem tanto. Um kilobyte tem 1024 bytes.
Quantos bits tem um byte? Ou é o contrário? Porque a base de tudo, como já vimos, é o número 2, e a capacidade de processamento
dos micros evolui em múltiplos, sempre dobrando em relação à medida anterior: 4K, 8K,
Um byte tem oito bits. 16K, 32K, 64K, 128K, 256K, 512K. O pulo seguinte, para 1024, dá o valor mais próximo de
mil. Portanto, esse kilo de bytes aí já vem com um chorinho... Mas, para quem se liga em
Qual é a diferença entre um bit e um byte? matemática, a explicação é que o sistema usa como base o logaritmo 2: o número 1024
corresponde a 2 elevado à décima potência.
Um byte é uma informação inteira (por exemplo, um número). E os bits são as oito peças
que, colocadas juntas, permitem ao sistema reconhecer que número é aquele. Em Logo, a medida seguinte, o megabyte, tem 1024 mil kilobytes, certo?
linguagem binária, o número 14 é expresso assim: 00001110. Cada um dos oito
algarismos é um bit. Todos eles juntos, um byte. E o sistema lê zeros e uns, mas entende É duro de acreditar, mas a resposta também é não. um megabyte tem mil kilobytes,
14. redondinhos. É que a partir do megabyte todas as novas medidas são sempre mil vezes
maiores que a anterior. E todas elas derivam de palavras gregas: mega em grego quer
Por que um byte não tem dez bits, já que os sistemas de base decimal são os mais dizer grande. Daí derivou, por exemplo megalomania, a chamada mania de grandeza.
usados no mundo?
Depois do megabyte, vem o terabyte. Pense um pouquinho: que nome você daria a uma
São oito bits num byte porque as combinações possíveis de oito dígitos são mais que medida mil vezes maior que uma megalomania? Monstruosa, talvez? Pois é isso mesmo,
suficientes para expressar qualquer número, letra ou símbolo (nossas placas de terá em grego é monstro. Então, só para gente não se perder, um terabyte são mil
automóveis têm sete caracteres pelo mesmo motivo). Hoje estamos muito acostumados megabytes, ou um milhão de kilobytes, ou 1024 bilhões de bytes, ou 8,192 bilhões de
à prevalência das métricas de base 10, mas muitas matemáticas foram construídas tendo zerinhos ou unzinhos, os bits.
como base o 60 - uma herança que recebemos dos babilônios, há 40 séculos - e não o 10
- O triunfo do 10, fruto da prosaica vitória de nossas mãos e pés de dez dedos, não E isso vai longe. As próximas palavras que muito em breve vão aparecer nos anúncios de
impediu no entanto que a base 60 ainda seja amplamente usada - no contar das horas e qualquer jornal de domingo, anunciando uma liquidação de micros no armazém da
dos graus, por exemplo - e que conviva com o atual reinado da base decimal. Quem sabe esquina, são o petabyte, o exabyte, o zettabyte e o yottabyte. Um yottabyte
se, num futuro movido a computação, o oito não passará a ser o único padrão? corresponde a um número que talvez nem exista uma palavra para definir: 10 elevado à
24a potência, ou, de modo mais simples, 1.000.000.000.000.000.000.000.000 de bytes.
E o kilobyte? Parece uma enormidade, mas é bem provável que daqui a uns 20 anos um yottabyte vá
valer menos que um bit furado.
Como todo mundo já percebeu, todo dia aparece um novo microchip com capacidade
para processar o dobro de dados que o chip da véspera tinha (o que faz com que aquele
micro zerinho que nós compramos já esteja ultrapassado no momento em que é retirado
do caixa). Por isso, as medidas também têm que ir aumentando. O primeiro salto foi o
kilobyte.
17 18
Por que o tamanho fios computadores foi reduzido tão rapidamente? microchips, como o povo que fundou a Fairchild, dos transistores, era gente vinda dos
Laboratórios Bell.
Porque na década de 1950 apareceu o transistor, circuito, integrada para substituir as
antigas válvulas. Eram elas, enormes, que ocupavam a maior parte da
E então surgiu o microcomputador?
estrutura física de um computador. Fabricado inicialmente pela Fairchild
Semiconductors, o transistor era uma maravilha eletrônica que fazia a mesma Muita gente vai se surpreender, mas bem antes do microcomputador surgiu o vídeo
coisa que uma válvula - deixar ou não deixar passar uma. Corrente elétrica -, game. Treze anos antes, para ser mais exato, em 1962. Três sujeitos de 25 anos, que
mas ocupando um espaço muitas vezes menor: enquanto uma válvula mal trabalhavam juntos no altamente tecnológico Instituto Ingham, em Massachusetts, nos
cabia na palma da mão, um transistor era menor que um dedo mindinho. Estados Unidos, e que eram fanáticos por ficção científica, começaram a juntar
protótipos de equipamentos que o instituto estava desenvolvendo. E se puseram a
Transistor é um desses nomes que parecem ter vindo diretamente de Marte, pensar se tudo aquilo não poderia ser transformado em algo útil para matar o tempo
mas o termo foi inventado por um cientista dos Laboratórios Bell, John Pierce entre um projeto e outro. Para seus chefes, eles justificariam o esforço dizendo que
(que nas horas vagas era, claro, escritor de ficção científica) a partir de outras estavam trabalhando numa demonstração das potencialidades interativas da
duas palavras: transferir e reter (em inglês, transfer e computação. O resultado foi o Spacewar, o primeiro game.
resistor). O nome balizou a obra de três outros cientistas Aí por 1960, já existiam dois ou três programinhas que
dos Laboratórios Bell, Bill Schockley, John Bardeen e faziam bolinhas pular na tela, ou tijolos ir sendo
Walter Brattain, que, em 1945, concluíram os estudos empilhados. A grande diferença é que o Spacewar
teóricos que anos depois possibilitariam a fabricação em permitia que duas pessoas controlassem o que estava
massa do transistor. Em 1956, eles receberiam o Prêmio acontecendo na tela. Para isso foram criadas duas
Nobel por seus trabalhos. caixas de controle, com três comandos: uma alavanca
que movia para frente e para trás uma nave espacial (na
Aliás, o que esse povo dos Laboratórios Bell inventou de coisa e ganhou de Prêmio Nobel verdade, um ponto na tela), outra alavanca que
no século 20 daria para encher um outro livro. Mas para nós brasileiros, que há 40 anos acelerava a velocidade e um botão que disparava um
achávamos que computador era algo que jamais faria parte de nossas vidas, a novidade torpedo e reduzia a nave inimiga a pó. Game over!
do transistor se encarnou numa mania instantânea: o radinho de pilha - ou, como era
solenemente chamado, o rádio portátil transistorizado que na época desencadeou uma Os três inventores, a quem as indústrias do milionário
febre consumista: era um tal de levar o radinho à missa, ao cinema, ao escritório, ligá-lo setor de joguinhos devem pelo menos uma plaquinha
bem alto para todo mundo ouvir, explicar como aquela maravilha funcionava... na de agradecimento na recepção, foram Slug Russel
verdade, uma epidemia não muito diferente da que acometeria os proprietários dos (especialista em inteligência artificial), Wayne Witanen
primeiros telefones celulares nos anos 90. (matemático) e Martin Graetz (nenhuma especialização, mas muita imaginação). O
Spacewar mostraria que era possível ao operador escapar da ditadura dos programas
O microchip é um transistor? quadrados e decidir o que iria acontecer na tela no momento seguinte.
É uma placa minúscula com uma batelada de minúsculos transistores - o Pentium IV, da
Intel, tem 42 milhões deles - cada um com a mesma função do transistor original: Nesse mundo doido, é possível antever o futuro?
transferir ou reter a corrente elétrica. A diferença está na dimensão: se o transistor era Quase nunca. Mas, de vez em quando, alguém acerta na mosca. E aqui vai uma dessas
do tamanho de um dedo, o microchip era menor que uma impressão digital. O que histórias que, se fosse enredo de filme de Hollywood, seria considerada uma
permitiu o aparecimento dos microchips foi a aplicação prática de novos elucubração de algum roteirista com excesso de imaginação. Mas ela é real e está
semicondutores de eletricidade, que têm esse “semi” no nome porque conduzem - ou detalhadamente documentada.
não - uma carga elétrica. Voltando ao começo da história, o sistema binário funciona
Em 1970, a Xerox Corporation, não querendo perder o bonde do avanço tecnológico,
através da leitura de um impulso elétrico, e quanto mais rápida for essa leitura maior
decidiu investigar algumas opções de negócios que poderia vir a ter no futuro, além de
será a capacidade do computador.
fabricar e alugar máquinas copiadoras. Para isso, contratou a nata das cabeças
pensantes da época - cientistas, principalmente, mas também gênios recém-saídos de
A vantagem do microchip sobre o transistor é o silício. Um elemento que faz com que a universidades de alta tecnologia e confinou essa turma em seu Centro de Pesquisas em
corrente elétrica seja conduzida muito mais rapidamente de um bit para outro. Daí Palo Alto, cidade da Califórnia. Ao fim de quase dois anos espremendo os neurônios, a
vem o nome “Vale do Silício” para a região da Califórnia, nos Estados Unidos, onde está equipe conseguiu chegar a duas idéias bem interessantes:
instalado o núcleo das empresas digitais, entre elas a Intel Corporation, que criou o A primeira foi um protótipo batizado de Alto, em homenagem à cidade de uma
primeiro microchip, em 1971. Tudo em família: tanto o pessoal que fundou a Intel, dos
19 20
maquininha desenvolvida para pertencer a um único indivíduo, que poderia, se quisesse 1984.
usá-lo até em sua própria casa. O Alto era simplesmente uma tela vertical de televisão,
acoplada a um teclado semelhante ao de uma máquina de escrever, e ambos
Grande Xerox!
conectados a uma caixa, pouco maior que um nobreak atual, dentro da qual programas
com instruções faziam a engenhoca funcionar. O conceito era incrivelmente
revolucionário para uma época em que computadores eram equipamentos enormes, Só que a história não termina aí, e fica melhor ainda. A partir do conceito do Alto, os
pesadões e, principalmente, caríssimos, tanto que só grandes empresas podiam se dar cientistas da Xerox tiveram a sua segunda grande sacada... Previu a possibilidade de
ao luxo de possuir um. criar uma rede, interligando todos os computadores pessoais, o que permitiria aos
seus usuários acessar e transferir dados uns para os outros. É bom lembrar que nem os
grandes computadores tinham a capacidade de fazer esse tipo de interação na época.
A Xerox tinha inventado o microcomputador?
Nome que os cientistas da Xerox deram a essa rede: Ethernet.
Inventado talvez não, porque os conceitos estavam voando há algum tempo, e alguns
De uma tacada só, a Xerox havia antecipado toda a revolução das décadas seguintes,
dos técnicos que a Xerox contratara já tinham trabalhado em projetos ligados à
construindo o micro pessoal e antevendo a Internet atual (porque no começo dos
computação pessoal. Mas a Xerox foi a primeira a construir um micro que funcionava
1970 a Arpanet, avó da Internet, não se parecia em nada com a Internet que
na prática. Só isso já seria uma história e tanto, mas o Alto tinha outras características
conhecemos hoje, como se verá mais adiante). E, cá entre nós, o nome Ethernet é
ainda mais impressionantes:
muito mais bonito: ether, do grego aither, é a região acima das nuvens, onde o sol
• Para que o usuário de um Alto não tivesse que decorar e digitar milhares de sempre brilha. Muito melhor que Internet, a rede interativa, teria sido Eternet, a rede
frases com instruções, os cientistas criaram pequenos desenhos que ficavam na tela, do espaço infinito.
facilmente reconhecíveis, através dos quais era possível abrir os programas
Mas, poesia à parte, a Xerox investiu uma fortuna para enxergar o futuro, sem nunca
correspondentes. Eram os ícones, sem os quais 99% de nós não saberíamos como
ter recebido um único centavo por sua ousadia. De qualquer forma, se isso servir como
operar um micro hoje em dia.
consolo, a moçada aqui agradece.
• Para abrir os ícones, foi usado um pequeno aparelho, conectado ao micro. Ao
movê-lo, o usuário via um pontinho caminhar na tela, reproduzindo o movimento feito
com a mão. Era o mouse. Quando o pontinho parava sobre um ícone, tudo o que o Quando o microcomputador finalmente chegou as lojas?
usuário tinha a fazer era apertar um dos três botões do mouse para que o programa Como a Xerox não colocou o Alto à venda, a honra de lançar o primeiro computador
aparecesse na tela. O mouse não era uma idéia nova (havia sido inventado sete anos pessoal - em inglês, Personal Computer, ou PC - coube a uma pequena americana de
antes, em 1965, por um engenheiro, Doug Engeibart, do Instituto de Pesquisas da porte médio, a MITS (Micro Ins-trumentation and Telemetry Systems) em 1975. E não
Universidade de Stanford - e era de madeira!). Mas, ao adaptá-lo ao Alto, o pessoal da era bem o que hoje reconheceríamos como sendo um micro, mas um kit de partes
Xerox encontrou o uso perfeito e definitivo para ele. vendidas separadamente e que tinham que ser montadas pelo próprio usuário. Mas já
• Ao invés de fazer os caracteres - letras, números e figuras tinha o cérebro dos micros atuais: um único microprocessador, o chip, fabricado pela -
- aparecerem já formados na tela, num processo semelhante ao quem mais? - Intel. E as instruções para que ele pudesse funcionar estavam contidas
de uma máquina de escrever, o sistema construía cada um deles, em um programa em linguagem BASIC, escritas por - quem
a partir de milhões de pontos isolados (ou pixels), um processo mais? - Bill Gates e seu colega de escola, Paul Allen. Ambos
hoje chamado de bit mapping, que é a base de qualquer sistema tinham, na época, 18 anos, e estavam apenas entrando na
gráfico. faculdade.
• Para operacionalizar os comandos do Alto, a Xerox criou O nome da preciosidade da MITS era Altair - que pronunciado
uma linguagem com codificação própria, chamada Smalltalk, que em inglês não rima com Aldair, o ex- zagueiro da Seleção
permitia a seus programadores desenvolver novos programas e Brasileira, mas com a forma verbal quer, com o r final à Ia
aplicativos compatíveis com o sistema. A diferença era como a de Interior de São Paulo. O Altair 8800 custava 395 dólares e tinha
inventar uma palavra nova para um língua já existente, ou ter que 256 bytes de memória. Como cada letra corresponde a um
criar uma nova língua todos os dias. byte, e 256 bytes são 2 048 bits, a memória básica do Altair era
suficiente apenas para guardar na lembrança o conteúdo de
Foram construídas 150 unidades do Alto, mas nenhuma chegou a ser colocada à
uma página igual a esta...
venda - se fosse, seu preço na época teria que ser superior a 30 mil dólares, o que em
valores atuais corresponderia a dez vezes mais. Mas o Alto era tão avançado que De apelo comercial limitado - era mais um hobby restrito a um pequeno grupo de
muitas de suas características não apareceriam nem na primeira geração de entendidos em computação que, entre outras coisas, precisava saber escrever seus
microcomputadores da Apple, em 1976, mas só na seguinte, com o Macintosh, em próprios programas, já que o Altair não tinha nenhum software -, o bisavô de todos os
21 22
micros desapareceu logo depois que a Apple entrou no mercado. Por que na época nenhuma grande empresa entrou no ramo de micros?
Porque aquilo não parecia ser um grande negócio. O primeiro microcomputador Apple era
Quando apareceu a Apple? vendido ao consumidor final por 800 dólares - equivalentes a uns 5 mil dólares, em valores
atualizados. Era mais uma mania de fanáticos do que uma utilidade doméstica, como é
Em 1976, na garagem da casa de Steve Jobs. na Califórnia. A empresa começou no dia
hoje.
1° de abril e tinha três sócios: Steve Jobs, Stephen Wozniak e Ron Wayne. Quando a
Apple surgiu, Jobs e Wayne ainda trabalhavam na Atari, e Wozniak estava na Hewlett A primeira grande empresa a achar que o negócio de micros não tinha futuro foi a
Packard, a HP. Na sociedade, Wozniak era o técnico, Jobs, o comercial e Wayne, o Hewlett Packard. Steve Wozniak ainda trabalhava para a HP, em 1976, quando montou o
administrativo. A idéia do nome Apple foi de Jobs, e outras alternativas consideradas primeiro protótipo do Apple l e tentou convencer sua empresa a entrar naquele novo
foram Executek e Matrix (esta última, aliás, bem mais apropriada que Apple, tanto ramo. Os diretores da HP fizeram sua obrigação profissional: mandaram memorandos a
sonora quanto tecnologicamente). diversas áreas da empresa, convidando os seus responsáveis para ver uma demonstração
prática e em seguida perguntando se aquilo interessava. A
A primeira loja a vender o Apple l foi a Byte Shop, da Califórnia,
e ao proprietário dela, Paul Terrell, deve-se uma mudança resposta, unânime, foi não. Há duas ironias nessa história: a primeira foi que a HP mudou
pequena, mas radical, no conceito de como vender micros ao de idéia sete anos depois e lançou sua linha de micros; a segunda é que a própria HP havia
usuário final. A idéia da Apple era competir com o Altair, sido fundada, décadas antes, por William Hewlett e David Packard, também numa
portanto o Apple l também foi criado para ser vendido na forma garagem, que ficava a poucos quarteirões da casa de Steve Jobs.
de um kit faça você mesmo. Uma caixa, que continha o circuito
impresso, mais um saco cheio de pequenas partes, e um Então a Apple ficou sozinha no mercado?
manual de montagem de 16 páginas que custavam 666 dólares.
Para não dizer que ficou sozinha, havia a Commodore, uma empresa de tecnologia, que
Terrell prometeu a Jobs comprar 50 unidades a 500 dólares
lançou seu micro chamado PET em outubro de 1976. Deu em nada, porque o micro era
cada uma, desde que os micros já viessem montados e prontos
bem pior que o da Apple. Mas antes disso uma história incrível havia rolado: Jobs
para usar. E Jobs topou.
oferecera vender a Apple para a Commodore, por 100 mil dólares, mais empregos para
Em janeiro de 1977, Ron Wayne decidiu deixar a sociedade e ele e para seu sócio, Wozniak. A Commodore achou demais
recebeu sua parte: um cheque de 1800 dólares. Se tivesse ficado, teria se tornado
e resolveu entrar no negócio por conta própria. Quebrou a cara. E a Apple, aí sim, ficou
milionário menos de três anos depois. A contribuição mais visível de Wayne para a
soberana, embora não sozinha, no mercado, com tempo suficiente para se capitalizar. E
Apple foi o seu primeiro logotipo - uma ilustração mostrando o físico Isaac Newton
só conseguiu fazer isso porque todos os seus concorrentes também eram de fundo de
embaixo de uma macieira - que logo seria substituído pela famosa maçãzinha estilizada,
quintal.
criada por Rob Janov, diretor de arte da agência Regis McKenna (ao que consta, por
menos de 500 dólares, uma das maiores barganhas do mercado da propaganda em Em 1981, a Apple já faturava 500 milhões de dólares anuais. Nada mal para quem, em
todos os tempos). 1976, tinha começado o negócio com um capital inicial de 1750 dólares, fruto da venda
da calculadora HP de Jobs e da Kombi de Wozniak.
23 24
O que os primeiros micros da Apple faziam? para o dia o valor da Apple como empresa.
Mas... e a IBM?
A IBM demorou para acreditar no mercado de micros e preferiu focar seus esforços nos
grandes sistemas, que eram literalmente uma máquina de fazer dinheiro. Foi só em 1979,
após o sucesso do VisiCalc, que a IBM acordou. E, aí, pulou da cama com a corda toda.
Em agosto de 1981, o micro da IBM estreou no mercado, vendido a 1565 dólares e com
16K de memória. Mas, quando o IBM-PC chegou às prateleiras, a reação do pessoal da
Apple foi de alívio - e de certa arrogância. Steve Jobs diria: A maior empresa de
computadores do mundo conseguiu construir um micro pior do que aquele que
montamos seis anos atrás numa garagem.
Jobs estava enganado. Com seu sólido nome e sua estrutura de distribuição, já em seu
primeiro ano no mercado a IBM vendeu 50 mil micros. E apenas dois anos depois, em
1983, passaria a Apple em vendas.
Não muito, se comparados com os de hoje: joguinhos que não ocupassem muita memória
e um editor de texto bem simplesinho. O grande salto - que abriria os olhos das
corporações para a primeira e real utilidade prática do micro - viria em 1979, com o
VisiCalc, a mãe de todas as planilhas eletrônicas de cálculo. Foi o VisiCalc que impulsionou
as vendas de um novo modelo que estava sendo lançado,o Apple II, e multiplicou da noite
25 26
Por que o Apple agora se chama Mac? Apple usar a marca (desde que mantivesse o famoso a no Mac e escrevesse intosh com i
Porque em 1984 a Apple lançou um micro totalmente diferente, o Macintosh. Projetado minúsculo).
pelo engenheiro Jef Raskin, o Mac com o tempo iria conquistar uma legião de
admiradores fanáticos, que não admite nem discutir a existência de outro micro. Mesmo Mas essa não foi a primeira vez que a Apple teve que
com muito preço para pouca memória - custava 2 500 dólares e tinha 128K - o Mac resolver judicialmente uma pendenga relativa a uma
impressionava pela sua precisão para trabalhos gráficos, simplicidade e facilidade de uso marca. Antes, em 1981, a Apple Computer já havia
(foi por causa dele que apareceu a expressão user friendly ou GUI – Graphical User sido acionada pela Apple Music, empresa de
Interface ). Desde o seu lançamento, o Mac tem sido o micro preferido pelas agências de propriedade dos Beatles, e as duas fizeram um acordo:
propaganda, escritórios de design, pelas empresas de consultoria e de engenharia e por a Apple podia usar o nome no ramo de computadores,
usuários que querem algo mais de um micro. desde que não invadisse nenhum setor ligado à
Além de seu apelo tecnológico, o Macintosh entraria também para a história da música. Acontece que os micros da Apple, como todos
propaganda: seu comercial de lançamento, um filme de 60 segundos dirigido por Ridley os outros micros, logo passariam a oferecer programas
Scott (o diretor de Alien, o Oitavo Passageiro e de Blade Runner, o Caçador de Andróides), e aplicativos musicais. A Apple Music abriu novo
foi ao ar uma única vez, ao custo de 800 mil dólares, num dos intervalos do Super Bowl, o processo, e em 1991 a Apple Computer pagou aos
jogo final do campeonato de futebol americano de 1984. O filme, apropriadamente Beatles uma indenização de 26,5 milhões de dólares para o arquivamento da causa.
chamado 1984, pegava uma carona no livro de George Orwell, só que desta vez o tirano
Big Brother era representado pelas empresas tradicionais de computadores, enquanto o
Nessa briga entre a IBM e a Apple, como é que Bill Gates ficou mais rico que as duas?
Macintosh personificava a renovação e a liberdade. O anúncio proporcionou um dos
maiores índices de lembrança em todos os tempos - coisa que em propaganda se chama Ficou por dois motivos: o primeiro foi a sua percepção de que a máquina - ou hardware -
recall - e tornou-se um clássico. se tornaria menos importante que os programas que rodavam nela - os softwares. Gates
fundou sua empresa na cidade de Albuquerque, Estado do Novo México, em 1975, e já a
Mas o célebre Macintosh também teve lá seus percalços. Ele era tão parecido com o Alto
batizou de Micro-Soft (assim mesmo, com hífen e S maiúsculo), uma combinação de
(aquele que a Xerox desenvolveu e não lançou em 1972), mas tão parecido, que em 1989,
software com microcomputador. Era uma aventura, porque o incipiente mercado de
a Xerox entrou com uma ação judicial contra a Apple, acusando-a de plágio, na melhor
micros estava nas mãos de pequenas e desconhecidas empresas com muitas idéias e
das hipóteses, ou de pirataria, na pior delas. Mas, apesar das visíveis similaridades, a
pouco dinheiro. A própria Apple só seria fundada um ano depois que a Microsoft já
decisão da justiça beneficiou a Apple, ao considerar que o Mac não era uma reprodução
existia.
do Alto, apenas tinha sido inspirado nele. Segundo a sentença do juiz, foi só após ter
visto o Alto funcionando que os cientistas da Apple se convenceram de que tudo aquilo Mas foi o segundo motivo que transformou Gates num
era possível de ser feito. E então eles fizeram, mas a partir de esforços e méritos próprios. bilionário: quando decidiu desenvolver seu micro, a IBM não
achou importante criar uma nova linguagem de programação.
Em vez disso, resolveu usar um sistema operacional
desenvolvido por Gates - o MS-DOS, ou Microsoft Disk
Operating System -, mas não o comprou, apenas o alugou,
pagando à Microsoft alguns dólares por micro vendido. E, ainda
por cima, permitiu que a Microsoft licenciasse o MS-DOS para
outras empresas fabricantes de micros. Em pouco tempo,
Gates e a Microsoft tinham nas mãos o monopólio do coração
de qualquer micro: o sistema que o faz funcionar. Porque o
resto era uma caixa de plástico, que qualquer um podia
Por que um nome tão estranho para um micro? construir.
Porque Apple é maça, e Macintosh é o nome da mais famosa variedade americana de Por que a gigante IBM simplesmente não comprou a Microsoft? Ninguém sabe, mas a
maçãs vermelhas. Comentou-se que Jef Raskin, ao batizar o seu projeto, errou ao soletrar melhor explicação é que a IBM decidiu que seu negócio não era desenvolver programas,
o nome da maçã – que os americanos sempre pronunciaram Mac, embora o “a” não mas sim vender microcomputadores às pencas, o que ela realmente conseguiu fazer.
exista quando se escreve. Raskin depois explicaria que não, que o erro tinha sido Porém, o próprio Gates também teve lá suas dúvidas sobre o futuro da Microsoft. Em
proposital, porque o nome McIntosh já era uma marca registrada por uma empresa de 1979, quando a Microsoft era apenas uma pequena empresa que produzia programas
equipamentos de som. O que não adiantou muito, porque a McIntosh do som para os nanicos concorrentes da Apple, o milionário texano Ross Perot, duas vezes
processaria a Apple do mesmo jeito, dada a similaridade dos nomes. Um acordo entre as candidato derrotado à presidência dos Estados Unidos, perguntou se Gates queria vender
duas empresas, cujas cifras são mantidas até hoje em segredo, finalmente permitiu à a empresa. E Gates disse yes! Perot ofereceu algo como 6 milhões de dólares pela
27 28
Microsoft. Gates pediu 15. Ainda assim, era realmente uma pechincha: Quem fez o primeiro notebook, a IBM ou a Apple?
aqueles 15 milhões corresponderiam, em valores de hoje, a uns 90 milhões. Só para Por incrível que pareça, nenhuma das duas. E, mais incrível ainda, não foi nenhuma das
comparar com uma negociação feita num outro setor, em 1998, a Gessy Lever compraria grandes empresas de tecnologia. O micro portátil foi lançado em 1981, por uma
a brasileiríssima Kibon por quase 900 milhões de dólares, dez vezes mais do que Perot empresinha desconhecida, a Osborne Computers. O Osborne l pesava 12 quilos, mas
achou que a Microsoft não valia... apesar de ser um peso-pesado se tornou um sucesso instantâneo. Tinha tudo o que um
Mas não houve mesmo acordo e, anos depois, num programa micro tinha e era uma pechincha: custava 1800 dólares, só 15% a mais que o micrão da
de televisão, Perot se lamentaria. dizendo que aquela tinha IBM.
sido a pior decisão de negócios de sua vida. E o apresentador
não resistiu:
"Modéstia sua, Ross. Essa foi a pior decisão de negócios de
toda a história da humanidade"! Portanto, Gates deve seu
título de empresário mais rico do mundo à sua competência,
mas também a uma mãozinha involuntária da IBM e de Ross
Perot.
29 30
custava aproximadamente 100 dólares (16K de memória a 1565 dólares). Hoje (2000), um não pelo usuário, que só vê as luzinhas piscando e a tela mudando enquanto o sistema lê.
micro com 20 gigabytes de memória custa 4 mil dólares, o que quer dizer que o preço de 1 Já RAM significa Random-Access Memory - memória de acesso aleatório, ou à vontade do
kilobyte caiu para um valor cem vezes menor que 1 centavo de dólar. Ou seja, o custo para freguês. Ela permite que alguém que esteja usando um aplicativo, como um editor de
se executar uma mesma operação num micro foi reduzido para 1/10000000 do valor textos Word, possa fazer dezenas de alterações de estilo, tamanho e cor, apagar e
original. Se a velocidade dos aviões a jato comerciais tivesse aumentado na mesma acrescentar dados e inserir figuras ou outros arquivos. Essas operações são todas
proporção, uma hipotética viagem da Terra à Lua num Boeing, que em 1981 levaria 17 temporárias e executadas em qualquer ordem, dependendo do comando dado pelo
dias, hoje seria feita em menos de 15 milésimos de segundo. usuário,
A palavra random tem origem francesa - randir - e antigamente significava “galopar sem
Mudou tudo, então? destino”. Depois, foi adotada pela Estatística para definir qualquer fato que acontece ao
sabor do acaso, sem método, como os números da Mega Sena, por exemplo. Daí, entrou
para o ramo da computação, com o sentido de você decide.
Curiosamente tem uma coisa que não
mudou: o teclado ou keyboard. É certo
que novas teclinhas foram adicionadas a O que é um megahertz?
ele - as de função, a de enter e outras - É a medida da velocidade de operação de um microprocessador. Um megahertz, ou MHz,
mas as letras continuam na mesma ordem corresponde a 1 milhão de ciclos por segundo. Na prática, isso quer dizer que um
desde 1873, quando a Remington & Sons, microprocessador de 600 MHz pode fazer 600 milhões de operações aritméticas em 1
de Nova York, colocou no mercado a segundo. A palavra é uma homenagem ao físico alemão Heinrich Hertz, que descobriu o
primeira máquina de escrever que fenômeno das vibrações eletromagnéticas o início do século 20. A primeira grande
realmente funcionava. Na fase de testes aplicação prática e de alcance popular do invento de Hertz foram as transmissões de rádio
da máquina da Remington, as letras (nos anos 40, os locutores das rádios do Interior do Brasil proclamavam, eufóricos: Este é o
estavam arranjadas em ordem alfabética, mas isso fazia com que as hastes se milagre do rádio, e esta é a sua Rádio Difusora, ZYE 6, mandando para o éter suas ondas
enganchassem e travassem com irritante freqüência. Então, o inventor da máquina, artesianas!) É que naqueles tempos pronunciar hertzianas era meio complicado...
Christopher Sholes, teve uma idéia: fez uma lista das letras mais usadas na língua inglesa e Será que o riquíssimo idioma português não poderia contribuir um pouquinho mais com a
colocou essas teclas o mais distante possível umas das outras, - o “E” e o “O”, por terminologia de computadores usada no Brasil? Antes de mais nada, um aviso aos
exemplo, as que mais se repetem, estão em setores opostos do teclado. Do arranjo navegantes: imaginar que uma língua de norma culta, ou seja, comum sistema gramatical
alfabético original, ficaram apenas vagas lembranças: “f-g-h” vêm em seqüência, assim ativo e organizado se comporta como um gueto, isolada e fechada ao meioambiente e às
como “j-k-l”. Por que, 130 anos depois, ninguém ainda mudou isso? É que a gente se influências externas, é como imaginar que as muralhas medievais são ainda hoje capazes
acostumou tanto que já nem percebe... de conter e proteger cidades.
O nosso português de hoje é uma mistura do português do século 18, que basicamente era
Quem são a ROM e a RAM? uma variação do latim com empréstimos do grego, e que foi sofrendo a influência das
Embora pareça nome de dupla sertaneja, ROM e RAM são os dois tipos de memória línguas indígenas brasileiras (palavras como Ipanema, Paraná e ipê), com fortíssima
contidas no microprocessador do computador. A diferença básica entre elas é que a ROM influência moura (algodão, alguidar, álcool), e com a avassaladora presença do francês,
trabalha com informações fixas e permanentes e a RAM lida com informações cultura dominante em nossa elite pensante no início do século 20 (táxi, garçom, abajur,
temporárias, que tanto podem ser guardadas ou apagadas quando o computador é guardanapo).
desligado. De forma geral, pode-se dizer que a ROM trabalha para o usuário, enquanto Dessa forma, a presença de palavras ou expressões em inglês acaba sendo uma
que o usuário trabalha com a RAM. obrigação do texto, e um desafio para os autores e leitores. Assim como o idioma da
religião católica é o latim, o mundo dos computadores se expressa em inglês. E isso não é
tão complicado quanto parece: depois que nós aprendemos a falar software e
Essas máquinas de café de escritório ou de refrigerante dos postos de gasolina, que
entendemos o que a palavra significa, o termo não só nos parece perfeitamente lógico,
parecem um armário, têm um microprocessador. Quando o usuário escolhe sua opção -
mas também intraduzível.
café com leite, com pouco açúcar, por exemplo -, a máquina executa uma operação, a
partir de instruções fixas e seqüenciais: baixa o copinho, mistura os pós de café e de leite e Sempre é bom lembrar que tentativas passadas de nacionalizar palavras estrangeiras que
o açúcar, esquenta e despeja a água, e libera o misturador de plástico. Tudo isso é feito a não precisavam de tradução deram em nada: os puristas do início do século 20 se
partir de uma memória do tipo ROM, porque o usuário não interfere no processo, nem recusavam a falar football e tentaram sem sucesso impor o nome ludopédio. Hoje, pouca
pode mudar as proporções de pós e água na mistura. gente acredita que futebol não seja uma palavra brasileira. No fim das contas, quem
sempre decide que palavra será usada é o povo - ou, no caso do computador, o usuário.
ROM quer dizer Read-Only Memory - memória só para leitura, isto é, leitura pelo sistema,
Mas o idioma inglês não tem o monopólio das palavras e um bom exemplo disso é
31 32
Informática.
33