computador de baixo custodesenvolvimento da pesquisa inclui uma revisão da história dos...
Post on 05-Oct-2020
3 Views
Preview:
TRANSCRIPT
UNIVERSIDADE CATÓLICA DE BRASÍLIA
ROBERTO SHAYER LYRA
COMPUTADOR DE BAIXO CUSTO
ANALISE HISTÓRICA DO
DESENVOLVIMENTO DOS COMPUTADORES
Brasília - DF
2002
II
ROBERTO SHAYER LYRA
COMPUTADOR DE BAIXO CUSTO
ANALISE HISTÓRICA DO
DESENVOLVIMENTO DOS COMPUTADORES
Trabalho apresentado à banca
examinadora da UCB, para
conclusão do Mestrado de Gestão
e Tecnologia
Orientador: Renato Guadagnin
Brasília - df
2002
III
Ficha bibliográfica
IV
ROBERTO SHAYER LYRA
COMPUTADOR DE BAIXO CUSTO
ANALISE HISTÓRICA DO
DESENVOLVIMENTO DOS COMPUTADORES
COMISSÃO EXAMINADORA
____________________________
Renato Guadagnin
____________________________
[Nome do Examinador]
____________________________
[Nome do Examinador]
[Cidade], [Dia] de [mês] de 2018.
V
Agradecimentos.
Aos professores, do trecho mais
recente do caminho. Ao Professor Prates, que
com suas perguntas ampliou este trabalho e ao
Professor Renato cuja paciência me ajudou a
fechá-lo.
As pessoas que estão há mais tempo
nesse caminho. À Jean, pela pressão, à Helena
pelo trabalho e à Tais, pelo motivo.
A quem ainda não chegou, pelo
caminho que traz.
VI
Os homens rezam para que Deus lhes indique um caminho
enquanto
Deus reza para que os homens sejam sábios na escolha de seus caminhos.
Provérbio Manoi
VII
SUMÁRIO
1 INTRODUÇÃO .......................................................................... 1
2 REFLEXÃO SOBRE TECNOLOGIA E SOCIEDADE ............... 3
3 MOTIVAÇÃO ............................................................................ 7
4 OBJETIVOS DA PESQUISA .................................................... 9
5 HIPÓTESE .............................................................................. 10
5.1 EVENTO PADRÃO NA HISTÓRIA DOS COMPUTADORES . 10
5.2 CONSEQÜÊNCIAS SOCIAIS ................................................. 15
5.3 O PDA É UMA NOVA OCORRÊNCIA DO PADRÃO .............. 27
6 METODOLOGIA ..................................................................... 28
7 DESENVOLVIMENTO DA PESQUISA ................................... 30
7.1 MAINFRAME: O /360 .............................................................. 30
7.2 1O EVENTO: O MINICOMPUTADOR ...................................... 36
7.3 O MINICOMPUTADOR E SUAS CONSEQÜÊNCIAS ............. 40
7.4 2O EVENTO: O MICROCOMPUTADOR .................................. 45
7.5 O MICROCOMPUTADOR E SUAS CONSEQÜÊNCIAS ........ 54
7.6 3O EVENTO: O PDA ................................................................ 57
7.1 GERAÇÕES DE COMPUTADORES ...................................... 66
8 RESULTADOS ........................................................................ 71
9 CONCLUSÃO ......................................................................... 76
10 PROPOSTAS PARA OUTRAS PESQUISAS ......................... 85
10.1 A PRÓXIMA ONDA.............................................................. 85
10.2 ETAPAS E CLIENTES ......................................................... 85
10.3 CONVERGÊNCIA E DIVERGÊNCIA ................................... 85
11 BIBLIOGRAFIA ...................................................................... 87
12 APENDICE – PROJEÇÃO DE VENDAS ................................ 90
13 ANEXO – LEIS DA INFORMÁTICA ....................................... 95
VIII
LISTA DE TABELAS
TABELA 1. CUSTO/BENEFÍCIO .................................................. 19
TABELA 2. CUSTO/BENEFÍCIO E COMPUTADOR DE BAIXO CUSTO. 21
TABELA 3. QUADRO RESUMO MAINFRAME / MÍNI ................. 45
TABELA 4. QUADRO RESUMO MÍNI / PC .................................. 57
TABELA 5. QUADRO RESUMO PC / PDA .................................. 66
TABELA 6. TABELA DE GERAÇÕES ......................................... 67
TABELA 7. QUADRO RESUMO COMPLETO ............................. 75
IX
LISTA FIGURAS
FIGURA 1. ALMIRANTE GRACE HOPPER. .................................. 4
FIGURA 2. BROWNIE..................................................................... 6
FIGURA 3. CONCENTRAÇÃO ..................................................... 17
FIGURA 4. CONCENTRAÇÃO E VALOR. ................................... 18
FIGURA 5. MODELO CENTRAL. ................................................. 20
FIGURA 6. MODELO DISTRIBUÍDO. ........................................... 22
FIGURA 7. IBM /360 ..................................................................... 33
FIGURA 8. PDP-6 ......................................................................... 37
FIGURA 9. PDP – 8 ...................................................................... 39
FIGURA 10. PDP-8 E COLHEITADEIRA...................................... 43
FIGURA 11. ARPANET................................................................. 44
FIGURA 12. ALTAIR ..................................................................... 48
FIGURA 13. REVISTAS. ............................................................... 50
FIGURA 14. GO ............................................................................ 58
FIGURA 15. OMBOOK ................................................................. 60
FIGURA 16. MODELOS DE PALM ............................................... 65
FIGURA 17. CONTROLES REMOTOS ........................................ 83
X
LISTA DE GRÁFICOS
GRÁFICO 1. GRÁFICO DE PUGH ............................................... 12
GRÁFICO 2. MERCADO DE MINICOMPUTADORES. ................ 41
GRÁFICO 3. VENDAS DE PC, NOTEBOOK E PDA .................... 61
GRÁFICO 4. NÚMERO DE DESENVOLVEDORES. .................... 64
GRÁFICO 5. GRÁFICO DE GORDON BELL ............................... 69
GRÁFICO 6. VARIAÇÃO DE BELL .............................................. 70
XI
RESUMO
Na história dos computadores ocorre o surgimento periódico de um modelo
inovador que causa grande impacto na sociedade. Entre as principais inovações dessas
máquinas encontramos novas relações comerciais, uso de tecnologias existentes e
poucas inovações efetivas. Apesar disso, elas são responsáveis pelo avanço da
automação da informação dentro das empresas. Seu impacto na vida privada não é
menor. Até o momento isto ocorreu duas vezes, com os mínis e os microcomputadores.
Um terceiro evento semelhante está ocorrendo com o estabelecimento dos PDA como um
novo padrão de mercado, e terá conseqüências semelhantes, tanto para as organizações
quanto para a vida privada do cidadão.
Palavras chave: minicomputadores, microcomputadores, mainframes, handheld,
PDA, inovação tecnológica, custo, sistemas abertos.
ABSTRACT
In the history of computers, every now and again a new model appears on the
scene that has a marked impact on society. Among the main innovations introduced by
these machines, we find new commercial relations and the implementation of existing
technology, though few truly revolutionary novelties. In spite of this, they are responsible
for the advance of the automation of information in companies, and their impact on private
lives is equally significant. Until now this has happened twice, namely with minicomputers
and subsequently with microcomputers. A third phase is now being reached with the
establishment of PDAs as the market standard and it will have similar consequences, both
for organizations and the lives of private individuals.
Key word: minicomputers, microcomputers, mainframes, handheld, PDA,
technological innovation, cost, open system.
1
1 INTRODUÇÃO
Computadores são algo recente na história humana. Poucos elementos se
desenvolveram tão rápido e tiveram tanto impacto. Poucas áreas geraram tanto
conhecimento em tão pouco tempo e tornaram tanto conhecimento obsoleto tão
rapidamente. Talvez a obsolescência seja a causa de tanto desinteresse por essa
história.
É fácil encontrar projeções sobre qualquer período futuro. Analistas
fornecem o numero de pessoas conectadas na Internet pelos próximos dez anos,
seja em linha comum ou banda larga. Garantem saber quais tecnologias serão
adotadas, mesmo as ainda em desenvolvimento. Tudo isso é feito baseado em
pesquisas e estudos estatísticos. Mas raramente utilizamos o passado como
referencial, como ponto de partida. Geralmente porque as mudanças foram tão
drásticas que não conseguimos traçar paralelos entre passado e presente. Com que
fato é possível traçar um paralelo da expansão atual da Internet comercial?
Parte do problema talvez seja proveniente de tratar-se de fatos muito
recentes. O IBM /360, computador que criou muitos conceitos hoje considerados
obrigatórios, ainda pode ser encontrado em atividade. Se mudarmos o foco dos
computadores para computação, teremos toda a história da lógica e do calculo,
começando com o ábaco. Passaremos pela lógica de Boole até os dias de hoje, com
certeza uma longa jornada. Mas a história dos computadores é muito curta
realmente.
Ainda assim, este estudo nasceu da certeza de que existe algo a ser
descoberto ou entendido nessa história. Algo que ajudará a entender não apenas o
panorama atual, mas estimar as mudanças futuras. Algumas dessas mudanças já
estão acontecendo, mas estamos envolvidos demais num turbilhão de informações
para apreciarmos alguns detalhes, hoje irrelevantes. Dezenas de produtos são
lançados diariamente. A grande maioria se divide entre aqueles que desaparecerão
antes de um ano ou aqueles que nada acrescentam ao que já existe. Localizar qual
a notícia que trará um verdadeiro impacto é o grande desafio.
Uma reflexão sobre tecnologia e sociedade traça algumas considerações
sobre invenções científicas e seu impacto numa sociedade.
Motivação apresenta experiências pessoais que motivaram a este caminho.
Objetivos da Pesquisa discute resultados esperados.
2
Hipótese descreve as duas hipóteses que são o objetivo deste trabalho. Na
primeira é descrito um evento que ciclicamente acontece na história dos
computadores, detalhando suas características e conseqüências. A segunda fala de
uma ocorrência desse evento, que está acontecendo neste momento.
Metodologia descreve o processo de coleta de informações e sua
organização para este trabalho.
Desenvolvimento da pesquisa inclui uma revisão da história dos
computadores nos últimos quarenta anos. Essa revisão permite identificar
ocorrências dos eventos citados, e suas conseqüências. Esse capítulo conclui com a
comprovação de que estamos dentro de um novo evento, e indica o momento desse
evento que estamos vivendo.
Resultados começa com uma revisão dos dados levantados e da
averiguação da hipótese.
Conclusão discute uma visão sobre computadores, partindo da velha
classificação de gerações até chegar ao computador de baixo custo e à última milha
da informação.
Propostas para outras pesquisas finaliza com sugestões para outras linhas
de pesquisa que não puderam ser contempladas nesse trabalho.
3
2 REFLEXÃO SOBRE TECNOLOGIA E SOCIEDADE
Quando um astrônomo busca novos corpos celestes, não tem pretensões de
alterar a vida das pessoas, além de fornecer material para livros educativos e ficção
científica. Mesmo que descubra um meteoro que irá colidir com a Terra, dificilmente
poderá alterar algo nesse processo. Esse é um tipo raro de cientista. Diferentemente
dos médicos, seu objetivo é um conhecimento sem uso imediato. Pesquisadores de
sistemas de informações esperam alguns resultados mais concretos, como os
médicos. Também como os médicos, eles sabem que há ações pouco científicas
que produzem grandes resultados. Os avanços nas condições sanitárias básicas
ocorridas desde o início do Século XX tiveram mais impacto do que qualquer vacina
desenvolvida. Os princípios que justificam essas medidas remontam a décadas ou
séculos. Mesmo quando falamos de vacina, é necessário separar o processo
científico de desenvolvimento da vacina da ação social para vacinação em massa.
Quando em maio de 1980 a OMS declarou que “o mundo e seus habitantes estavam
livres da varíola”, foi o resultado de uma ação social global utilizando uma invenção
cientifica.
Em abril de 1959 (SAMMET, 1978) um grupo de empresas, pesquisadores e
usuários se reuniu na Universidade da Pensilvânia para discutir a evolução das
linguagens de desenvolvimento de sistemas. Dezenas de linguagens eram
desenvolvidas naquele período. Entre outras iniciativas havia o FLOW-MATIC, o
COMTRAN (Commercial Translator), o IAL (futuro Algol). Nenhuma delas tinha
ampla aceitação no mercado. Cada uma estava restrita a um pequeno nicho, ou por
ser de uso específico demais, ou compatível com apenas uma linha de máquinas.
Essa diversidade de linguagens elevava muito o custo dos sistemas, porque, entre
outros, aumentava a necessidade de treinamento e re-desenvolvimento de códigos.
4
Figura 1. Almirante Grace Hopper.
Ela teve um papel fundamental na adoção do inglês como linguagem de programação, um dos marcos do COBOL. Fonte: US Navy.
O grupo da Pensilvânia discutiu a possibilidade de criar uma linguagem para
resolver problemas diversos e que fosse independente de equipamento. Essa
linguagem seria o CBL, depois chamado de COBOL (Commom Bussines Orientaded
Language). A partir desse grupo foi formado o Codasyl1, de onde saiu a primeira
especificação do Cobol.
Mas o destino do COBOL poderia ser o mesmo do COMTRAN ou Algol,
restrito a um pequeno grupo de fabricantes e consumidores. O que mudou foi o
apoio do Departamento de Defesa através da decisão de comprar produtos,
incluindo programas, compiladores ou computadores que aceitassem COBOL. Isso
sinalizou para o mercado uma garantia de retorno para quem investisse na
linguagem, fosse fabricante, profissional, usuário, consumidor.
Dessa forma simples, mas decisiva, o governo criou aquele que seria um
dos mais fortes padrões em desenvolvimento de sistemas até hoje. A mera
existência do padrão mudou a forma de desenvolver sistemas, bem como a forma de
vendê-los. Tecnologias foram criadas em torno do COBOL, como as métricas
voltadas para medir a produção de código.
Novamente temos dois eventos: um foi o trabalho científico que levou à
elaboração da especificação do COBOL; outro, o apoio do Departamento de Defesa
1 “Committee on Data Systems Languages”, comitê que especificou a versão inicial do Cobol, antes desta tarefa pertencer a ANSI (American National Standards Institute).
5
como comprador que estimulou a indústria. O primeiro criou uma inovação
tecnológica, uma linguagem de desenvolvimento de sistemas com características
únicas; o segundo direcionou o mercado para investir nessa inovação tecnológica.
Porém queremos discutir não o impacto na comunidade profissional, mas na
sociedade. O uso do COBOL permitiu que sistemas mais baratos fossem
desenvolvidos mais rapidamente2, o que também revertia em redução de custo.
Essa redução pode ter permitido o maior uso de computadores pelas empresas e
governo, o que, além desses setores, poderia beneficiar também o cidadão. Embora
seja uma relação clara, mensurar o efeito final torna-se quase impossível.
Contudo, em alguns casos o efeito sobre a sociedade é perceptível, como
nos “pratos secos” de Eastman. A partir de 1878 George Eastman produziu3 vários
avanços na fotografia, como a emulsão seca4, os equipamentos de produção de
placas de emulsão em massa5 e a substituição do vidro por películas flexíveis6.
Esses avanços, mais tecnológicos que científicos, permitiram a criação da Kodak na
virada do século. Entre os preceitos de negócios da empresa estava o foco no
cliente, embora ele ainda não existisse quando a Kodak começou. Antes da película
e da emulsão seca, a fotografia era feita em estúdios por profissionais. O fotógrafo,
que comprava produtos fotográficos, era o dono de estúdio, e o cidadão comum era
apenas um consumidor de serviços desse estúdio. Utilizando suas inovações,
Eastman lançou a Brownie, uma máquina fotográfica popular que mudou a relação
da sociedade com a fotografia7. Agora o cidadão comum poderia comprar sua
própria máquina e decidir seu uso. Deixou, então, de consumir um serviço para
controlar o processo. O cidadão era o fotógrafo.
2 O COBOL não era necessariamente mais simples para desenvolver, mas era mais fácil de aprender por usar elementos comuns de linguagem (inglês) e se tornar popular em cursos abertos ao público. 3 Algumas inovações estavam sendo lançadas tanto por Eastman como por outras pessoas, por isso nem mesmo ele se creditou o papel de inventor. 4 Pratos de emulsão seca, do original “dry plates”, melhor traduzido por placas. A fotografia era feita a partir de uma emulsão líquida que precisava ser feita, usada e processada na mesma hora. Isto implicava que fotografia só podia ser feita em estúdio. Com a emulsão seca, era possível tirar fotografias horas depois de feita a emulsão e revelar muito depois. 5 As placas eram feitas manualmente. 6 A película flexível é o filme atual. Isto reduziu o peso e tornou o equipamento menos frágil. 7 As Brownies foram o maior sucesso da Kodak. Eram vendidas com o filme de 100 poses. Ao terminar, o fotografo levava a máquina para a Kodak, que revelava e carregava novamente a máquina. Era uma nova forma de fotografar e de vender serviços.
6
Figura 2. Brownie
A Brownie foi um dos maiores sucessos da Kodak. Fonte: Kodak.
Existem muitos outros exemplos de como inovações científicas e
tecnológicas causaram impactos na sociedade. Talvez a maior seja a linha de
produção de Henry Ford redesenhando as cidades durante um século.
Este trabalho se ocupa de momentos da história dos computadores, quando
esse impacto sobre a sociedade foi visível. Este trabalho fala de Brownie.
7
3 MOTIVAÇÃO
Pouco depois de começar a trabalhar com sistemas de informação, na
década de 80, começaram a surgir os micros no mercado local. Nessa época eu
estava entre o estágio e o primeiro emprego. Tentava entender como funcionava
aquele mundo, não apenas os computadores e sistemas, mas como estes
interferiam na sociedade. Nossas principais referências eram os analistas mais
experientes. Alguns ainda traziam uma aparência hippie, o que lhes conferia uma
aura de gurus cibernéticos psicodélicos. Acreditávamos em tudo que diziam.
Vivíamos a transição dos grandes mainframes IBM para os mínis e super-
mínis. Maior que a IBM apenas seu tombo. Nossos líderes estavam mudando o
mundo com computadores pequenos, programas rápidos e cabelos grandes .
Com a chegada dos micros, objetos tão falados em revistas e jornais,
esperamos para ver o que nossos mentores fariam. O resultado, na maioria das
vezes foi frustrante, mas somente notamos isso muitos anos depois. Os micros eram
tratados com um misto de reverência, prazer e desprezo. A reverência vinha do fato
de um computador caber inteiro dentro daquela caixa, e do fato de que nós,
estagiários, estávamos proibidos de nos aproximarmos. A possibilidade de poder
criar programas e mexer nos componentes tornavam os micros pequenos
brinquedos, daí o prazer. Mas os analistas não conseguiam ver naquelas coisas
alternativas para seus sistemas. Enquanto solução profissional, a atitude era de
desprezo. Neste período perguntei várias vezes a diferença entre um terminal
inteligente e um micro computador. Consegui muitas respostas, mas a maioria era
de que havia pouca ou nenhuma diferença.
Não conseguíamos combinar o desânimo dentro dessas empresas com a
euforia no mercado. Havia uma clara dissonância, que não entendíamos. Mas fomos
fiéis a nossos gurus, e voltamos ao Cobol e ao Mumps. Posteriormente entendi a
diferença entre os micros e os terminais inteligentes: terminais foram aqueles que
desapareceram, enquanto os micros foram os que mudaram a forma de fazer
sistemas.
A minha motivação são aqueles analistas, símbolos de inteligência e
renovação, mas no fundo tão resistentes a mudanças. Defenderam seus pequenos
feudos profissionais como um campo de batalha. Perderam a guerra e também sua
função. Eles deveriam ser os agentes nos processos de mudanças que envolvessem
8
computadores e informação, mas se tornaram parciais demais. Seu trabalho ficou
comprometido.
9
4 OBJETIVOS DA PESQUISA
O objetivo deste trabalho é montar um modelo de evento usando o míni e o
microcomputador. Este modelo se baseia em características desses eventos,
principalmente na ruptura para a computação que cada um significou em suas
respectivas épocas. O modelo é ilustrado com conseqüências desses eventos.
A segunda parte do trabalho apresenta o PDA como uma nova ocorrência do
evento, por ter as mesmas características e ampla aceitação no mercado.
Finalmente apresenta este momento como um momento de ruptura semelhante aos
anteriores.
Não é objetivo deste trabalho apresentar o PDA como um elemento positivo
em um novo cenário da computação. Não visa assumir posturas parciais a favor ou
contra essa ou qualquer outra tecnologia. Cabe aos fornecer apoio técnico para um
mercado que tem objetivos próprios, que nem sempre são conhecidos.
Embora algumas previsões sejam feitas ao final, esse também não é o
objetivo principal deste trabalho. Isso costuma ser pretensioso e ineficaz. Este
trabalho pretende fornecer um diagnostico de um momento de ruptura que está se
iniciando agora, baseado em eventos anteriores.
10
5 HIPÓTESE
Esta pesquisa propõe verificar duas hipóteses.
A primeira parte do trabalho prova a existência de um evento padrão. Isso
significa que existe um determinado tipo de ocorrência na história dos computadores
com características definidas e que se repete ciclicamente, que é o lançamento de
um computador de baixo custo.
No escopo do trabalho estão as principais características do evento e
algumas conseqüências. Não será estudado o processo histórico que gera esse
evento, sua periodicidade ou motivações. Este trabalho pretende apenas constatar a
existência do evento.
O caminho para esta demonstração é uma pesquisa histórica, onde serão
analisados eventos anteriores: minis e microcomputadores.
A segunda hipótese é que o PDA é uma nova ocorrência desse evento. Isso
implica demonstrar que o PDA combina com as características descritas do evento
padrão. Mas muitos equipamentos se encaixaram nestas características ao longo
dos anos. É necessário comprovar também que o PDA se tornará um padrão de
equipamento e não apenas um equipamento restrito a um pequeno grupo de
usuários.
A seguir, essas hipóteses são descritas em detalhes.
5.1 EVENTO PADRÃO NA HISTÓRIA DOS COMPUTADORES
O evento descrito é o lançamento de uma nova classe de computador com
custo e capacidade muito abaixo das classes existentes. Esse equipamento não é
fruto apenas de avanços científicos, mas principalmente de uma nova proposta
comercial e tecnológica. Por ser muito limitado em relação aos computadores em
uso, esse equipamento não é considerado um concorrente. A conseqüência desse
evento é a maior disseminação de processos virtuais, tanto nas organizações como
na vida pessoal (ou “no dia a dia”).
A redução no custo deve ser de 90%, ou seja, ele tem um décimo do custo
de um computador padrão8. Mas existe entre os computadores padrão uma variação
8 A expressão “computador padrão” será usada neste texto como referência a um tipo de computador, um modelo existente e largamente usado na época do lançamento do computador de baixo custo. As questões de preço se referem a um modelo básico entre os disponíveis.
11
de preço maior do que dez vezes. Para resolver esse problema, foi adotado como
modelo um computador básico porém completo. Ainda assim, esse valor é muito
mais uma ordem de grandeza do que um valor exato. Serve para diferenciar de
eventuais promoções ou de modelos econômicos.
A redução de capacidade desses computadores é de 99%, ou seja, ele tem
um centésimo da capacidade de um computador padrão. Estimar capacidade de
computadores tem sido um desafio constante desde o início da indústria. Embora
existam dezenas de testes, raramente eles funcionam adequadamente para
comparar modelos de plataformas distintas. Novamente o valor de 1% é uma ordem
de grandeza que pode ser observada em valores diversos, como capacidade de
armazenamento, memória volátil, etc.
Com uma redução de preço em 90% e em capacidade em 99%, há uma
deterioração na relação Custo/Benefício. Isso não é uma novidade. Emerson Pugh e
Willian Aspray afirmam que isso aconteceu quando a indústria de computadores
mudou de clientes – do governo para segmentos privados. O governo era movido
por questões de segurança nacional, o que justificava qualquer custo para atingir
suas metas. Já os primeiros clientes privados, como empresas de estradas de ferro
e de seguros, tinham limites para despesas com computadores muito abaixo dos
limites do governo. A mudança significou, então, o atendimento às expectativas de
uma clientela preocupada não apenas com o desempenho, mas também, e
principalmente, considerava os custos em suas decisões.
A lei de Grosch (CERUZZI, 2000, p. 177) afirmava que um computador duas
vezes maior (e portanto com o dobro do custo) teria um desempenho quatro vezes
maior, portanto uma melhor relação Custo/Benefício. Os clientes privados tinham
necessidades e recursos muito menores do que o governo, o que implicava
máquinas muito menores também, mesmo que isso representasse uma pior relação
Custo/Benefício, segundo a Lei de Grosch. Essa deterioração da relação
Custo/Benefício se repete a cada modelo de um computador de baixo custo. Ainda
assim eles se firmam no mercado, porque atendem a uma nova faixa de público.
12
Gráfico 1. Gráfico de Pugh
No gráfico de Pugh indica que os clientes governo (segurança nacional) tinham gastos maiores e melhor relação custo benefício, enquanto os clientes “sensíveis” a custo se situavam com custos menores, desempenhos menores e pior relação Custo/Benefício. Fonte: PUGH, ASPRAY.
A redução de custos deve envolver os custos diretos e indiretos. Custos
diretos são aqueles que vão interferir diretamente no preço final, enquanto custos
indiretos são os o cliente terá que pagar, embora não estejam no preço do
computador. Aqui temos treinamento, instalações, etc.
O caminho para redução de custo passa por tecnologias conhecidas,
ambientes menos exigentes, interface de uso mais simples e mais sofisticada
internamente, arquitetura aberta e novas relações comerciais.
Tecnologia é sempre um dos pontos mais curiosos desse processo. Sempre
temos a noção de que tecnologias, como o circuito integrado e o transistor, foram os
únicos responsáveis pelas mudanças do mercado. Mas há várias barreiras entre
uma invenção tecnológica e a chegada de seus benefícios ao mercado.
Primeiro, é o receio de inovar. Os fabricantes estabelecidos têm receio de
adotar em novas tecnologias, ainda não comprovadas totalmente suas qualidades e
conhecidas suas conseqüências. Segundo, vinha o risco dessa nova tecnologia ser
muito eficiente, e tornar obsoleta toda uma linha de produtos em uso. Os próprios
usuários se sentiriam lesados por uma empresa que lhes vende uma solução, e logo
após lança outra que torna a anterior muito obsoleta. Em alguns casos, as inovações
são incluídas em linhas de produtos, mas benefícios como redução de custos, não
são repassados aos preços finais.
Os fabricantes de computadores de baixo custo têm um motivo bem mais
objetivo para se manterem longe das inovações mais recentes: o grande custo de
pesquisa e desenvolvimento. Para manterem seus preços baixos, a verba de
13
pesquisa e desenvolvimento é bem menor.
Em compensação, esses equipamentos sempre adotam uma visão mais
ousada em relação às tecnologias existentes. O que for possível utilizar é utilizado
em toda sua extensão. E, se para melhor aproveitar as características dessas
tecnologias, todo um novo projeto deve ser desenvolvido, isto é feito. No final das
contas, eles não geram tanta tecnologia, mas eles a levam mais rápido ao mercado,
na tentativa de criar soluções mais baratas e melhores que os permita diferenciar
seus produtos e sobreviver no mercado.
Os computadores de baixo custo são sempre menos exigentes em relação a
geração anterior. Isso traz três vantagens: primeira, tem custos reduzidos de
instalação, começando no espaço físico necessário, porque também são menores,
até requisitos de eletricidade e refrigeração; segundo, podem estar em operação em
tempo muito menor – quanto mais rápido entrar em operação, mais rápido pagarão o
investimento feito; terceiro, podem operar em locais que a geração anterior não
podia. Nem todo ambiente é adaptável, ou o custo de adaptação pode ser de tal
ordem que não compense. Isto sem falar de distâncias, mobilidade, etc. Quanto
menos exigente, mais fácil levar o computador para perto do problema a ser
resolvido. E quanto mais perto o computador fica do problema em si, menos
problemas com meios de comunicação, atrasos nas informações, etc.
A interface não contribui com custos na compra de um computador, mas tem
implicações sérias no seu uso. Quanto mais complexa a interface maior o
treinamento necessário do pessoal que irá operar o computador. Quanto maior for
esse treinamento, mais caro. Isto traz conseqüências no custo do profissional,
porque haverá um número menor de profissionais treinados disponíveis, pois cada
empresa treinará um número menor e poucos autônomos poderão bancar este
custo. A isso podemos acrescentar o tempo desse profissional parado para
treinamento, etc.
Resumindo, uma interface complexa implica custo de treinamento e salários
maiores.
Para reduzir o custo é necessária uma interface mais simples que a anterior,
o que exige um projeto mais sofisticado internamente. A interface deverá ser mais
fácil para operar e entender. Isso significa uma linguagem mais elaborada, usar
frases completas em lugar simples códigos de erro, por exemplo. Deverá também
14
ocultar a complexidade de determinadas ações sob instruções mais simples. Em
resumo, haverá uma transferência de esforço de comunicação e complexidade do
operador para a máquina: em lugar do operador se esforçar para conhecer a
máquina e suas instruções, a máquina deve trabalhar mais para ajudar a
comunicação com o operador e a execução de tarefas complexas.
É importante entender o termo “arquitetura mais aberta”.
Hoje a expressão arquitetura aberta está associada a um padrão
estabelecido por uma ou mais organizações, de uso totalmente livre, com
componentes públicos e conhecidos. Por isso a expressão usada neste trabalho é
“arquitetura MAIS aberta”, significando uma solução mais flexível e aberta que a
solução anterior. Adotar um padrão proprietário, mas que já é usado por um grande
número de empresas, é uma solução MAIS aberta do que utilizar exclusivamente
padrões proprietários próprios, que não são usados por nenhuma outra empresa.
Em termos de hardware isto permite usar soluções produzidas por várias
empresas em larga escala em lugar de soluções exclusivas, com pequenos volumes
de produção. É usar uma lâmpada de supermercado em lugar de fabricar sua
própria lâmpada. Isto reduz o custo dos componentes para o fabricante e o custo de
manutenção para o cliente.
Outro aspecto de arquiteturas mais abertas é a possibilidade de usar
softwares abertos, ou, ao menos produtos de terceiros. Isso elimina ou reduz o custo
do fabricante de desenvolvimento do sistema operacional e dos aplicativos, já
amortizado por terem sido vendidos a vários clientes antes. Outro custo é o
treinamento no uso desses softwares. Quanto mais vendidos, usados e divulgados,
mais pessoas já estarão habilitadas para o seu uso, e mais baixo será o custo do
treinamento e do profissional.
A redução drástica do custo final desse computador, da ordem de 90%,
implica mudar a relação comercial entre compradores e vendedores. Cada tipo de
venda possui embutido, de forma explícita ou não, compromissos entre as partes
que definirão o relacionamento entre cliente e fornecedor. Quanto maior o valor,
maior o compromisso. Isso trará um processo de acompanhamento do fornecedor ao
cliente, transformando uma venda num longo relacionamento. Os compromissos ao
vender uma bicicleta, um carro ou um avião são absurdamente diferentes, embora
todos sejam veículos de transporte. Mas o compromisso não é apenas do fornecedor
15
para o comprador. As garantias vêm acompanhadas de regras de uso, e quanto
maiores as garantias maiores as regras associadas.
Isso traz implicações sobre a propriedade do objeto. Quanto maiores as
garantias e as regras, menor a propriedade do comprador sobre o objeto em si. Ele
pode até ser o proprietário, mas tem liberdade muito menor no uso de seu próprio
bem. Em alguns casos sequer é proprietário efetivo, sendo limitado a usá-lo nas
formas permitidas.
Se cada nova geração de computadores de baixo custo tem preços muito
menores, então diminuem as garantias e os compromissos e aumenta a propriedade
do comprador sobre o bem.
O resultado desse trabalho é uma nova classe de computadores. É um
equipamento moderno – usa tecnologias recentes – mas não avançado, mais
portável, de operação mais simples, mais fácil de ser adquirido e 90% mais barato
do que qualquer computador padrão. Mas também é um computador muito mais
limitado, cerca de 1% da capacidade do padrão.
5.2 CONSEQÜÊNCIAS SOCIAIS
Quando um computador de baixo custo é lançado, já existe um parque
instalado em torno dos computadores-padrão. Esse parque inclui profissionais,
sistemas, ferramentas de desenvolvimento, suporte, prestação de serviços. Todo
esse parque está baseado nos computadores existentes, incluindo seus custos e
suas capacidades. Nesse ambiente, o computador de baixo custo, com sua
capacidade de 1%, não se adequa à maioria dos usos destinados a um computador.
Profissionais e usuários não o consideram útil, sequer que seja um computador.
De fato, esse não é o mercado alvo do computador de baixo custo. Este é
projetado para um novo público, que ainda não utiliza computadores, geralmente por
não poder arcar com os custos. Este custo não é um valor tão simples como pode
parecer. Um estudante universitário não paga diretamente o custo dos
computadores de sua universidade, mas este custo terá uma influência no grau de
acesso a que ele terá direito. Por outro lado, empresas não consideram apenas o
custo, mas a relação Custo/Benefício de cada tarefa administrativa.
Esses novos usuários definirão novos usos para os computadores de baixo
custo. Na medida em que os usos se disseminam, aumenta o número de usuários
16
desses computadores. Com um custo de 10% de um computador padrão, a
quantidade de usuários tende a ser muito maior, numa escala geométrica, quase
exponencial.
Com o número de empresas e indivíduos crescendo em tais proporções, a
próxima etapa é utilizarem esses mecanismos para troca de informações com outras
empresas e indivíduos. Isso é a disseminação dos processos virtuais. São processos
já existentes em sua maioria, mas que são feitos por outros mecanismos, como
papel ou presencialmente, e vão sendo substituídos por troca de informações entre
computadores.
Esses processos são estudados em duas formas: processos virtuais nas
empresas e presença digital.
Costumamos restringir a visão sobre um processo como fosse limitado
dentro de determinado ambiente, quando na verdade ele é apenas uma pequena
parte de um processo maior. O processo de fabricação de móveis está ligado ao
processo de compra de seus insumos e ao processo de distribuição e
comercialização. Todos esses processos estão inseridos dentro do processo que é a
economia de determinada região, que por sua vez está ligada a processos ainda
mais amplos.
Nesse trabalho a visão de processo empresarial atravessa toda a sociedade,
interliga vários processos. Podemos ver uma veia e como ela funciona, mas não
esquecer sua inserção em um corpo mais complexo.
Um aspecto importante é o fato dos processos se dividirem e se
concentrarem ciclicamente. Uma fábrica de móveis que tenha uma linha de
produção, cinco depósitos e duzentas lojas.O processo de fabricação se inicia em
um ponto (fábrica), se divide em cinco (depósitos) e depois em duzentos (lojas). A
última etapa são os milhares de clientes que compram os móveis. O processo de
concentração acontece nos pagamentos. Cada cliente pagará de uma forma,
através de um banco, que concentrará os pagamentos até que todos os valores se
convertam para uma conta única.
Esse modelo de divisão e reunificação acontece com a grande maioria dos
processos, quando analisados de forma mais ampla. Impostos pagos são uma etapa
pulverizada que irá se concentrar até fechar em contas públicas únicas.
Posteriormente essas contas se dividirão em pagamentos a projetos e funcionários.
17
A verba de um assalariado surge em um único pagamento para se dividir em
dezenas de contas menores. Uma dessas contas é o pagamento da conta de luz,
que novamente se concentrará na conta da concessionária.
Figura 3. Concentração
Processos, quando visto conectados a outros processos, se dividem e reagrupam periodicamente.
Em ambientes estáveis dois elementos permanecem quase constantes
durantes os ciclos de divisão e concentração: valor financeiro e informação.
O valor financeiro é a soma dos valores envolvidos nos processos, seja em
dinheiro efetivamente, seja em valor das mercadorias. A quantidade de móveis
fabricados é a mesma que é armazenada e vendida. A soma de todas as
contribuições é igual ao total arrecadado. Os valores podem estar pulverizados ou
concentrados, mas seu valor total é constante.
A informação pode ser entendida como o conjunto de informações sobre o
processo. A fábrica tem todas as informações sobre os móveis fabricados, de
características a números de série. Estes dados serão distribuídos até o ponto de
venda, onde o comprador verá as informações sobre uma única peça. Mas se
vasculharmos todos os pontos de vendas, novamente teremos todas as informações
reunidas. No pagamento de uma contribuição estão as informações do valor pago
por um contribuinte específico, que será somado a todas as contribuições até criar
um grande cadastro de toda a arrecadação. Em etapas pulverizadas existe grande
número de processos paralelos, cada um com pouco valor e poucas informações.
Em etapas concentradas existe um pequeno número de processos paralelos, cada
18
um com grandes valores e quantidades de informações.
Figura 4. Concentração e valor.
Nas etapas pulverizadas existe pouco valor e poucas informações em cada processo. Nas etapas concentradas aumente o valor e a quantidade de informações.
Essas variações têm um impacto direto em estudos de Custo/Benefício para
a compra de computadores.
Nessa avaliação o custo é um valor facilmente mensurável, mas o benefício
está ligado a valor e quantidade de informações tratadas em determinado ponto do
processo. Um computador será colocado para controlar o processo, evitando perda
de mercadoria ou dinheiro. Quanto maior o valor desta mercadoria ou do dinheiro,
maior o risco envolvido. O mesmo pode-se dizer sobre informações pois quanto
maior o volume de informações, maior a necessidade de um computador para
manter e organizar essas informações.
Com essa avaliação, nas etapas pulverizadas, onde existe pouco valor
agregado e poucas informações, há menos justificativa e menos necessidade do uso
de computadores: o benefício é menor. Por outro lado, nas etapas de grande
concentração, onde existe muito valor e muitas informações,há mais justificativa e
mais necessidade do uso de computadores: o benefício é maior.
Um exemplo de atividade que poderia usar computadores é a contagem de
estoque. Na fábrica – processo concentrado - essa operação controla toda a
19
produção. Para repeti-la nos depósitos – processo dividido – serão feitas cinco
contagens, e outras duzentas nas lojas. A fábrica tem a maior concentração de valor
dentro de um único processo. Contagens feitas nos depósitos controlarão, cada
uma, apenas 1/5 da produção; nas lojas é 1/200 da produção. O uso de
computadores em cada um desses processos depende de um estudo de
Custo/Benefício .
Fábrica Depósito Lojas
Unidades 1 5 200
Benefício B B/5 B/200
Custo/Benefício C/B C/(B / 5) C/(B/200)
Custo total C 5 C 200 C
Tabela 1. Custo/Benefício
Nesta tabela analisamos a variação do Custo/Benefício na contagem de estoque entre fábrica e depósitos. C é o custo de informatizar uma unidade e B o benefício, proporcional ao valor e quantidade de informações. Na fábrica a relação é C/B, mas no depósito desce para C/(B/5) por que apenas 1/5 do valor e das informações estão lá. Nas lojas desce para C/(B/200). A relação custo benéfico diminui demais na medida em que o benefício (valor e informações) envolvido é divido entre os depósitos (5) ou entre as lojas (200). O custo total cresce na mesma medida.
Uma solução baseada em um único modelo de computador se torna muito
cara na medida em que o benefício (valor e informações) é dividido em
subprocessos menores. Para controlar o estoque da fábrica é necessário um único
computador de custo C, produzindo um benefício B (todo o valor produzido e toda a
informação), a relação custo benefício é C/B. Já nos depósitos a quantidade de valor
e de informações diminuiu para 1/5 o que altera a relação custo benefício para
C/(B/5). Isto quer dizer que informatizar um único depósito tem uma relação custo
benefício muito pior. E para colocar computadores em todos os depósitos seriam
necessários 5 computadores, custando 5 C. Nas lojas esses números pioram. A
relação custo benefício em cada loja é de C/(B/200) e o custo para comprar
computadores para todas as lojas é de 200 C.
20
Figura 5. Modelo Central.
Modelo de computador central e informações em papel.
Isso favorece um modelo centralizado de sistema, onde todas as
informações se concentram em uma única base de informações, no caso, na fábrica.
Isso implica que os depósitos e lojas controlam seus estoques manualmente e
informam a fábrica das contagens por relatórios em papel que serão digitados. Esse
processo pode gerar um atraso de alguns dias entre a posição conhecida e a real,
sem considerar os erros de digitação.
Mas se o benefício esperado num depósito é menor do que na fábrica,
porque controla menos valores e menos informações, a tarefa de controlar esse
estoque também é menor. Isso não é apenas quantidades menores, mas menos
exigências por parte dos usuários. Esses usuários não farão projeções tão
complexas quanto a matriz, nem terão que tratar outras operações da empresa
relativas a estoque, como produção. A tarefa é mais simples, portanto talvez seja
possível utilizar equipamentos mais simples. Talvez seja possível utilizar um
computador de baixo custo.
21
Matriz Depósito Lojas
Unidades 1 5 200
Benefício B B/5 B/200
Equipamento Computador padrão Computador de baixo custo Computador de baixo custo
Custo C C/10 C/10
Custo/Benefício C/B (C/10)/(B / 5) = (C/2)/B
(C/10)/(B / 200) = C/(B / 20)
Custo total C (C/10) * 5 = C / 2 (C/10) * 200 = 20 C
Tabela 2. Custo/Benefício e computador de baixo custo.
Utilizando computadores de baixo custo nos depósitos a relação custo benefício melhora pois o custo diminui. A relação custo benéfico em cada depósito cai pela metade do que é na fábrica. O custo total para equipar os depósitos é a metade do custo para equipar a fábrica. Mas para as lojas, esta redução ainda não é suficiente. Não apenas a relação custo benefício ainda é muito pior que da fábrica, mas o custo total ainda é alto.
A utilização de computadores de baixo custo nos depósitos permite reduzir o
custo em 90%. Isto muda a relação custo benefício para (C/2)/B, o que é uma
relação atraente, melhor que da fábrica. O custo total, antes 5C, passou para C/2,
menor que da fábrica. Esta melhoria não resolve todos os problemas. Comprar
computadores de baixo custo para as lojas ainda não é uma solução. Tanto a
relação custo benefício quanto o custo total ainda são altos.
Mas esse novo quadro já permite um avanço ao modelo totalmente
centralizado anterior. Não está em discussão aqui o modelo de administração
adotado. Mesmo com um modelo de administração centralizado necessita de
informações o mais rápidas e precisas possível. Nesse modelo intermediário, o
estoque das filiais é controlado com precisão e informado por meio eletrônico
rapidamente. Mesmo o estoque das lojas ganha com esse modelo, pois o trabalho
de digitação é concentrado nos depósitos e envidado para a fábrica com mais
rapidez.
Nesse exemplo o uso de computadores desceu um degrau. Antes apenas
disponível para a fábrica, ficou acessível também para os depósitos, embora ainda
seja inacessível para as lojas. Em outros casos esses degraus podem variar
bastante. Há casos em que essa redução será suficiente para atingir até o processo
mais pulverizado. Em outros não será possível descer um degrau sequer.
Uma redução de 90% é um grande impacto em qualquer estudo de
Custo/Benefício . Considerando que a grande maioria dos processos na sociedade
tem etapas com alto grau de pulverização e etapas de alta concentração, deve haver
muitas etapas intermediárias que possam se beneficiar com os computadores de
22
baixo custo.
Isso abre possibilidade para que mais subprocessos migrem dos
mecanismos de troca de informações em papel para troca de informações
eletrônicas, processos virtuais. Para que isso ocorra é necessário que:
As informações existam dentro de arquivos eletrônicos;
As instituições confiem em trocar informações em lugar de documentos e
dinheiro.
A primeira etapa para que isso seja possível é tornar computadores um
recurso disponível para as instituições que participam de qualquer processo. Na
medida em que as instituições envolvidas em etapas de processos passam suas
informações para computadores, a próxima etapa será negociar protocolos e
mecanismos de comunicação.
Figura 6. Modelo distribuído.
Modelo de computador central e depósitos e informações em papel.
Nesse quadro, quanto mais barato for o computador e seus custos
associados, mais instituições poderão converter suas informações para arquivos
eletrônicos, e mais processos acontecerão entre duas instituições cujas informações
estão em arquivos eletrônicos, que terão a opção por processos virtuais.
23
A disseminação de processos virtuais pode ser mais visível em sistemas
financeiros ou cujas bases de informações são muito estruturadas, como cadastros,
contas correntes. Mas essa não é a única informação que está sendo transformada.
Antes do advento da automação de escritórios, o termo “documento” se
referia a um objeto real de papel. O termo “original” se referia a um “documento” feito
por datilografia ou manuscrito e o termo “cópia” era uma reprodução mecânica desse
“documento”. A “cópia” tinha valor reduzido, pois representava um momento do
“original”, que poderia ter recebido anotações, ser refeito ou mesmo abandonado.
Hoje esses conceitos não têm o mesmo significado em qualquer ambiente.
Em muitos escritórios documento pode significar um objeto de papel ou um arquivo
eletrônico. Cópia é uma versão impressa, que também tem valor reduzido por
representar apenas um momento do original. Em alguns casos acrescentamos a
data da impressão à cópia para avaliarmos sua validade.
A grande diferença é o original, o documento de referência que deixou de
ser um documento em papel, real, para ser uma informação dentro de um
computador. Em alguns casos isso gerou um caos pela impossibilidade de distinguir
o arquivo eletrônico original de outro arquivo eletrônico, cópia deste.
Nesse caso a informação, o documento, foi transformada de objeto físico em
informação virtual. Imprimimos cópias por uma questão de conforto para a leitura e
de discussão em grupos. Mas essas cópias, mesmo com alterações que serão
passadas para o arquivo digital, não são consideradas como originais. O documento
original, a informação em si, é um arquivo eletrônico, virtual.
Conforme o tipo do documento, circulará mais ou menos, dentro e fora da
empresa. Se seu público tiver acesso a meios eletrônicos de troca de documentos, é
possível que ele circule apenas como arquivo eletrônico, e que quem o receba tenha
a opção de incluí-lo em seus próprios depósitos de arquivos eletrônicos. Talvez ele
jamais venha a ser impresso, sequer como cópia.
Novamente temos a implicação do custo do equipamento. Quanto mais
pessoas tiverem acesso a este tipo de recurso, mais documentos, antes em papel,
se tornarão arquivos virtuais, serão “entregues” e “assinados” de forma virtual.
A presença digital é um evento anterior à cidadania digital. A cidadania
discute os direitos, deveres e comportamento de um ser existente, o cidadão digital,
ou a presença de um ser real em um mundo virtual. Mas para considerarmos essa
24
cidadania, precisamos considerar que essa presença é possível.
Informações pessoais em uma base de dados não são suficientes para criar
uma presença. É necessária a interação, a atuação ativa do representado. Essa
atuação pode ser relacionar-se com outras presenças digitais ou com objetos
existentes no ambiente, como servidores, BBS, etc. Esses objetos são criados e
mantidos por outras pessoas, por isso, de certa forma, também são representações
digitais de pessoas. Existe um responsável que criou e mantém uma BBS, portanto,
interagir com ela é interagir com a representação digital dessa pessoa.
Quanto maior for a interação, maior será sua presença digital.
Se o indivíduo utiliza apenas o e-mail semanalmente, esse não será o
melhor meio para contatá-lo, ou para manter uma troca de informações regular. Se o
e-mail é acessado diariamente, ele já se torna uma ferramenta mais útil. Se for
acessado várias vezes por dia, pode substituir alguns usos até do telefone. Se além
desses mecanismos o indivíduo usar sistemas de mensagens instantâneas, este
conjunto de recursos será seu canal preferencial de comunicação. Ele está presente
na internet por longos períodos. Além da comunicação direta, temos outros recursos.
Ele pode colocar currículo e trabalhos à disposição em sua página, com atualizações
regulares, fazendo da visita a sua página a forma mais recomendável para conhecê-
lo ou a seu trabalho.
Mas a presença digital não é um processo isolado. Um indivíduo não pode
de forma unilateral adotar o e-mail como forma de comunicação, é necessário que
toda uma comunidade o faça. Se apenas uma pequena parcela da comunidade tiver
acesso a computadores, as pessoas desse bloco terão que usar outros canais de
comunicação para falar com o resto da comunidade. Outro tipo de interação é do
indivíduo com serviços diversos, da loja de livros à declaração de imposto de renda.
Esses serviços também precisam de uma comunidade que os mantenham.
Essa interação está intimamente ligada à forma de uso de computadores
incluindo tempo, local e propriedade.
Tempo define quanto tempo o indivíduo tem o computador à sua disposição
Se puder acessar durante uma hora por semana, poderá apenas verificar o e-mail
uma vez por semana e essa será sua presença digital: uma hora por semana. Se
tiver acesso de 6 horas por dia, sua presença digital terá essa medida de tempo. A
conseqüência dessa variação de tempo não é apenas a quantidade de e-mails
25
recebidos e enviados. Implica também a qualidade da presença digital. Serviços
como chat precisam de uma coordenação e disponibilidade de um grupo de pessoas
se conectarem em determinado horário. Um indivíduo que troca e-mails uma vez por
semana terá dificuldade de coordenar essa atividade e de conseguir que um grupo
tenha acesso no mesmo dia da semana e na mesma hora. Serviços como
mensagens instantâneas sequer fazem sentido nesse contexto.
Portanto o tempo tem uma implicação de quantidade (quantos e-mails
podem ser recebidos e respondidos em determinado tempo) e outra de qualidade
(mais tempo permite uso de canais melhores, formas mais evoluídas de
comunicação).
Local define onde a pessoa pode acessar os serviços digitais. Isso pode ser
em casa, no trabalho, etc. Se ela tiver uma lista reduzida de opções de locais, e não
estiverem muito próximos, ela terá dificuldade de visitar e utilizar os serviços. Ou
seja, a limitação de locais acaba por limitar o tempo.
Outro problema ligado a local é a coordenação de atividades. As atividades
ligadas à presença digital podem estar ligadas a outras atividades do indivíduo.
Neste caso ou ele leva o computador até onde executa as demais atividades ou leva
essas atividades até o computador. Se não puder juntar computador e atividades em
um único local, o trabalho será interrompido por idas e vindas que retardarão sua
conclusão.
A limitação de local é contraditória quando comparamos com o conceito de
que a presença digital permite a uma pessoa estar em qualquer lugar do mundo. Um
estudante que somente tenha acesso no terminal da faculdade só poderá estar em
qualquer lugar do mundo quando estiver dentro da faculdade. Quando visitar a
família ou estiver viajando em eventos perderá sua capacidade de “estar em
qualquer lugar”.
Um indivíduo tem acesso à base de dados de determinada instituição
quando acessa pela Internet em casa, mas se ele estiver dentro da instituição, talvez
não consiga acessar as mesmas informações em qualquer horário e formato,
somente disponíveis de forma digital. Resumindo, para acessar determinadas
informações da instituição ele precisa sair dela e ir para casa. Para estar em
qualquer lugar do mundo ele é obrigado a estar em um determinado lugar.
Propriedade é a qualificação do uso do computador. É definida pela relação
26
do indivíduo com o equipamento quanto ao que é permitido fazer. Se o computador
for de propriedade pessoal do indivíduo, ele poderá instalar qualquer software ou
acessório, poderá guardar informações pessoais e configurar o computador para
suas preferências. Mas se ele pertencer a uma comunidade ou empresa, se tiver
regras a serem seguidas, o uso do computador pode ser restringido, proibindo a
instalação de material não autorizado, não garantindo a total privacidade dos
arquivos lá guardados, ou mesmo informações que transitem por este computador.
Nesse caso o indivíduo fica restrito ao que for permitido.
Empresas adotam políticas diversas quanto ao uso desses serviços dentro
do trabalho. Em alguns casos existe liberdade total para o funcionário; em outros,
apenas um terminal de uso comum que pode apenas acessar páginas WEB, sem
outras possibilidades. Considerando que boa parte do tempo as pessoas passam
em seus ambientes de trabalho, isso tem uma implicação direta.
O conjunto dessas limitações – tempo, local e propriedade – determinará
qual a presença digital possível.
Os requisitos do computador necessários para que o indivíduo mantenha
essas interações não são muito altos. Serviços como e-mail, manter uma página,
chat, não necessitam de pesados recursos de memória ou processamento. De fato,
alguns modelos de vídeo-games já eram capazes de enviar mensagens em 1994.
Isso abre espaço para os computadores de baixo custo. Eles alteram as questões
relacionadas a tempo, local e propriedade.
O tempo disponível fica maior, porque seu custo por hora é mais baixo, o
que permite que mais pessoas de uma instituição tenham acesso a eles, e por mais
tempo. Mais locais terão computadores, já que mais instituições, sejam empresas,
universidades ou mesmo particulares, poderão comprá-los. A propriedade aumenta,
tanto na empresa como em casa. Na empresa porque o computador já não é um
bem tão caro, que o indivíduo somente possa acessar sob regras muito rígidas.
Além disso, o evento de ter seu próprio computador em casa se torna cada vez mais
próximo.
Crescendo tempo, local e propriedade, cresce a presença digital. Para
muitas pessoas ela será criada, porque antes sequer tinham qualquer forma de
acesso. Na medida em que o indivíduo descobre que mais amigos, ou colegas,
passam a ter presenças digitais, ele terá mais motivos para aumentar a sua. Uma
27
parcela cada vez maior da sua comunidade poderá compartilhar de mecanismos
como e-mail ou chat, o que tornará esses serviços mais atraentes.
5.3 O PDA É UMA NOVA OCORRÊNCIA DO PADRÃO
A segunda hipótese a ser provada é que o PDA é a nova ocorrência desse
evento padrão. Esta hipótese se divide em duas: o PDA ser um padrão de mercado
e o PDA ser um evento padrão.
Ser um padrão de mercado implica que um conjunto de produtos possui
características próprias suficientes para serem identificados como uma classe
específica de equipamentos. Implica também que o mercado adotou essa nova
classe de computador. Muitos equipamentos são lançados todos os anos, e
desaparecem ou mantêm apenas pequenas fatias. A adoção do mercado ocorre
quando existe aceitação de uma parcela significativa de compradores, e não apenas
o mínimo para sustentar uma pequena produção.
Ser um evento padrão significa que suas características se encaixam nas
características observadas nos eventos anteriores de computadores de baixo custo.
Isso possibilita afirmar que ele terá conseqüências semelhantes a esses eventos.
28
6 METODOLOGIA
A primeira parte deste trabalho, sobre o evento padrão, reside totalmente
numa pesquisa histórica. Para isso houve um levantamento de fontes de informação
sobre eventos dos últimos cinqüenta anos.
Infelizmente o volume de recursos é bastante escasso. A History of Modern
Computing, de Paul E. Cerruzi e Computer e A History of the Information Machine de
Martin Campbell-Kelly e William Aspray enfocam a história da computação moderna.
O livro de Martin é extremamente rico em traçar paralelos com outros momentos
históricos, como o que ele faz entre a computação pessoal e o surgimento da radio
difusão. Mas essa mesma capacidade de gerar análises gera também alguns
equívocos. Já o livro de Cerruzi, embora menos analítico, é extremamente rico em
informações e traça um painel detalhado e apaixonado dos últimos cinqüenta anos.
Outra fonte de informação foram os livros que tratam de episódios
específicos. Em sua maioria eles abordam um episódio sob uma ótica muito
fechada. Fire in the Valley, de Paul Freiberg e Michael Swaine, conta a história do
computador pessoal sob o enfoque dos aficionados em eletrônicas e dos clubes
como o Homebrew. Paul Carroll aborda quase o mesmo período de Fire in the
Valley, mas fala da derrocada da IBM em Big Blues. Startup, A Silicon Valley
Adventure, de Jerry Kaplan mostra como foi o nascimento da computação baseada
em caneta, uma idéia que mudou de nome várias vezes antes de se tornar viável.
Da ACM (Association for Computering Machine) vieram vários documentos,
incluindo muitos sobre computação ubíqua. Algumas outras fontes acadêmicas
foram consultadas, mas com poucos resultados positivos. As empresas
impressionam pela falta de sua própria memória. A IBM pouco fornece sobre sua
história, e pouco se encontra na Compaq sobre a HP e a própria Compaq, e
praticamente nada sobre a DEC.
Esse material permitiu uma revisão sobre os eventos anteriores. Foi possível
traçar um painel histórico da evolução dos computadores sob vários aspectos,
incluindo tecnológico, comercial e social. Com a analise do papel do míni e do micro
nesse quadro alguns aspectos das hipóteses foram reformulados.
A segunda hipótese – que o PDA é uma ocorrência desse evento,
compreendia duas partes. A primeira era de que o PDA podia ser um computador de
baixo custo. Para isso bastou comparar as características do computador de baixo
29
custo com as do PDA. A segunda parte é demonstrar que pó PDA se tornará um
padrão de equipamento e não ficará restrito a pequenos nichos. Essa informação
está disponível nas pesquisas das grandes consultorias. A NPD Consulting forneceu
uma pesquisa, a partir da qual é possível comparar o comportamento das vendas
entre PC, micros portáteis e PDAs nos próximos anos.
30
7 DESENVOLVIMENTO DA PESQUISA
7.1 MAINFRAME: O /360
O computador de baixo custo é uma mudança em relação a um computador
padrão existente. Para falar do primeiro computador de baixo custo é necessário
falar do primeiro computador padrão e sua época. Para entender o míni, precisamos
rever como foi o surgimento do mainframe.
Na segunda guerra surgiram os primeiros computadores, como Colossus9,
ENIAC10, MARK II11, Whirlwind12, todos sustentados pelo esforço de guerra. Nesse
quadro, os custos não eram relevantes, desde que os resultados fossem atingidos, e
para atingir determinados objetivos qualquer valor era justificado. O projeto
Whirlwind, orçado inicialmente em duzentos mil dólares quase foi cancelado por falta
de resultados positivos. Graças a explosão da bomba atômica soviética em 1949, o
projeto ganhou novo fôlego e atingiu a marca de oito milhões de dólares
(CAMPBELL-KELLY, ASPRAY,1996, p.158), um recorde para a época.
O governo norte-americano, em particular a área militar, era um cliente que
convivia muito bem com a lei de Grosch, segundo a qual um computador duas vezes
maior produzia quatro vezes mais poder de computação. As tarefas que o governo
esperava ver atendidas pelos computadores estavam no limite da tecnologia da
época, por vezes acima. A solução era concentrar esforços na pesquisa e em
computadores cada vez maiores.
Mesmo não atingindo seus objetivos principais13, essas máquinas trouxeram
grandes avanços tecnológicos. As pesquisas relacionadas geraram muitos
subprodutos. Whirlwind, por exemplo, gerou o conceito de processamento em tempo
real14 (CAMPBELL-KELLY, ASPRAY,1996, p. 158).
9 Decifrador de códigos inglês desenvolvido em 1943 para quebrar códigos de guerra usados pela Alemanha (GREENIA, 2001). 10 Computador desenvolvido pelo exército americano para cálculos balísticos (GREENIA, 2001). 11 Computador desenvolvido pela marinha americana (GREENIA, 2001). 12 Projeto destinado a criar equipamentos de treinamento de pilotos de aviões de guerra. (CAMPBELL-KELLY, ASPRAY, 1996, p. 157) 13 O ENIAC ficou pronto apenas em 1946, após a Segunda Guerra (GREENIA, 2001). O Whirlwind nunca chegou a apresentar resultados conclusivos (CAMPBELL-KELLY, ASPRAY, 1996, p. 158). 14 Processamento em tempo real, ou real-time. Previa a resposta imediata a comandos externos, em oposição ao processamento em lote que devolvia o resultado após concluído o processamento. O desenvolvimento de sistemas em tempo real também é atribuído a outro grande projeto da época, SAGE, voltado para o monitoramento aéreo (PUGH, ASPRAY, 1996, p.13).
31
Com o fim da guerra, havia uma expectativa de que o consumo de
equipamentos pelo governo decaísse e os fabricantes de computadores esperavam
uma crise. Acreditava-se que seria necessário investir mais no cliente privado, que
não tinha o mesmo poder de compra do estado, nem sua vocação para se
preocupar unicamente em atingir objetivos a qualquer custo. Na verdade, o cliente
privado se sentia muito bem atendido com as velhas perfuradoras de cartão. Na
década de 50 elas ainda eram mais vendidas do que os computadores, cuja relação
Custo/Benefício não pareceria compensadora (PUGH, ASPRAY, 1996, p. 14).
Mas a guerra fria e a corrida espacial não apenas mantiveram o ritmo de
compras do governo, como aumentaram as encomendas, em quantidade e
capacidade desejada das máquinas. A NASA poderia sustentar algumas empresas
sozinha, e talvez o tenha feito (CERUZZI, 2000, p.159).
O estado continuou a ser um cliente fixo, regular e acima de tudo, generoso.
Ele pagou pesquisas e o desenvolvimento de computadores comerciais (PUGH,
ASPRAY, 1996, p. 10). Tom Watson Jr, presidente da IBM entre 1956 e 1970 disse
que a guerra fria ajudou a IBM a se tornar o rei dos fabricantes de computadores15
(CAMPBELL-KELLY, ASPRAY,1996, p.168) (CARROL, 1994, p. 56).
Nessa fase, a produção de computadores ainda tinha uma atividade quase
artesanal, cada modelo era único. O conceito de fabricar modelos em série ainda
não fazia sentido, principalmente com um público potencial extremamente pequeno.
Apenas as grandes corporações tinham condições de investir em computadores
(CORTADA, 2001, p. 42).
Progressivamente o mercado privado cresceu e migrou das perfuradoras de
cartão para os novos computadores. Um mercado tão promissor atraiu uma grande
quantidade de empresas. Com o tempo, o número de empresas se concentrou em
apenas oito. Dessas, a IBM detinha cerca de 70% do mercado, deixando sete
empresas disputando os 30% restantes. A concentração de mercado nas mãos de
uma empresa era considerada necessária para custear os investimentos em
pesquisa. Sendo detentora de grande parte da pesquisa em computadores, a IBM
também tinha total controle sobre a velocidade em que essas inovações chegavam
ao mercado (CERUZZI, 2000, p. 111).
O grupo, formado pela IBM e suas sete principais concorrentes, ganhou o
15 “It was the cold War that helped IBM make itself the king of the computer business”.
32
apelido de Branca de Neve e os Sete Anões16. Apesar do nome, o passatempo
principal dos sete anões era processar a Branca de Neve (CERUZZI, 2000, p. 143).
Na medida em que os clientes privados cresciam, o modelo de fabricação
artesanal era abandonado, embora os clientes ainda tivessem grande poder de
influenciar o desenho das máquinas. Era o cliente que definia qual o uso previsto
para a máquina, que seria projetada para esse fim especifico, a começar pela
escolha da arquitetura básica, escolha de componentes, tipos de periféricos,
sistemas de suporte a disco e aos periféricos, sistema operacional e aplicativos por
fim.
Esse modo de trabalho estava levando as empresas a uma crise,
principalmente a líder de mercado IBM. Tendo sete modelos básicos de
computadores, oferecer uma solução de software para seus clientes significava
desenvolver sete versões do mesmo software. Da mesma forma, desenvolver um
novo computador significava desenvolver dezenas de softwares para este novo
computador. A IBM sofria mais esse problema do que os fabricantes menores,
devido a sua linha maior tanto de computadores como de softwares.
Surgiu uma proposta que iria redefinir o conceito de computador. A proposta
era de um grupo de máquinas, de portes diferentes, cobrindo uma boa faixa entre a
menor e a maior, usando os mesmos softwares, periféricos, etc. Obviamente, para
que o objetivo fosse alcançado seria necessário alterar a forma de desenvolver os
softwares, os periféricos e os próprios computadores.
16 Branca de neve e os sete anões: IBM, Burroughs, UNIVAC, NCR, Control Data, Honeywell, General Eletric e RCA . Alguns anos, com a saída da General Eletric e da RCA, o grupo seria renomeado para IBM e o BUNCH (bando, gangue).
33
Figura 7. IBM /360
O /360 definiu o mainframe moderno e foi o maior sucesso até então na indústria de computadores Fontes: CAMPBELL-KELLY, ASPRAY, e CERUZZI.
No software seria necessário separar as camadas de programas que
acessavam o hardware das demais camadas, isolar ainda mais o sistema
operacional do software aplicativo, etc. Antes a tarefa de desenvolver um
determinado pacote de software era uma tarefa isolada do desenvolvimento dos
demais pacotes. Agora todo o desenvolvimento estava interligado, fazia parte de um
vasto painel, onde cada mudança afetava dezenas de outros projetos e sub projetos.
Os periféricos passaram por mudanças semelhantes, embora talvez não tão
drásticas.
Esse novo conceito de computador ganhou o nome de /360, uma alusão ao
fato de não ser mais um computador direcionado a um foco específico, ele atendia a
todo o espectro de solicitações.
As grandes mudanças promovidas pelo /360 podem ser definidas em
escalabilidade e compatibilidade. Estes conceitos não eram novos. Várias linhas da
própria IBM possuíam modelos maiores e menores, permitindo aos clientes escolher
entre tamanhos variados de computadores, mas essa variação não ia muito além de
um fator de duas vezes, o que não era muito. O conceito de compatibilidade também
existia e já tinha inclusive gerado o primeiro clone17. Estes conceitos podiam existir,
17 Em Dezembro de 1963, a Honeywell lança serie 200, compatível com o IBM 1401. Havia um
34
mas de forma muito limitada.
O que o /360 prometia era que TODOS os computadores executariam
TODOS os softwares. A escalabilidade tinha um fator de mais de 20 vezes. O custo
de redesenvolvimento de soluções dentro das empresas seria de zero. Os
computadores de todas as áreas, engenharia, contabilidade, etc, executariam as
mesmas soluções18. O /360 definiu o mainframe moderno e foi o maior sucesso até
então na indústria de computadores. Com ele a IBM passou da posição de 25% para
70% (CARROL, 1994, p. 56), e as vendas cresceram até o limite de sua produção19.
Aos demais participantes do mercado, os sete anões, a alternativa foi
tornarem-se compatíveis com o /360. Isto não foi tão negativo. Puderam reduzir
investimento, porque não precisavam mais produzir soluções completas, apenas
pedaços de soluções que seriam encaixadas em um /360. De certa forma, o mesmo
computador que permitiu a IBM crescer, permitiu a seus concorrentes
permanecerem no mercado.
Quando o /360 estava sendo desenvolvido, duas propostas eram discutidas
no meio acadêmico: processamento em tempo real e processamento de tempo
compartilhado. O processamento em tempo real previa a possibilidade do operador
interagir com o computador durante a execução de um programa, em lugar do
habitual processamento em lotes. O processamento de tempo compartilhado previa
que um computador poderia atender a muitas pessoas ao mesmo tempo, dividindo
seu tempo em pequenas frações para cada um, dando uma ilusão de
simultaneidade. A IBM descartou as duas.
O processamento em tempo real supunha que um computador de um milhão
de dólares ficaria parado esperando o operador decidir o que ia digitar. Com os
custos de um computador IBM, otimizar o tempo do computador não era apenas
uma prioridade, era uma questão de sobrevivência. Quanto ao processamento de
tempo compartilhado, havia problemas técnicos que obrigariam a mudanças
drásticas no /360, então em desenvolvimento (CAMPBELL-KELLY, ASPRAY, 1996,
p. 215). Os custos das alterações eram maiores do que a importância que a IBM
programa que permitia executar os softwares IBM, ironicamente chamado de chamado de Liberator. (CAMPBELL-KELLY, ASPRAY, 1996, p. 142) 18 Nem todas as promessas foram cumpridas. A escala nunca foi tão grande, principalmente pelo insucesso em produzir os modelos menores. O sistema operacional, o OS 360 foi outro desastre, sempre com falhas e também nunca efetivamente concluído. 19 Até então a IBM tinha 70% dos “equipamentos de escritório”, o que incluía perfuradoras de cartão,
35
dava a esse problema.
Sem tais recursos, o mainframe era uma máquina dedicada a
processamento em lote. Seu alto custo eliminava muitos possíveis clientes e
aplicações. O mainframe era o computador das grandes corporações executando
tarefas de missão critica20. Todas as informações eram centralizadas no CPD, que
processava e retornava informações no dia seguinte. Era um enfoque totalmente
centralizado onde apenas um ponto processava todas as informações de empresas
e organizações.
Com tão poucos fabricantes e tanta concentração na IBM, a empresa tinha o
poder para ditar as regras a seus clientes, incluindo a forma de comercializar seus
produtos. Para aumentar a vinculação de seus clientes, a IBM não vendia seus
equipamentos, aos clientes era permitido apenas usá-los segundo as rígidas regras
da própria IBM, num contrato de leasing21. Além disso, cláusulas nos contratos da
IBM dificultavam a participação de outras empresas: todos os componentes usados
nas máquinas IBM deveriam ser fornecidos pela IBM apenas. Até mesmo a água,
usada na refrigeração, era obrigatoriamente fornecida pela IBM.
Na sua própria visão, a IBM não vendia hardware, vendia soluções22. Dentro
do seu pacote de soluções ela incluía o que ela considerava necessário. O preço
final para o cliente era composto por um terço de hardware, e o resto de
programação e serviços (CAMPBELL-KELLY, ASPRAY, 1996, p.149). O cliente não
tinha muitas opções para comprar o que realmente quisesse.
Mas a maior dificuldade no acesso a computadores ainda era o preço,
começando em um milhão de dólares. Poucas empresas dispunham desse capital, e
menos ainda tinham a coragem de investir numa área tão nova, cujos resultados
ainda pareciam mais ficção do que realidade. Mas se isoladamente não eram
capazes de bancar seus próprios computadores, em grupo puderam bancar um novo
segmento de negócios, os bureaus que compravam computadores e alugavam seu
uso por hora. Cada cliente podia comprar a quantidade de processamento que
conhecidas como máquinas de Holerit. 20 Missão critica se refere a sistemas ligados a atividade fim da empresa. Em uma fábrica são os sistemas ligados a produção, num banco serão os sistemas ligados a gerenciamento das contas, etc. 21 Após longa batalha judicial, foi aberta a opção para compra, mas com os preços oferecidos, era inviável. 22 Em 1950, Frank Cary, presidente da IBM disse: “Nós não vendemos produtos, nós vendemos soluções para problemas.” ("We don' t sell a product we sell solutions to problem.") (CAMPBELL-KELLY, ASPRAY, 1996, p. 152).
36
desejasse.
Neste ambiente, eram tão poucas as empresas que utilizavam
computadores que a idéia de trocar informações diretamente entre computadores
beirava a ficção. Mesmo dentro de cada empresa, isto era pouco comum, porque,
com os custo tão altos, nem todos departamentos tinham acesso aos equipamentos.
Quanto a uso pessoal de computadores, este era de fato totalmente
ficcional.
7.2 1O EVENTO: O MINICOMPUTADOR
Neste cenário surgiram equipamentos que viriam a ser conhecidos como
minicomputadores. Ceruzzi coloca o Control Data CDC 160 como o primeiro
computador, principalmente por seu tamanho e custo, 60 mil dólares (CERUZZI,
2000, p. 126). Por outro lado afirma que o quase desconhecido PDP 6 da DEC teria
sido um dos computadores mais influentes de todos os tempos (CERUZZI, 2000, p.
209), por causa das inovações em sua arquitetura. O CDC 160 foi lançado em 1960
para ser o concentrador de dados do CDC 1604, mas havia uma versão capaz de
processamento independente. Grennia cita o PDP-1 da DEC como primeiro, também
em 1960, talvez por ter um sistema de tempo compartilhado. Mas também cita o
NCR 390, lançado em 1960, teria sido o primeiro computador de mesa de baixo
custo fabricado em massa.
Martin não cita o primeiro, mas diz que apenas o PDP-8 teve sucesso
comercial para mudar a indústria de computadores (CAMPBELL-KELLY, ASPRAY,
1996, p.224). Ele não apenas foi um imenso sucesso comercial, mas também reunia
todas as características que futuramente definiriam o míni. O próprio termo míni
somente começou a ser usado no final da década de 60.
37
Figura 8. PDP-6
PDP 6 da DEC teria sido um dos computadores mais influentes de todos os tempos. No canto, de jeans, está Gordon Bell, que depois participaria do projeto do VAX. Fonte: CERUZZI.
Um das características mais marcantes do PDP 8 foi o preço, 18 mil dólares.
O PDP 1, custando 120 mil, era mais barato do que alguns acessórios de um modelo
IBM. Tão mais barato que a DEC preferiu chamá-lo de processador programável de
dados (“Programmed Data Processor”, aliás PDP) em lugar de usar “computador”,
porque na cultura da época, computador custava um milhão e era feito pelas
grandes empresas.
O PDP não podia concorrer com o mainframe em qualquer categoria, seja
cálculo, capacidade de armazenamento, pois estava muito abaixo desse, mas
custava menos de um décimo de um mainframe.
O PDP 8 usou um pacote de tecnologias que o permitiu ser mais barato do
que o PDP 1. Quanto ficou pronto, a DEC via duas opções: lançar com um preço
médio para sustentar as atividades de pesquisa e desenvolvimento, ou com um
preço mais baixo para ganhar mercado e lucrar menos por unidade e mais unidades.
Decidiu-se pelo preço baixo, inicial de 18 mil dólares chegando a 10 mil alguns anos
depois (CERUZZI, 2000, p. 133). Essa postura se mostrou correta, e as vendas
38
superaram as expectativas e a capacidade de entrega da DEC.
A principal tecnologia adotada no PDP 8 foi o circuito integrado e
transistores de germânio. O transistor surgiu em 1959 para substituir as válvulas.
Elas não eram apenas caras, eram frágeis e de curta duração. Esta substituição já
poderia ter feito uma significativa diferença no custo de equipamentos, mas sua
importância maior foi permitir a próxima invenção. Em 1961, vindo de duas frentes
distintas surgia o circuito integrado, em parte baseado no transistor. O circuito
integrado trazia várias vantagens: era mais barato, muito mais fácil de montar,
gerava menos erros e era mais duradouro. Todas essas vantagens se traduziam em
mais produção, menos erros e enorme redução de custos.
Muitos fizeram uso do transistor e do circuito integrado. A própria IBM lançou
uma versão do IBM 709 transistorizado em 1959 (GREENIA, 2001). Alguns dos sete
anões aproveitaram para lançar equipamentos por preços mais baixos, como a linha
S-2000 da Philco, ou o Spectra, lançado pela RCA em 1964, compatível com a
recém-lançada linha /360 e com até 40% de desconto (CERUZZI, 2000, p. 163). Mas
equipamentos compatíveis não eram novidade, essa sempre foi a forma de
convivência entre Branca de Neve e os Sete Anões. Isso não constituía uma nova
classe de computadores, apenas versões com descontos.
Ao contrário de outros fabricantes, a DEC não adaptou seu micro para a
nova tecnologia, ela fez um projeto desde o início voltado para o melhor uso do
circuito integrado e do transistor. Quando a IBM lançou o 709, ela apenas substituiu
válvulas por transistores sem qualquer alteração mais significativa. Quando a DEC
usou essas tecnologias elas não eram novidade, apenas foram usadas em mais
profundidade.
Além das mudanças no hardware, havia uma série de inovações internas,
como o acesso direto à memória usado a partir do modelo PDP 1, que permitia que
dispositivos de E/S acessassem a memória diretamente. A memória foi dividida em
blocos, páginas, para acessar trechos de informação. Para endereços poderia usar
apenas 7 bits, apesar do tamanho de palavra ser de 12 bits. Para superar isso usou
um processo de endereçamento indireto, o que permitiu usar toda a extensão de 12
bits para endereços23 (CERUZZI, 2000, p.132).
23 Normalmente um endereço aponta para uma informação, e este endereço pode utilizar apenas 7 bits. Mas no PDP 8 o endereço de uma informação não apontava para a informação em si, mas para outro bloco que continha seu endereço, este com 12 bits.
39
O PDP 8 funcionava em escritórios sem nenhum requisito especial de
ambiente. Isto facilitou seu uso em outras atividades como o controle de luzes de
teatro feito pelo modelo LS-8 da Eletronics Diversified, um OEM24 feito a partir do
modelo PDP-8A. Porém um dos usos mais exóticos registrados foi na colheitadeira
de batatas.
‘
Figura 9. PDP – 8
apenas o PDP-8 teve sucesso comercial para mudar a indústria de computadores. Fontes: Instituto Smithsonian e CERUZZI.
Outro destaque da linha PDP era a interface. Greenia cita o PDP 1 como um
dos primeiros computadores a ter um teclado que “permitia ao operador falar como o
computador e mudar a programação se necessário”25. Além disso a linha PDP está
associada com o desenvolvimento dos sistemas de tempo compartilhado, desde o
PDP 6 usados nos laboratórios do MIT (Massachusetts Institute of Technology) para
testes, junto com o IBM 7090 (sucessor do 709).
A documentação dos PDP, incluindo especificações internas, estava
disponível a qualquer interessado. A DEC imprimia seus manuais em papel jornal
para reduzir seu custo e poder distribuir cópias entre compradores potenciais ou
usuários. Isto fazia parte de uma nova visão comercial. A DEC vendia seus
computadores e incentivava seus clientes a conhecerem a arquitetura dos
computadores e fazerem as alterações que julgassem úteis. Isto estabelecia uma
24 OEM – “original equipment manufacturer” indica um tipo de operação comercial onde uma fábrica vende seus equipamentos para outra, que irá fazer pequenos acréscimos ou alteração e venderá sob sua marca. 25 Bell no entanto coloca o PDP 6 como 1o sistema de tempo compartilhado comercial. Não está claro se os modelos anteriores não tinham este recurso, ou se não eram funcionais.
40
nova relação de propriedade dos usuários com seus equipamentos. Nos contratos
de leasing da IBM, os clientes não podiam fazer alterações em seus computadores
porque sequer eram proprietários. Agora a DEC incentivava essa postura. Mas a
maior ousadia eram os contratos de OEM, onde computadores eram comprados por
empresas diversas em revendidos sob suas próprias marcas depois de
determinadas alterações. Casos como do LS-8, onde um equipamento era
preparado para uma utilização específica, eram comuns. Não raro o produto final
sequer fazia referência a DEC, uma opção impensável para IBM.
Essas características passaram a ser encontradas em muitas máquinas no
final da década de 60 e na seguinte. Ao contrário do mercado de mainframes, o de
míni não estava restrito a uma pequena quantidade de fabricantes. Entre 1968 e
1972 surgiram mais de 100 fabricantes, lançando um modelo a cada três meses, em
média (CERUZZI, 2000, p. 192).
7.3 O MINICOMPUTADOR E SUAS CONSEQÜÊNCIAS
Os mínis inauguraram uma nova era para os computadores. Em 1968 a IBM
alcançou a marca de 14 mil unidades instaladas do /360, uma marca impensável
para os colegas do BUNCH26 (GREENIA, 2001). Já as 50 mil unidades do PDP 8,
colocavam a DEC como um sucesso de mercado, mas sem nenhum percentual
significativo. Era um mercado de grandes quantidades e preços bem mais baixos.
Não existem números detalhados sobre número de unidades vendidas, mas Martin
fornece uma estimativa de mínis vendidos entre 1961 e 197427. A escala de venda,
antes entre centenas e unidades de milhar, passa para dezenas e centenas de
milhar.
26 Com a saída do mercado da General Eletric e RCA, os sete anões ficaram reduzidos a uma “gangue” (bunch), formado pela sigla de Burroughs, UNIVAC, NCR, Control Data e Honeywell. 27 Como a estimativa começa em 1961 e o PDP 8 somente foi lançado em 1964, devemos considerar que está incluindo nessa categoria outros modelos de computadores baratos, como o CDC 160 e o NCR 390.
41
0
50.000
100.000
150.000
Mercado de Minicomputadores
Quantidade 1.000 3.600 6.700 19.000 65.000 150.000
1961 1966 1968 1969 1972 1974
Gráfico 2. Mercado de minicomputadores.
Nas décadas de 1960 e início de 1970, os mínis cresceram a uma taxa média de 50% ao ano.Fonte: CAMPBELL-KELLY, ASPRAY.
A drástica redução mudou a relação Custo/Benefício na compra de um
computador. Com o custo reduzido em 90%, muito mais processos conseguiam
justificar a compra ou uso de um computador. Muito mais empresas puderam bancar
esses custos. O mainframe era o computador das grandes corporações, o míni seria
o computador das grandes e médias empresas.
Mesmo dentro de empresas que já possuíam mainframe, os mínis tiveram
uma presença marcante. Afinal, a visão inicial da utilidade dos mínis seria de
concentradores de dados para os mainframes. Eles fariam trabalhos iniciais de
crítica, verificação e organização de massas de informação que seriam
posteriormente processadas pelo mainframe. Em alguns casos, essas tarefas
podiam se resumir a ordenar listas de nomes ou imprimir relatórios apenas. Isso
liberaria o mainframe de trabalhos mais demorados e menos complexos, otimizando
seu uso.
Eventualmente alguns departamentos descobriram que conseguiam resolver
pequenos problemas locais com aquela máquina pequena e limitada, mas que cabia
em seus orçamentos. Começaram a surgir CPD regionais ou departamentais, que
enviavam informações na forma de arquivos para o CPD central da matriz. Era o
início da transformação dos processos.
Os primeiros processos de troca eletrônica de dados, consagrando o termo
EDI (electronic data interchange) começaram nesta época. Na maioria dos casos
eram soluções específicas para uma empresa ou para um grupo de empresas, ainda
não havia a difusão de padrões gerais de formatos para troca de informações. O
meio de transmissão era a linha telefônica comum, com taxas extremamente baixas.
42
Em casos de arquivos maiores, a solução era o envio de fitas ou disquetes. O
processo antes em papel foi trocado por material magnético apenas.
Mas o maior impacto dos mínis foi na presença digital.
Em meados da década de 60 foram montadas as primeiras versões da
ARPANET28, a rede do Departamento de Defesa que seria a origem da Internet. A
principal justificativa foi a possibilidade de usar melhor os mainframes instalados nas
universidades. Eram máquinas super poderosas para a época, cada uma
especializada em determinada área de pesquisa. Mas não era viável manter todos
os especialistas dessas áreas concentrados na universidade onde estivesse o
computador. A solução seria dar aos principais especialistas do país acesso aos
computadores de suas áreas, mesmo que remotamente. Desta forma, os melhores
especialistas de cada área teriam acesso a super computadores com ferramentas,
bibliotecas, programas, etc, voltados para suas pesquisas, independente do local
onde estivessem. Ou quase. A rede inicial tinha apenas poucos pontos. Era
necessário que o pesquisador estivesse em um dos pontos e o computador em
outro.
Mas uso remoto implicava mecanismos de comunicação entre
computadores. E mecanismos de comunicação são processos que ocupam muito
tempo, podendo manter um computador ocupado por horas, principalmente se ainda
não estão disponíveis soluções de tempo compartilhado, o que permitiria ao
computador controlar um processo de transmissão ao mesmo tempo em que atende
a outros processos (CERUZZI, 2000, p. 140).
Este era o problema: os mainframes eram muito caros e sua utilização devia
ser otimizada, permitindo que várias pessoas no país tivessem acesso. Mas por
serem tão caros eles não tinham recursos de tempo compartilhado e sua utilização
em processos de comunicação era inviável.
28 ARPA – Advanced Research Projects Agency. Agencia ligada ao Departamento de Defesa. A Arpanet foi a precursora da Internet.
43
Figura 10. PDP-8 e Colheitadeira
Um PDP-8 montado sobre uma colheitadeira de batatas. Fonte: CERUZZI.
Esse problema foi solucionado pelo míni, isto é, pelo “concentrador de
dados”. A primeira rede montada da Arpanet era uma rede de mainframes ligados a
mínis ligados entre si.
Os mínis ofereciam uma solução viável para manter comunicação entre
computadores. Seu custo de compra e seu custo hora29 eram baixos, permitiam usá-
lo como porta de comunicação.
A ARPANET eventualmente se transformaria na Internet acadêmica. Seu
crescimento acompanhou o crescimento dos mínis. Os números da Internet
permitem supor que muitos novos nós da Internet eram constituídos apenas por
mínis, sem haver um mainframe por trás. Estar conectado a Internet com um míni já
permitia acesso a uma variedade de informações e serviços. A maioria dos serviços
era voltada para o ambiente acadêmico, como o Gopher para pesquisas ou o FTP
para transferências de arquivos. Mas o principal serviço, até hoje um dos mais
fortes, foi o e-mail.
O e-mail estabeleceu uma premissa nunca vista antes: uma identidade
pessoal eletrônica. Uma pessoal passava a ter, além de todos os identificadores
44
sociais, um identificador dentro do mundo digital que funcionava fora dos muros da
universidade.
O e-mail difere totalmente de uma identificação de acesso30. A identificação
é usada para permitir acesso a recursos e informações. Permite também, em alguns
casos, a identificação do autor de determinado arquivo ou ação. A identificação não
tem como função original ser uma identificação entre usuários, embora até possa ser
usada para isso.
A função do e-mail é social, pois cria um canal de comunicação. A partir do
conhecimento do e-mail de outra pessoa, você pode manter uma conversação
privada, troca de informações e documentos.
Essa foi a primeira manifestação da existência digital: tínhamos um nome e
uma caixa de correspondência virtual.
Figura 11. Arpanet
A primeira rede montada da Arpanet era uma rede de mainframes ligados a mínis ligados entre si. Fonte: CERUZZI.
Embora muito difundido no meio acadêmico, o recurso era desconhecido
fora dessa comunidade. Mesmo dentro das universidades, nem todos tinham acesso
a esse recurso, e os que tinham não podiam usá-lo em outros lugares, apenas
29 No custo hora é necessário incluir pessoal, treinamento, energia, suprimentos, manutenção. 30 Identificação de acesso, ou ID, ou login. É um apelido usado para identificar um usuário dentro de um sistema. O usuário deve apresentar a identificação e uma senha secreta.
45
dentro da universidade. Portanto a presença digital podia ser útil para trocar idéias
com colegas de outras cidades ou estados, não era tão útil dentro da própria
instituição, ou dentro de grupos menores. Mesmo dentro da universidade,
freqüentemente o e-mail levaria muito mais tempo que um contato pessoal, portanto
sua eficiência como canal de comunicação ainda era restrito.
Havia uma existência digital, mas não era para todos, não era o tempo todo
nem ampla em termos de recursos, mas existia.
Ano 1964 1964
Nome Mainframe minicomputador
Modelo /360 PDP-8
Fabricante IBM Digital
Preço 1.000.000 20.000
Redução % 98
Tecnologias Compatibilidade e escalabilidade. Circuito impresso e transistores
Ambiente Extremamente controlado em temperatura e umidade.
Ambiente de escritório refrigerado.
Peso Centenas de quilos. Dezenas de quilos.
Operação e SO
OS 360 foi um dos maiores desafios de desenvolvimento, e nunca ficou completamente concluído.
SO simplificado, incluindo processamento de tempo real e tempo compartilhado. Menos treinamento e menos qualificação.
Arquitetura aberta
Controle máximo sobre as informações internas. Dificuldade de combinar soluções IBM com produtos de terceiros.
Distribuição gratuita de manuais. Divulgação de especificações. Intervenção do cliente na máquina é aceita e incentivada.
Mecanismos comerciais.
Contratos de leasing pesados. Hardware equivale a 1/3 do valor total.
Venda do produto. Contratos de OEM.
Imagem Concentrador de dados.
Cliente Principal
Grandes corporações. Empresas grandes e médias.
Aplicação Missão crítica. Missão critica, soluções departamentais, comunicação, apoio ao mainframe.
Tabela 3. Quadro Resumo Mainframe / míni
7.4 2O EVENTO: O MICROCOMPUTADOR
No final da década de 80, num clube de fotografia da PUC do Rio de Janeiro
ouvi o seguinte dialogo:
- Lançaram uns processadores no mercado. A gente podia comprar e inventar alguma coisa com eles para o laboratório de cópias em preto em branco.
- Como assim? - Esses processadores são baratos e muito poderosos.
Podem fazer centenas de cálculos e medições. Podíamos fazer um aparelho que calculasse o tempo de exposição das fotos, por exemplo.
- E como isso funcionaria? Eu calculo o tempo de cada
46
foto analisando a imagem. Como ele iria funcionar? - Não sei, mas esses processadores podem fazer TUDO.
Os microprocessadores se tornaram disponíveis no mercado a preços muito
acessíveis. Os aficionados viam um novo horizonte de possibilidades. De repente,
todo o poder dos computadores, real ou ficcional, estava disponível na eletrônica da
esquina. A questão passava a ser o que fazer com isso.
O microprocessador é um conjunto de componentes eletrônicos embutidos
numa única peça, um estágio muito avançado do circuito integrado. Agora ele se
apresenta como um pequeno bloco de cerâmica com centenas ou milhares de
componentes embutidos. Hoje estão difundidos em milhares de equipamentos
distintos, de telefones a máquinas de lavar, mas em 1970 seu uso ainda era muito
limitado. Os fabricantes de computadores (mínis e mainframes) começavam a usar
microprocessadores em seus equipamentos. Além destes, quem pagou grande parte
deste desenvolvimento foram as calculadoras eletrônicas. Eles substituíram as
antigas calculadoras mecânicas, barulhentas, pesadas e de uso complexo.
Empresas como HP e Texas já existiam, mas se tornaram populares através das
calculadoras. Mas os microprocessadores feitos para essas máquinas eram
dedicados, isto é, podiam executar apenas determinadas tarefas, aquelas
necessárias para as calculadoras.
Em 1971, a Busicom, fabricante japonesa de calculadoras, fez uma
encomenda para a Intel, então um pequeno fabricante de microprocessadores.
Como todos os microprocessadores de calculadoras, esses eram dedicados e feitos
sob medida para a Busicom. Os engenheiros da Intel começaram a achar que havia
outra forma de fazer microprocessadores. Em lugar de fazer um microprocessador a
cada encomenda, talvez fosse possível fazer um processador flexível, que pudesse
atuar tanto como uma calculadora como um terminal, ou qualquer outra função
imaginada. A solução técnica foi encontrada e o problema passou a ser o contrato
com a Busicom, proprietária do projeto. Esta, por sua vez, estava com sérios
problemas financeiros. O mercado de calculadoras eletrônicas mostrou-se tão
promissor que vários concorrentes surgiram e estavam todos em plena guerra de
preços. Como resultado começou uma guerra que reduziu os preços das
calculadoras em mais de 80% (FREIBERGER, SWAINE, 1984, p. 39). A Busicom
estava com dificuldades de honrar o contrato com a Intel e tentou negociar uma
redução no custo do microprocessador. A Intel aceitou, com a eliminação da
47
cláusula de exclusividade, o que permitiria a Intel vender o microprocessador no
mercado. Embora gostassem da idéia na Intel, ninguém tinha muita certeza sobre
como seria a reação do mercado a microprocessadores.
Esse microprocessador era o Intel 4004 e a reação foi excelente
(CAMPBELL-KELLY, ASPRAY, 1996, p. 236). O fato de existir um mercado ávido
por microprocessadores incentivou a Intel a lançar outros modelos, e outros
fabricantes a também oferecerem seus produtos.
A grande maioria dos compradores era aficionada em eletrônica,
descendente dos antigos radioamadores31. Eles consumiam esse tipo de material
para montarem versões caseiras de equipamentos profissionais como osciloscópios,
receptores de rádio, etc. Para isso eles compravam kits de peças anunciadas em
revistas especializadas. Em Dezembro de 1975, a Popular Electronics publicou um
artigo sobre um kit para montar um computador, o Altair, baseado no
microprocessador 8008, uma versão avançada do 4004. O kit do Altair era vendido
pela MITS (Micro Instrumentation Telemetry System), outra vítima da guerra de
preços das calculadoras eletrônicas32.
Ao ser lançado, Altair não possuía teclado ou monitor. Para entrar com
dados e programa havia chaves no painel frontal, onde também estavam os
indicadores luminosos, única saída de informações. Os recursos de programação
eram extremamente limitados e apenas aficionados com bons conhecimentos
conseguiriam montá-lo, o que podia levar horas. Com um perfil tão restrito, chega a
ser difícil imaginar qual seria sua utilidade e quem compraria tal máquina.
Para termos a visão da importância do Altair, é importante lembrar que o
acesso a computadores era muito restrito para o público em geral. Tanto que a
revista Rolling Stones descreveu os melhores meios para conseguir isso. Os
interessados deveriam procurar universidades próximas ou parentes que tivessem
negócios grandes o bastante para utilizarem computadores. Em ambos os casos,
deveriam tentar utilizar os horários livres dessas máquinas, geralmente de
31 Os radioamadores originais montavam seus equipamentos, uma vez que não havia oferta de aparelhos prontos. Daí sua conexão com as revistas de eletrônica e com a nova geração de aficionados. 32 O Altair não foi o primeiro microcomputador nem o primeiro a ser publicado numa revista. Em 1973 André Thi Troung, um empreendedor franco-vietnamita, construiu o Micral na França, vendendo 500 unidades. Em setembro do mesmo ano outra revista a Radio Electronics publicou um artigo sobre a “TV Typewriter”, que era um terminal de teletipo conectado a televisão com capaz de operações simples (FREIBERGER, SWAINE, 1984, p. 36, 43). Os méritos do Altair eram usar uma tecnologia
48
madrugada. Além disso, como era um uso concedido, haveria severas restrições
quanto ao tipo de uso. Em resumo, pouquíssima disponibilidade e nenhuma
propriedade (BRAND, 1972).
Mas em Abril de 1975, num clube de uma escola na Califórnia, um estudante
levou seu computador. Isso era inédito: ele possuía seu próprio computador. Ele era
Steve Dompier, o clube era Homebrew e o computador era o Altair.
Figura 12. Altair
O Altair não possuía teclado ou monitor. Para entrar com dados e programa havia chaves no painel frontal, onde também estavam os indicadores luminosos, as únicas fontes de saída de informações.Fonte: CERUZZI.
Ele tocou algumas músicas num aparelho de rádio usando a interferência do
Altair33. Este era o destino do Altair: experiências entre aficionados de eletrônica e
computadores, como os freqüentadores do Homebrew. Clubes como esse existiam
em vários lugares dos EUA, formados por jovens interessados em conhecer
computação. Os clubes desempenharam dois papéis importantes. Primeiro,
sustentaram uma indústria iniciante que tinha pouco a oferecer ao público geral34 -
melhor, o microprocessador 8008, e ser mais divulgado. 33 Equipamentos eletrônicos como Altair tinham pouco ou nenhum cuidado sobre interferência em outros equipamentos. Dompier usou isso para tocar ‘Fool on the Hill’ dos Beatles. A interferência que causavam em rádios e televisões tornou a vida dos pais desses jovens muito desagradável (FREIBERGER, SWAINE, 1984, p. 160). 34 Esse papel de mercado consumidor para produtos ainda não estabelecidos já havia sido desempenhado pelos aficionados em eletrônica no início do século quando os radioamadores sustentaram uma indústria iniciante de componentes e equipamentos de rádio. Nesta fase se estabeleceram as primeiras estações com programação pública, inicialmente acessível apenas para radioamadores pois não havia ainda uma indústria de aparelhos de rádio como entendemos hoje. (CAMPBELL-KELLY, ASPRAY, 1996, p. 233)
49
quem mais compraria um objeto tão complexo e de resultados tão vagos? -.
Segundo, foi um celeiro de idéias e conceitos que seriam perseguidos por estes
jovens.
Entre esses conceitos destacamos a visão de que computadores poderiam,
e deveriam, ser fáceis de usar. Isso porque eles deveriam estar ao alcance de todos,
de qualquer cidadão. Por que pessoas comuns desejariam usar computadores não
estava muito claro, nem o que fariam com eles. O que havia era uma expectativa de
que os computadores mudassem toda a sociedade, embora ninguém tenha sido
muito claro em definir como isso aconteceria. Alguns visionários se tornaram
famosos, como o Stewart Brand que organizou o The Whole Earth Catalog, mas
ficou famoso pelo artigo da Rolling Stones, Spacewar, ou Ted Nelson autor do
Computer Lib, libelo de protesto que defendia que todos podiam e deviam entender
computadores já. O computador representava poder levado ao cidadão comum.
Stewart Brand,
em Spacewar
Prontos ou não, os computadores estão vindo para as pessoas. Estas são boas notícias, talvez as melhores desde o psicodelismo.
Ready or not, computers are coming to the people. That’s are good news, maybe the best since psychedelics.
Ted Nelson, em
Computer Lib
Você pode e deve aprender sobre computadores agora.
You can and you must understand computers NOW.
O Homebrew não foi o único, mas com certeza foi o mais famoso devido a
alguns de seus membros, como o próprio Dompier, e alguns visitantes ocasionais
Steve Wozniak e Steven Jobs. Outro grupo foi o CCC, ou C Cubo liderados por Bill
Gates e Paul Allen, na época com 15 e 13 anos (FREIBERGER, SWAINE, 1984, p.
23)35.
Essa visão de que os computadores mudariam o mundo extrapolou os
limites dos clubes juvenis e foi adotada por toda a sociedade. Em 1982 a revista
Time elegeu o micro como o homem do ano. Entre os usos citados para um micro
estavam enviar cartas na velocidade da luz, diagnosticar um poodle doente, calcular
35 O C Cubo fez um acordo com a DEC para usar seus computadores. Enquanto o C Cubo achasse erros nos códigos do VAX, eles não precisavam pagar pelo uso dos equipamentos. Eventualmente a DEC cancelou o acordo porque descobriu que aqueles garotos nunca iam terminar, eles sempre
50
seguros e testar receitas de cerveja. Sobre o envio de cartas, vale lembrar que a
Internet ainda não era aberta ao público e comunidades como AOL e Prodigy ainda
não existiam. O sonho do computador transformando a sociedade, atuando em
qualquer área não pertencia mais aos aficionados, estava se espalhado pela
sociedade.
Figura 13. Revistas.
Havia uma expectativa de que os computadores mudassem toda a sociedade, embora ninguém tenha sido muito claro em definir como isso aconteceria. A revista Byte e ao lado a capa do Computer Lib. Time elege o micro como o Homem do Ano em 1982.Fontes: CERUZZI; FREIBERGER, SWAINE, 1984 e Revista Time.
Aos poucos essa visão futurista, revolucionária e pouco realista começou a
ser substituída por algo mais concreto. Uso de editores de texto, que nada tinha de
revolucionário, estava se tornando popular em escritórios. Isso já existia nos mínis e
mainframes, mas agora estava acessível a um custo impensável. Além disso havia a
liberdade, pois o micro pertencia ao escritório, enquanto para ter um terminal de um
míni ou do mainframe, era necessário solicitar ao setor de informática e ser
considerado um usuário importante. E ainda estariam a mercê das regras dos
analistas de sistemas. O micro representava disponibilidade e propriedade também
no escritório. O micro representava liberdade.
IBM e o BUNCH ignoravam os micros porque não tinham nada a ver com
automação de escritórios, empresas reais que usavam computadores reais não
comprariam micros (CAMPBELL-KELLY, ASPRAY, 1996, p. 286). Mas estava
achavam mais erros.
51
ficando difícil ignorar esse mercado. Empresas como a Micro Pro, que estava
faturando 100 milhões por ano e vendeu mais de um milhão de cópias do Word Star,
mostraram que esse mercado não era tão pequeno assim. Motivadas pela
necessidade de marcar sua presença no mercado começaram a lançar seus
modelos. Mas isso não era tão simples.
Em 1980, 5 anos depois do Altair e 2 antes do micro ser o homem do ano,
Frank Carey, presidente da IBM, perguntava a seus executivos quando conseguiriam
fazer “o seu Apple”. Ele estava incomodado pelo fato de dois adolescentes terem
criado em suas garagens o que se tornara o maior exemplo de sucesso na indústria
de computadores. A IBM já tinha feito duas tentativas de criar um micro, o
Datamaster e a Serie 5100, ambos fracassos absolutos. Enquanto isso o Apple II era
um sucesso no mercado e a firma que o criou era formada por um bando de
estudantes, não tinham os prêmios Nobel acumulados da IBM. Era uma batalha
pessoal para a direção da IBM. Nesse quadro nasceu o IBM PC, um equipamento
que quebrava algumas regras sagradas da IBM. Os computadores da IBM utilizavam
apenas componentes fabricados dentro da própria IBM e eram vendidos apenas
pela poderosa força de vendas da empresa. O PC utilizou componentes de mercado
e foi vendido na Sears (CARROL, 1994).
O IBM PC foi um sucesso acima de qualquer expectativa. Não por nenhuma
característica técnica, mas o nome IBM concedeu uma respeitabilidade e
profissionalismo que o público não via no mercado de micros. A mística da IBM,
ainda forte na época, agora chegava ao mundo dos micros. Quem ainda não
confiava nesses pequenos computadores podia contar com o aval da maior
fabricante de computadores do mundo, a IBM.
Um PC aberto e estudado no Homebrew Club (FREIBERGER, SWAINE,
1984, p. 346) surpreendeu seus membros. Era um micro muito mais poderoso do
que os que estavam no mercado, baseado num processador da Intel, o 8088, mas
isto não era a surpresa. O que não era esperado era o uso exclusivo de
componentes de mercado, o uso de um barramento aberto a expansões ou de uma
documentação técnica detalhada. Isto permitia que qualquer um fabricasse
componentes para o PC. Mas permitia também que qualquer um fabricasse um
clone. A IBM já tinha experiência anterior com clones de suas máquinas, afinal
poucas máquinas foram tão copiadas quanto o /360. A IBM acreditava que poderia
52
lidar da mesma forma, usando o nome da empresa para manter os clones restritos a
uma pequena faixa do mercado. Assim funcionou tanto na época dos Sete Anões
como do BUNCH. Mas o mercado de micros era diferente. Embora mantivesse
algum controle sobre os microprocessadores da Intel, esse controle não impediu que
ela lançasse novos microprocessadores e que outros fabricantes lançassem
computadores com esses novos processadores antes da IBM. A IBM perdeu sua
posição de dianteira e de controle do PC. O padrão PC passou a ser ditado por duas
empresas, a Intel pelo controle dos processadores e a Microsoft, pelo controle do
sistema operacional36. Depois de superadas algumas dificuldades técnicas37,
qualquer empresa poderia fabricar um PC totalmente compatível. A IBM passou a
ser apenas mais um fabricante do padrão que ela mesma havia criado.
No coração do PC estão os microprocessadores da Intel, começando com o
8088 e seguindo toda a família: 80260, 386, 486 e os Pentiuns. A estrutura de
barramento difere pouco da que foi usado no Altair. Este, no entanto, não forneceu
nenhuma documentação técnica sobre funcionamento, pois pretendia ser o único a
fazer placas. Ao longo dos anos e versões, muitas modificações surgiram, como os
padrões de conectores no barramento, que passaram pelo EISA, ISA, PCI, AGP.
Estes padrões, como tudo no PC, surgem de duas formas: ou um fabricante lança
um padrão e libera para uso geral ou um grupo de empresas define um padrão
comum. Em ambos os casos nem todos os padrões definidos foram implementados
ou adotados.
Os componentes de um PC são fornecidos por um exército de fabricantes.
Existem padrões definidos para cada grupo: discos rígidos, placas de rede, etc.
O PC tem requisitos realmente mínimos para funcionar. Temperatura
ambiente, energia de uma tomada comum, etc. Alguns modelos foram adaptados
para funcionarem nos hostis ambientes de chão de fábrica, incluindo altas
temperaturas e níveis de poeira.
36 Posteriormente a Microsoft levaria o mercado a migrar do DOS ao Windows e passaríamos a denominar esta plataforma de Wintel, numa referência ao Windows e a Intel. 37 Apenas uma peça era efetivamente proprietária na arquitetura do PC, a BIOS (Basic Input and Output System). Este microprocessador controla as funções de entrada e saída do computador. No entanto, um processo de engenharia reversa resolveu isso. Na engenharia reversa, em lugar de partir de uma especificação para um produto, observa-se um produto, a BIOS do PC, para gerar uma especificação. Desta forma os engenheiros conseguiram uma especificação da BIOS superando problemas técnicos e legais. Uma das primeiras empresas a conseguir isto foi a Compaq. Logo após veio a Phoenix Technologies, que em lugar de fabricar PC, decidiu vender BIOS para os demais fabricantes. (CERUZZI, 2000, P. 277).
53
O padrão mais forte do PC é o sistema operacional. Desde o primeiro IBM
PC, que veio com PC-DOS, a Microsoft tem definido o sistema operacional dos PCs.
Surgiram algumas alternativas ao longo do tempo, como o DR DOS (Digital
Research), o Unix da SCO (Santa Cruz Operations), uma versão de MUMPS e
algumas versões de Linux. Por vários motivos, a Microsoft manteve o controle do
sistema operacional do PC. Ela chegou a conduzir a migração de um ambiente
caracter (DOS) para um ambiente gráfico (WINDOWS), incluindo uma série de
recursos nesse processo. Hoje esse controle se estende mesmo sobre editores de
texto, planilhas e browsers. A Microsoft assumiu o papel que era da IBM anos antes.
Em seus tempos áureos a IBM não era um competidor, era o “ambiente”, onde as
demais empresas circulavam. Estas se adaptavam aos produtos e características da
IBM, e geravam produtos complementares (FREIBERGER, SWAINE, 1984), p. 345).
Agora era a vez da Microsoft.
O fato é que foram estabelecidos padrões em software e arquivos. O editor
de texto padrão é o Ministério da Saúde Word e o padrão de documento aberto38 é o
DOC. Planilhas seguem o Excel, etc. Produtos que tentam conseguir uma brecha
neste mercado precisam provar compatibilidade com os arquivos Microsoft, ou serão
ignorados pela imensa maioria do público. Discutir se isso é bom ou mal é uma
discussão longa e de difícil conclusão. O monopólio tem óbvios aspectos negativos,
mas também tem trazido alguns positivos, como a consolidação de padrões.
Outro aspecto positivo é que esse ambiente é mais aberto do que o anterior.
Quem desejar hoje desenvolver um computador PC encontrará todas as peças e a
documentação disponível. Fabricar um PC não é mais exclusividade de uma
empresa. Aliás, sequer a confecção dos microprocessadores está a salvo de
concorrentes. A Intel pode controlar a definição de novos microprocessadores, mas
os já existentes sofrem uma pesada concorrência de outras empresas. Na área de
software é possível até desenvolver um novo sistema operacional, porque
novamente toda a documentação necessária está disponível. Se isso é uma boa
opção comercial, é outra história. Quanto a desenvolver um editor de texto que seja
compatível com o Windows ou com os documentos do Word também é possível.
Embora estejamos vivendo um monopólio de uma empresa tão grande ou maior do
que o que a IBM tinha, hoje é possível obter muito mais informação do que jamais o
38 Aberto no sentido de um documento que pode ser alterado. Para documentos fechados para
54
foi.
Com esta liberdade de acesso a componentes e informações, surgem vários
fabricantes/montadores de PC a cada ano. E todos os canais de vendas são usados.
A IBM foi quase profética ao lançar seu PC numa loja de departamentos. Hoje
podemos achá-los disputando espaço entre geladeiras e fogões em supermercados
e lojas de departamento. A relação entre o fabricante e o comprador também é
semelhante ao vendedor da geladeira, em termos de prazo de garantia, por
exemplo. Acabou a intensa relação entre fabricante e usuário que caracterizou o
mainframe e diminuiu nos mínis.
7.5 O MICROCOMPUTADOR E SUAS CONSEQÜÊNCIAS
Uma coisa em comum unia tanto os visionários, a IBM, a revista Times e os
membros do Homebrew Club: todos achavam que o micro era uma ferramenta
pessoal, para ser usada mais em casa do que no trabalho. Essa imagem durou
algum tempo, mas depois algo mudou. Talvez tenha sido o endosso da IBM ao
mundo dos micros. O fato é que o PC se instalou nos escritórios como ninguém
esperava. Eventos posteriores, como as redes locais, reforçaram a utilização
profissional do PC no escritório. Ao contrário do que a IBM pensava, os micros
fizeram a verdadeira automação de escritórios.
Em muitas empresas adotou-se o padrão de um micro por funcionário. Isto
implica que todo funcionário pode enviar e receber informações por via eletrônica.
Isto também implica que toda informação que circula na empresa pode circular por
meio eletrônico. O conceito de digitação39 quase desapareceu. Muitos processos
possuem uma cópia em papel apenas como segurança, mas para todos os efeitos,
vale a informação eletrônica.
Com os mínis a maioria das empresas pode converter suas informações
para meios eletrônicos, mas esses recursos nem sempre estariam à disposição na
ponta do processo. Um gerente financeiro teria que solicitar ao CPD que preparasse
e enviasse um arquivo para outra firma, ou departamento, que seria recebido por
alterações existem outros padrões e o mais forte é o PDF, um dos poucos padrões não Microsoft. 39 Ainda existem alguns eventuais casos de digitação, mas são poucos e estão desaparecendo. A grande maioria das informações é captada direto na fonte, seja por digitação do cliente, ou do operador ou por leitura óptica. Atividades como preparação de dados ou concentração de dados desapareceram. Os 0,centros de digitação da década de 60 e 70 sumiram.
55
outro CPD e convertido, talvez em papel, para o outro gerente financeiro. Com o
micro esse processo mudou. O próprio gerente pode controlar o processo. O CPD
tem agora o papel de criar e manter as ferramentas para tal, mas a operação é
executada pelos gerentes nas pontas. Em alguns casos, usando recursos como
planilhas e e-mail, não há nenhuma interferência do CPD no processo.
Outro aspecto é o das informações não estruturadas. São memorandos,
fotos, gráficos, textos, qualquer tipo de informação que não esteja dentro de uma
base de dados estruturada. Em muitas organizações o documento digital assumiu o
papel de original. O original em papel foi substituído pelo arquivo eletrônico
localizado dentro da rede. No lugar de auxiliares levando memorandos, temos e-
mails levando cópias de arquivos, ou apenas seu endereço na rede.
Mas se na empresa o micro transformou dezenas de processos em
processos virtuais, o impacto maior é na vida pessoal. O micro afetou os três
aspectos que influenciam na presença digital: tempo, localização e propriedade.
Hoje o indivíduo tem acesso a vários computadores diferentes. O primeiro é
em casa, pois o custo é perfeitamente aceitável para a classe média. Em segundo
lugar vem o do trabalho, onde tanto pode ter um equipamento dedicado ou utilizar
intervalos de colegas. Em terceiro lugar vêm vários endereços públicos, como
escolas, universidades, cafés com aluguel de micros. Existe um alto grau de
variação, dependendo do poder aquisitivo, tipo de trabalho, local da moradia, mas
nunca houve tanta oferta de acesso a computadores como hoje. O fato de uma
família ter um ou mais computadores em casa não chega a causar surpresa e
algumas estatísticas falam de 50% das casas equipadas com microcomputadores40.
Isto influencia diretamente no tempo de acesso. Serviços como e-mail são afetados
por esta disponibilidade de tempo. Se é possível enviar um e-mail e verificar a
resposta várias vezes por dia, este recurso pode ser usado para acessar pessoas
cada vez mais próximas. Trocamos telefonemas por e-mails dentro das empresas e
em nossas vidas privadas. Essa disponibilidade de equipamentos reduz o problema
de localização, da necessidade de se deslocar para ter acesso a um computador.
Por fim temos a propriedade sobre o equipamento. As regras dentro das empresas
se tornaram muito mais flexíveis. Usar o e-mail do trabalho para fins pessoais está
em pauta em todas as empresas, mas já é uma realidade. Esse é um exemplo do
40 Mais de 50% nos EUA, mais de 10% no Brasil EM 2000 (IBGE, 2000)(U.S. CENSUS, 2000).
56
grau de liberdade desse funcionário sobre o equipamento. Outro aspecto é que
muitas pessoas possuem seu próprio computador em casa, sobre o qual tem total
propriedade.
O impacto deste aumento de tempo, localização e propriedade é enorme. O
uso de meios eletrônicos pela população em geral deixou de ser uma exceção para
se tornar comum. Ter um e-mail não significa mais que você está na universidade,
nem que seja um técnico em informática. Ele é um canal de comunicação comum
para muitos relacionamentos pessoais. Novas formas de comunicação eletrônica
surgiram e estão sendo adotadas rapidamente. Serviços de mensagens
instantâneas são uma das últimas modas e crescem rapidamente. Até mesmo ter
uma página pessoal não é mais tão incomum.
Mas o indivíduo não se relaciona eletronicamente apenas com outros da
comunidade. Empresas em organismos assumiram essa versão eletrônica como
algo a ser levado em consideração. Bancos oferecem serviços em suas páginas
WEB e o governo aceita declarações de renda em seu sítio. Ter uma página com
informações básicas é considerado obrigatório para qualquer nível de governo ou
empresa de certo porte. Independente do fato de ser rentável ou não, não é mais
possível ignorar o cidadão digital.
A soma de todas essas frentes levou a presença digital ao nível de
cidadania. Passamos da etapa de discutir se existe uma presença digital, estamos
na etapa de discutir o que é isso e quais são suas implicações legais e sociais.
57
Ano 1964 1982
Nome minicomputador Computador pessoal
Modelo PDP-8 IBM PC
Fabricante Digital IBM
Preço 20.000 2.000
Redução % 98 90
Tecnologias Circuito impresso e transistores Processador programável.
Ambiente Ambiente de escritório refrigerado. Ambiente de escritório e residencial normal
Peso Dezenas de quilos. 10 a 5 quilos
Operação e SO
SO simplificado, incluindo processamento de tempo real e tempo compartilhado. Menos treinamento e menos qualificação.
Dispensa o profissional, pode ser operado pelo usuário. Interface gráfica.
Arquitetura aberta
Distribuição gratuita de manuais. Divulgação de especificações. Intervenção do cliente na máquina é aceita e incentivada.
Com um padrão de hardware quase independente de fabricante, há uma total independência do fabricante.
Mecanismos comerciais.
Venda do produto. Contratos de OEM.
Venda em lojas como eletrodoméstico.
Imagem Concentrador de dados. Terminal inteligente
Cliente Principal
Empresas grandes e médias. Empresas de qualquer tamanho. Cliente privado.
Aplicação Missão critica, soluções departamentais, comunicação, apoio ao mainframe.
Missão crítica, soluções departamentais, automação de escritório.
Tabela 4. Quadro Resumo míni / PC
7.6 3O EVENTO: O PDA
As inovações, principalmente as de maior sucesso, costumam ter vários
pais, a computação não foge à regra. O transistor é um raro momento de um
inventor só, mas o circuito integrado é disputado entre Robert Noyce e Jack Kilby. A
contribuição de cada membro da equipe que desenvolveu o microprocessador
programável, o 4004 da Intel, já gerou outra leva de discussões. O PDA ainda não
entrou nessa polêmica, talvez porque ainda não tenha feito tanto sucesso.
Em 1987 Mitchell Kapor, fundador da Lótus, discutia com Jerry Kaplan os
recursos a serem implementados num novo programa da empresa, o Lótus Agenda.
Era uma agenda pessoal que rodava em PC. O primeiro problema do programa
estava fora dele. Para acioná-lo era necessário ligar o micro, um potente 286 portátil
da Compaq. O tempo necessário para ligar o micro, carregar o DOS e por fim o
Lótus Agenda era desanimador. Além disso o tamanho do micro, mesmo o portátil,
obrigava o uso de uma mesa e espaço para acessar e verificar a agenda. Desta
constatação surgiu a idéia de criar um computador pequeno. “A questão é quão
pequeno e leve você pode fazer um computador portátil” disse Kaplan (KAPLAN,
58
1994, p. 9).
Desse questionamento surgiu a iniciativa para fazer o primeiro computador
sem teclado, com reconhecimento de escrita manual, o GO. A empresa, depois de
várias associações, compras e recompras, foi encerrada em 1994 sem conseguir um
espaço no mercado. Durante esse tempo, no entanto, eles agitaram bastante o
mercado. O sistema operacional baseado em caneta, o Penpoint, foi licenciado pela
IBM e intensamente negociado com Microsoft e Apple.
Durante algum tempo muito se falou em computação baseada em caneta,
como o próximo e natural caminho para a interface entre homens e computadores41.
Em maio de 1992, John Sculley, CEO da Apple, apresentou o Newton como um
PDA, Personal Digital Assistant, uma convergência de vários aparelhos em um só.
Estava lançado o conceito do PDA42.
Figura 14. GO
O pioneiro Go era demasiado grande e pesado para ser efetivamente portátil. Na verdade, a proposta não era de criar um portátil, e sim uma nova forma de interface. Fonte: KAPLAN.
Os equipamentos dessa época – o Newton, o Go e o NCR3125 – sumiram
41 Meyer apresenta uma introdução muito interessante em Pen Computing, A Tecnology Overview and Vision. Entre os destaques está o conceito de “pen information” que seria um novo tipo de informação, não apenas textual, mas rabiscada. 42 Segundo Kaplan o objetivo de Sculley era dar um novo nome aos computadores baseados em caneta e sugerir que esta era uma idéia original da Apple (KAPLAN, 1994, p. 228). Seja como for, o conceito de PDA perdurou.
59
sem deixar maiores lembranças. Esses equipamentos saíram de mercado por
razões diversas. O pioneiro Go, por exemplo, era demasiado grande e pesado para
ser efetivamente portátil. Na verdade, a proposta não era de criar um portátil, e sim
uma nova forma de interface.
O PDA está hoje na mesma fase que os microcomputadores na década de
80, definição de padrões. Ao contrário dos micros, onde havia uma dezena de
marcas e padrões antes do PC, o mercado de PDA se divide em duas vertentes
Windows CE e Palm. Atrás desta divisão está mais do que apenas as empresas que
sustentam as marcas, são propostas distintas, que precisam ser entendidas
separadamente.
Lançar um sistema operacional para computadores de mão já estava nos
planos da Microsoft desde 1992, guiando um time de desenvolvimento que
trabalhava no projeto de uma versão própria de algo semelhante ao Newton. A idéia,
no entanto, acabou por ser arquivada dois anos depois, na mesma época em que o
Newton começava a deslanchar (GILLET, 2002).
Em 1995 a Microsoft lançava o Windows 95, a maior modificação em seus
sistemas desde o inicio do Windows 3 em 1990. O Windows 95 trouxe grandes
mudanças nos conceitos de interface com o usuário, e novamente surgiu a idéia de
lançar uma versão para computadores de mão. Desse esforço nasceu o Windows
CE, Compact Edition. Mas o objetivo da Microsoft não era apenas computadores. O
Windows CE foi desenvolvido para qualquer aparelho eletrônico que pudesse utilizar
uma interface elaborada. A lista incluía máquinas fotográficas, televisores,
fotocopiadoras, carros, telefones com visor. O conceito era de uma interface única e
universal. Qualquer aparelho que pudesse utilizar uma interface com o usuário teria
o mesmo diálogo. Esse conceito não avançou no mercado e, além de umas poucas
demonstrações, nenhum aparelho efetivamente adotou a proposta ainda.
Mas o Windows CE encontrou um grupo de super agendas, como a linha
Omminibook da HP já disponível desde 1993. Uma evolução natural das
calculadoras, eram pequenos computadores, com planilhas, editores de texto e
outros recursos. Esses pequenos computadores tinham sistemas operacionais
proprietários desenvolvidos por fabricantes. Isto limitava a oferta de software, porque
apenas os fabricantes tinham condições e interesse em produzir software para os
pequenos computadores.
60
Figura 15. Ombook
O Windows CE encontrou um grupo de super agendas, como a linha Ombook da HP, já disponível desde 1993. Fonte: Compaq.
O Windows Ce ofereceu uma opção de padrão para que fabricantes e
desenvolvedores se unissem em torno de uma nova plataforma.
O modelo de duas partes, visor sensível a toque e teclado, foi adotado por
muitas empresas além da HP, incluindo Casio, Compaq, LG, Hitachi, Ericsson e
NEC. Todas possuíam um formato muito similar. Apesar da tela sensível,
reconhecimento de escrita não estava incluído. O custo médio de um dispositivo era
de U$ 500 (GILLET, 2002).
No ano de 1996 a Palm entrou no mercado. Com menos recursos e custo
menor, a Palm conquistou uma larga fatia do mercado, o que obrigou a Microsoft e
seus parceiros a reconsiderar seus produtos. A HP foi uma das poucas que
continuaram com modelo de teclado e visor em duas partes. Um novo modelo do
Windows CE seguia os passos do Palm, que seguia os do Newton, um visor grande,
alguns botões na base e reconhecimento de escrita. Nessa nova fase entraram
novos fabricantes, como Everex e Philips.
Atualmente a linha de mais sucesso dos Windows CE é a iPaq da Compaq,
que responde pela quase totalidade das vendas de Windows CE. O sistema foi
rebatizado de Pocket PC e luta para reconquistar seu espaço no mercado.
61
Vendas de PC, Notebooks PDA
-
5
10
15
20
25
30
1996 1997 1998 1999 2000 2001 2002
Mil
hõ
es
Desktops Notebooks PC PDAs
Gráfico 3. Vendas de PC, Notebook e PDA
Segundo dados da NPD, as vendas de unidades de PDA passarão as de PC (de mesa de portáteis) em 2002, após ter passado os portáteis em 2000 e emparelhado nos PC de mesa em 2001. Fonte: NDP.
A Microsoft não desistiu de um mundo de utensílios eletrônicos rodando
Windows CE, e periodicamente propõe novos produtos que adotarão esta interface.
O PDA ajuda essa iniciativa de duas formas. A primeira é de ser o único elemento
fora o PC que roda o Windows CE, a segunda é permitir que o sistema se popularize
e assim tentar levá-lo a novos horizontes.
O primeiro PDA usando o Palm OS (Palm Operation System) nasceu em
março de 1996, lançado por uma pequena empresa de componentes eletrônicos, a
US Robotics, que cresceu vendendo modem. Um ano depois a US Robotics seria
comprada pela 3Com, a grande empresa de componentes de comunicações, para
resolver um problema com protocolos de modem43. No brinde nasceu a Palm Inc,
subsidiária da 3Com que iria gerenciar os produtos Palm. (PALM SOURCE, 2002).
A filosofia original da plataforma Palm era expandir o uso do Palm OS para
além da Palm Inc. Essa era a visão dos projetistas originais Jeff Hawkins, Donna
Dubinsky, e Ed Colligan. Por isso não foi surpresa ver outras empresas lançando
PDA baseados em Palm OS.
43 A US Robotics e a 3Com haviam lançados protocolos para modens de 56K, e o mercado estava parado esperando ver quem venceria a briga. O impasse estava prejudicando todos, tanto as duas empresas como os clientes. A 3Com adotou uma solução radical, comprou a US Robotics e lançou um terceiro protocolo que reconhecia os dois anteriores.
62
Em 1997 a IBM lança seu PDA baseado em Palm OS, uma clara versão
OEM dos produtos da Palm Inc. No mesmo ano a Symbol lança soluções completas,
incluindo leitor de código de barras e controle de inventários. Essa solução ainda é
muito popular em controle de passageiros nos aeroportos brasileiros. Em 1998
Hawkins, Dubinsky, e Colligan saem da Palm e fundam a Handspring, com plenos
direitos de uso da plataforma Palm OS. Hoje a lista da empresas que fabricam PDA
com Palm OS conta com nomes como Acer, HandSpring, Kyocera, Nokia, Palm,
Samsung, Sony e Symbol, TGRpro44.
Em 2000 a Palm Inc viria a se separar da 3Com.
Durante todo o processo a Palm Inc desempenhava dois papéis, de
fabricantes de equipamentos e de responsável pelo sistema operacional utilizado por
todos esses fabricantes. Era ao mesmo tempo concorrente e parceira das demais
fabricantes de PDA Palm OS. Esta situação levou a divisão da Palm Inc em duas
empresas, a Palm Inc responsável pela linha de equipamentos e a Palm Source,
responsável pelo sistema operacional Palm OS.
A proposta da plataforma Palm é simplicidade, tanto para interface com o
usuário como uma forma de reduzir custos. Para o usuário tudo deve ser o mais
simples possível, desde como acessar uma agenda a como inserir informações. Por
outro lado, a tela de baixa resolução e programas com pequeno consumo de
memória permitem uma significativa redução de custos. Outro aspecto da plataforma
é o esforço de seus fundadores em torná-la o mais acessível possível. Hawkins,
Dubinsky, e Colligan lutaram para que o Palm não fosse apenas um produto a mais
da US Robotics ou da 3Com, mas uma plataforma em que muitas empresas
pudessem entrar. Eles entendiam que este seria o único meio de crescer como um
padrão.
A batalha entre o Windows e a Palm está longe de acabar. Até o momento o
mercado está mais favorável ao Palm, detentor de 80% do mercado nos últimos
anos, apesar dos esforços intensos da Microsoft. Periodicamente, surgem artigos
dizendo que o Pocket PC está crescendo e deverá ameaçar a posição do Palm.
Estes artigos vêm sendo escritos desde 1998, e até agora os avanços não foram
duradouros.
No final de 2002 ambas as plataformas estão em disputa por melhores
44 Atualmente conhecida como HandEra.
63
resultados com a nova família de microprocessadores da Intel, Xscale. Esses
microprocessadores passaram por uma longa negociação para o uso da tecnologia
ARM45. O Pocket PC saiu na frente, pois lançou primeiro seus modelos com os
novos processadores, como Compaq, Acer, HP e Toshiba. A ressalva a esses
modelos é o fato do Pocket PC não ter sido otimizado para aproveitar a nova
arquitetura, portanto não ser capaz de explorar o potencial dos microprocessadores
Xscale. A plataforma Palm também lançou seus modelos no final do ano, pela Sony
e a própria Palm. Um dos atrativos da Palm é a nova versão Palm OS 5, com várias
promessas, entre elas recursos multimídia, melhor resolução de imagem, recursos
de segurança e maior poder de processamento.
O curioso é que enquanto o Pocket PC tenta simplificar a interface, a Palm
promete recursos multimídia, melhoria na parte gráfica, etc. Aparentemente, as
plataformas se aproximam de um meio termo, talvez mais a frente não existam
tantas diferenças entre ambas. As dúvidas são se o Pocket PC poderá manter sua
interface Windows e se tornar realmente ágil e se o Palm poderá acrescentar todos
esses recursos e ainda ser simples e barato.
Como até o momento o Palm mantém 80% do mercado, este estudo o
considera padrão de PDA até o momento.
Além da questão da briga interna entre Windows CE x Palm, existe a
questão sobre como o mercado está reagindo aos PDAs. Segundo dados da NPD,
as vendas de unidades de PDA passarão as de PC (de mesa de portáteis) em 2002,
após ter passado os portáteis em 2000 e emparelhado com os PC de mesa em
200146.
Outro indicador é o número de desenvolvedores que estão trabalhando com
PDA. Inicialmente havia 2.000 desenvolvedores, em março de 1997, passando a
mais de 140.000 em quatro anos. Os números são de profissionais que se
cadastraram na Palm Soucer, que reflete apenas uma pequena parcela deste
público (PALM SOURCE, 2002).
45 ARM é uma empresa especializada em processadores RISC. Ver www.arm.com 46 Detalhes sobre este gráfico no anexo.
64
Número de desenvolvedores
0
50.000
100.000
150.000
03/97 09/97 03/98 09/98 03/99 09/99 03/00 09/00
qtd 2.000 3.595 13.751 41.000 65.000 100.000 140.000
03/97 12/98 06/99 03/00 04/00 09/00 01/01
Gráfico 4. Número de desenvolvedores.
Gráfico de crescimento do numero de desenvolvedores para PDA. Fonte: Palm Source.
Alcançar as vendas do PC não significa que haverá tantos PDAs quanto
PCs, pois temos PC que estão há mais de dez anos em atividade. É extremamente
difícil calcular a quantidade de PC ainda em uso. Mas temos um novo modelo de
computador, que segue vários padrões e cujas vendas deverão passar o PC, o
computador mais popular até hoje. O PDA é o próximo computador de baixo custo.
O PDA é um computador de mão, composto por uma tela sensível a toque e
alguns botões.
A tela lembra um pouco as do antigo DOS, geralmente em preto e branco e
de baixa resolução. São sensíveis a toque, portanto é possível desenvolver
programas de desenho ou que recebam informações da tela. Para escrever na tela,
acompanha uma caneta especial47.
Pode ser alimentado por baterias internas ou por pilhas disponíveis em
qualquer banca de jornal. Duas pilhas podem durar até duas semanas de uso
ocasional. Há também uma base que o conecta a um micro. Esta conexão permite
troca de informações entre o PDA e o micro, que pode ser usado para cópia de
segurança. Existe uma porta de sinal infravermelho que permite troca de
informações com outros PDA ou outros aparelhos com o mesmo recurso.
47 Na verdade é apenas um bastão de plástico com uma ponta redonda.
65
Os PDA aceitam uma variedade de cartões de expansão, de Smart Card a
Secure Cards. A Palm Source, como detentora do padrão Palm OS, está tentando
padronizar em torno do Secure Card..
Quatro botões permitem acesso direto a programas instalados. O padrão de
fábrica é diário, agenda de telefones, lista de tarefas e bloco de notas, mas esse
padrão pode ser alterado. Utilizando essa forma de acesso é possível ligar o
aparelho e acionar um programa sem sequer ver nenhuma tela do sistema
operacional.
O principal uso do Palm ainda é pessoal, no entanto começam a surgir os
primeiro usos profissionais: aparelhos com leitores de código de barra e conectados
por rádio-freqüência fazem o controle de passageiros em aeroportos, vendedores
trocam pequenos PC portáteis por PDA (Coca Cola).
Apesar de existirem vários exemplos sobre como usar um PDA, estamos
repetindo o evento da revista Times, quando elegeu o micro como Homem do Ano,
repletos de possibilidades, mas sem base para entender quais serão as reais
utilizações do PDA. De concreto temos o mesmo que a Times tinha, a certeza de
que o PDA chegou para ficar.
Figura 16. Modelos de Palm
Alguns modelos de PDA, todos PALM OS. Fonte: Palm Souce.
66
Ano 1982 2002
Nome Computador pessoal Assistente digital
Modelo IBM PC Palm III
Fabricante IBM 3Com
Preço 2.000 400
Redução % 90 80
Tecnologias
Processador programável. Reconhecimento de escrita e tela sensível.
Ambiente Ambiente de escritório e residencial normal Portátil
Peso 10 a 5 quilos 200 gramas
Operação e SO
Dispensa o profissional, pode ser operado pelo usuário. Interface gráfica.
Pouca interação com o SO. Aciona aplicativos diretamente.
Arquitetura aberta
Com um padrão de hardware quase independente de fabricante, há uma total independência do fabricante.
Mecanismos comerciais.
Venda em lojas como eletrodoméstico.
Pacote hardware + SO vendidos como item único.
Imagem Terminal inteligente Agenda
Cliente Principal
Empresas de qualquer tamanho. Cliente privado.
Pessoa física e empresas.
Aplicação Missão crítica, soluções departamentais, automação de escritório.
Indefinido.
Tabela 5. Quadro Resumo PC / PDA
7.1 GERAÇÕES DE COMPUTADORES
A classificação de computadores por gerações era muito popular, fazia parte
dos currículos de ensino e das discussões acadêmicas. Ela apresentava os
computadores numa progressão de tecnologias e capacidades indicativas de quais
seria seus próximos estágios.
Geração Características Exemplos
Primeira 1944-1959
Baseados em válvulas a vácuo, cartões perfurados para entrada e saída de dados, cerca de 1000 circuitos por pés cúbicos.
Harvard Mark I (electromechanical), Whirlwind, ENIAC, EDSAC, UNIVAC I, UNIVAC II, UNIVAC 1101, NCR CRC 102A, IBM models 604, 650 (drum memory), 701, 702, 704, 705, 709
Segunda 1960-1964
Uso de transistores e cerca de 100.000 por pés.
UNIVAC 1107, UNIVAC III, IBM 7030 Stretch, IBM 7070, 7080, 7090, 1400 series, 1600 series, Control Data Corp. CDC 1604, 3600, 160A,
Terceira 1964-1975
Alta escala de integração de circuitos, cerca de 10 milhões de circuitos por pés quadrados.
Control Data 3300, 6600, 7600, IBM System/360, System 3, System 7, NCR Century Series, RCA Spectra 70 series, UNIVAC 9000 series
Quarta 1975-atual
Altíssima escala de integração, continua miniaturização e bilhões de circuitos por pés cúbicos.
IBM System 3090, IBM RISC 6000, IBM RT, ILLIAC IV, Cray 2 XMP, HP 9000
67
Quinta Current and
Future
Extremamente alta escala de integração de circuitos, processamento paralelo, alta velocidade de circuitos de lógica e memória, alta performance, micro miniaturização, integração de voz e dados, plataformas de base de conhecimento, inteligência artificial, sistemas especialistas, geração de realidade virtual e conexão com satélites.
Tabela 6. Tabela de Gerações
Tabela de classificação de computadores por gerações. Fonte: GREENIA.
Essa classificação enfatizava questões técnicas, tecnologias usadas. Não
são considerados aplicações, usos ou quaisquer outros aspectos. Isso gera algumas
incongruências. O IBM 709 está na primeira geração enquanto o 7090 está na
segunda. Mas são máquinas idênticas, onde válvulas foram substituídas por
transistores. O projeto era o mesmo, o desempenho era o mesmo, o preço era o
mesmo. Sob todos os aspectos perceptíveis ao cliente, era a mesma máquina.
Outro problema foram as novas máquinas que estavam chegando ao
mercado e não se encaixavam em nenhuma categoria. Primeiro foram os mínis,
como os PDP que Grennia simplesmente omitiu de sua lista. Eles estariam na
segunda ou terceira geração, mas não podiam ser comparados as máquinas desses
grupos, como o System/360 da IBM ou os CDC 6000 da Control Data. Na verdade
eram maquinas mais avançadas, mas que tinham um resultado muito abaixo do
resto do grupo. A definição de gerações vinha embutida de uma visão de poder
crescente a cada geração de computadores, impulsionada por avanços
tecnológicos. Em parte isso aconteceu, com empresas como IBM, Control Data e
outras lançando modelos cada vez mais poderosos. Mas por outro lado vieram os
mínis e micros, máquinas que, embora usassem essas novas tecnologias,
apresentavam um resultado final muito abaixo do que já estava disponível no
mercado.
Outro problema com a definição de gerações foi o ambicioso projeto do
computador de quinta geração. Até então as gerações foram definidas baseadas em
equipamentos existentes, já desenvolvidos. Mas no início da década de 80, quando
o governo japonês anunciou um projeto de pesquisam para desenvolver um super
computador, iniciou-se a corrida para o computador de quinta geração
(HUTCHINSON, 2002)48. Depois de uma década, não apenas não havia resultados
48 Em 1981 o Ministério do Japão anunciou um esforço de 10 anos para produzir o computador de quinta geração, que teria, entre outros recursos, linguagem natural, manipulação de bases de conhecimento e reconhecimento visual em níveis humanos. Este anunciou gerou uma grande inquietação no ocidente, onde também se iniciou a corrida pelo computador de quinta geração. Hoje, no entanto, grandes partes desses objetivos ainda estão muito distantes de serem alcançados. (HUTCHINSON, 2002) (CERUZZI, 2000, P. 11)
68
significativos como o mundo estava sendo invadido pelos microcomputadores. Estes
estavam mudando os conceitos de informática e estavam muito distantes dos
sonhos do computador de quinta geração.
Gordon Bell propôs uma nova visão sobre classes de computadores e sua
evolução.
Lei de Bell de classes de
computadores
Novas plataformas de computadores emergem baseadas na evolução da densidade dos processadores49.
Classes de computadores precisam de novas plataformas50, redes e cyberização51.
Novas aplicações e conteúdo são desenvolvidos em torno de cada nova classe.
Cada classe surge de uma indústria verticalmente desintegrada e de softwares padrões.
Na visão de Bell o aumento na densidade dos processadores é o
responsável direto pela criação de novas classes de computadores, num processo
onde várias mudanças quantitativas possibilitam uma mudança qualitativa. Essa
mudança deve ser acompanhada de mudanças de plataformas, redes e aplicações.
Lei de Bell da evolução das classes de computadores
Tecnologia permite dois caminhos:
Performance constante, custo decrescente.
Preço constante, performance crescente.
Essa lei descreve as opções que cada empresa tem quando surge um
significativo avanço tecnológico. Preço constante e performance crescente é
oferecer mais resultados pelo mesmo preço. Performance constante e preço
decrescente é aproveitar o avanço tecnológico na redução de preço.
49 Esta frase refere aos processadores, uma variação avançada dos circuitos integrados. Estes não estariam disponíveis antes de do final da década de 60. Antes disso, no entanto, podemos considerar a lei válida, mas se referindo à densidade de componentes eletrônicos dos computadores como um todo. 50 O termo “plataforma” aqui se refere a um conjunto de padrões incluindo sistema operacional e outros padrões. 51 O termo cyberização é uma invenção de Bell e significa a inclusão no ciber-espaço através d7e uma interface digital.
69
Gráfico 5. Gráfico de Gordon Bell
Gráfico de Gordon Bell sobre o surgimento de novas classes a partir do aumento da densidade dos processadores. Fonte: BELL.
O caminho de manter o preço e aumentar a performance, para Bell, não
caracteriza uma nova classe. O mainframe, mesmo mais poderoso, continua tento
as mesmas características, incluindo plataformas, redes e aplicações. Já o míni,
onde essas características foram alteradas, pode ser considerado uma nova classe.
Na visão de Bell, novas classes têm mesma capacidade e preço menor, enquanto as
classes já existentes se distanciam aumentando suas capacidades.
Mas a abordagem de Bell também tem problemas. A proposta de oferecer o
mesmo desempenho por um preço menor não era do míni, e sim dos clones cujo
termo preferido era compatibilidade.O míni pretendia ser uma máquina menor, por
um preço muito menor. Da mesma forma aconteceu com o micro. Quando surgiu
este não pretendia competir com o míni.
Ampliando a visão de Bell, temos uma terceira opção, a de preço
decrescente e desempenho decrescente. Este é o computador de baixo custo.
70
Gráfico 6. Variação de Bell
Variação do gráfico de Gordon Bell sobre o surgimento de novas classes. Junto às duas opções (preço constante e mais desempenho X preço reduzido e desempenho constante) surge a terceira opção de onde saíram os mínis: redução de preço e desempenho. Fonte: BELL.
Apesar de discordar de Bell sobre “manter desempenho pelo mesmo preço”,
as demais definições se apresentam idênticas. Cada novo computador de baixo
custo desenvolve em torno de si novas aplicações e conteúdo.
71
8 RESULTADOS
A primeira hipótese é que há um evento na história dos computadores que
se repete ciclicamente. Este evento é o computador de baixo custo. As
características que o definem são em maioria comparações entre ele e os
computadores existentes na época de seu lançamento. A mais significativa é a
redução em 90% no preço. Não se trata de uma versão econômica, com uma
pequena variação no preço e algumas restrições de desempenho. É uma nova
classe de computadores produzidos por fabricantes que desejam atingir um
segmento de público, com menor poder aquisitivo.
Mas não é possível atingir essa redução no preço sem reduzir também a
capacidade de processamento, que é reduzida em 99%. Isso implica que esse
computador não será capaz de executar as tarefas que os computadores normais
executam, e terá que buscar novas aplicações.
Para atingir a redução de preço em 90%, várias soluções precisam ser
adotadas, passando por tecnologias usadas, ambiente necessário, interface com o
usuário, arquitetura interna e relações comerciais.
As tecnologias usadas são apenas as já disponíveis no mercado, cujo custo
com pesquisa e desenvolvimento já foi pago ou amortizado. As exigências de
ambiente físico para a instalação do equipamento, como temperatura e condições da
rede elétrica, devem ser menores, permitindo não apenas redução de custo indireto
mas também fornecendo mais mobilidade. Outra forma de redução de custo indireto
é uma interface mais simples para o usuário. Isso implica menos treinamento e
permite ao equipamento entrar em produção mais rapidamente. O uso de padrões
mais abertos reduz o custo de acessórios e software. Por fim, vendas mais simples,
com menos garantias e mais liberdade.
Esse pacote de soluções produz máquinas bastante limitadas em
capacidade – em torno de 99% a menos. Tão limitadas que não estão aptas para as
tarefas habituais de um computador comum. O que não é um problema, visto que
essas máquinas são projetadas para um novo público e um novo uso.
A hipótese se baseia na comparação de um novo modelo de computador
com um padrão já existente. Isto torna necessário um padrão como ponto de partida.
Escolhi com o ponto de partida um grande sucesso comercial da IBM, o /360. Ele
marcou época por alguns conceitos de escalabilidade e compatibilidade que, embora
72
já existentes, ainda não haviam sido implementados tão radicalmente. Marcou
também por ser um computador projetado para uso geral, ao contrário da grande
maioria dos equipamentos anteriores, projetados para um uso específico.
É muito difícil falar do preço de um /360, devido a variedade de suas
configurações e ao segredo em torno dos contratos comerciais, mas a ordem de
grandeza de um mainframe era de um milhão de dólares.
O primeiro computador de baixo custo foi o minicomputador, cujos modelos
mais famosos foram os PDP da DEC. Custando vinte mil, o míni teve que provar que
era um computador, e não apenas um concentrador de dados. Nem mesmo Ken
Olsen, fundador da DEC, quis enfrentar essa polêmica e batizou seu equipamento
de processador de dados programável – PDP. Lançado quase junto com o /360, os
inis levaram meia década para se consolidar.
As tecnologias que mais marcaram o míni foram transistores e circuitos
integrados. Transistores já haviam sido usados no IBM 709 em 1958. Quanto a
circuitos integrados, estavam disponíveis desde o início da década. O ambiente
exigido era de um escritório refrigerado. Quanto à interface, eram os primeiros
computadores interativos, adotando conceitos de tempo compartilhado e tempo real,
permitindo ao operador “conversar” com o computador. A arquitetura mais aberta era
representada pela divulgação de manuais internos e a possibilidade de terceiros
fazerem acessórios. Por fim, nas relações comerciais, foi com os mínis que surgiu a
expressão OEM, uma forma de venda onde até o nome do fabricante poderia ser
mudado.
O próximo computador de baixo custo foi o micro, que nasceu nas revistas
de eletrônica 1975 e virou o “o homem do ano” em 1982. Semelhante a briga do
míni, o micro teve que mostrar qual seria a diferença entre ele e o terminal
inteligente. Isto ficou bem mais fácil em 1981, quando a IBM lançou aquele que seria
o padrão de microcomputador, por dois mil e oitocentos dólares.
A tecnologia sobre a qual nasceu o micro foram os microprocessadores
programáveis, uma variação dos produzidos em larga escala para as calculadoras
eletrônicas. Os micros exigiam um ambiente ainda mais simples do que os mínis,
principalmente em espaço e temperatura. A interface, mais do que interativa, se
tornou gráfica e se esforça para ser intuitiva. A arquitetura do micro é tão aberta que
qualquer um pode efetivamente comprar as peças numa loja de eletrônica e
73
“fabricar” seu próprio micro52. Quanto a relações comerciais, basta citar que o micro
está instalado nos supermercados entre geladeiras e microondas.
Os dois eventos, míni e micro, seguem o padrão descrito incluindo preço,
tecnologia, ambiente, interface, arquitetura e relações comerciais. Para concluirmos
que isto define um padrão precisamos saber se essas características são
suficientes, se formam um grupo consistente de características ou é apenas uma
combinação casual de detalhes óbvios e sem importância.
As características citadas não são casuais, pois têm um papel específico na
redução de custo, diretos ou indiretos. Também não são óbvios conceitos como de
usar apenas tecnologias estabelecidas mas de forma inovadora. Isso vai contra um
senso comum de que as tecnologias por si só criam novas classes de
computadores, como afirma Bell. Também não podem ser consideradas sem
importância. A evolução da interface mudou a forma da sociedade usar o
computador, a arquitetura mais aberta tem permitido a entrada no mercado de
centenas de empresas, apenas para citar dois aspectos.
Mas dois eventos é um número muito pequeno e quarenta anos é um
período muito curto para a definição de um padrão. A biologia trabalha com períodos
de milhares de anos, mesmo de milhões, quando fala de evolução. Se a história da
computação tem milhares de anos53, a dos computadores tem apenas algumas
dezenas. Computadores comerciais são ainda mais recentes. Gordon Bell,
engenheiro chefe nos projetos do PDP, ainda está na ativa, e alguns dos projetistas
do /360 podem estar também. É necessário aceitar que os estudos na história dos
computadores estarão focados em períodos curtos e portanto mais restritos em
exemplos. Neste caso há apenas dois exemplos consolidados.
A hipótese seguinte é que o PDA é uma ocorrência desse evento. Ela se
verifica caso ele se encaixe na descrição do computador de baixo custo e se provar
que está sendo adotado pelo mercado.
As poucas tecnologias que se destacam num PDA são o reconhecimento da
escrita e a tela sensível a toque. Isto já estava disponível desde o início da década
de 1990, quando IBM, NEC, ATT e Apple falavam em computadores baseados em
caneta54. O PDA exige menos do ambiente do que um PC, afinal opera com baterias
52 Isso foi válido para o Altair e é válido para o PC. A total exceção a essa regra é a Apple. 53 Um dos marcos da computação seria o ábaco, estimado em cinco mil anos. 54 Foram exibidos muitos protótipos e uns poucos produtos reais. Em sua maioria eram equipamentos
74
sem precisar de móveis ou corrente estabilizada. Além disso, pesando duzentas
gramas, é muito mais portável do que um PC portátil com dois quilos. Sua interface
está reduzida a seis botões e reconhecimento de escrita. A maior novidade de sua
arquitetura é o fim da separação de hardware e sistema operacional: quem compra
um PDA já vem com um SO e aplicativos embutidos, sem o conceito de instalação55.
Esta mesma simplicidade faz parte da relação comercial. Não é mais necessário
comprar partes distintas como hardware, SO e aplicativos. Apenas comprar e usar.
Mas muitos equipamentos poderiam ser classificados como computadores
de baixo custo, incluindo os protótipos da computação a caneta, os webfones56, os
NC (Network Computer)57, os Windows Terminal58 e muitos outros que
desaparecerão sem deixar vestígios, ou documentação. É preciso comprovar que o
PDA é mais do que uma proposta da indústria. É preciso comprovar que o PDA será
adotado pelo mercado.
As projeções de venda indicam que o PDA em breve deve passar o PC, que
é o maior sucesso de vendas da história dos computadores. Isto prova que o
mercado já está adotando o PDA, como adotou o micro na década de 80 e como
adotou o míni em 70.
muito pesados (fisicamente) e ainda não muito eficientes devido ao poder de processamento disponível na época. 55 O conceito de instalação continua para aplicativos adicionais, mas ele é plenamente funcional logo após colocar as pilhas. 56 Aparelhos telefônicos com telas de cristal liquido e recursos de browser. Surgirão e desapareceram durante a década de 90. 57 Computadores baseados no conceito de que o computador deveria ser apenas um browser WEB e todo o software seria fornecido por empresas na WEB. Seus principais defensores foram Sun e Oracle. 58 Semelhante aos NC, mas totalmente voltado para Windows. Em parte foi uma resposta da Microsoft.
75
Ano 1964 1964 1982 2002
Nome Mainframe minicomputador Computador pessoal
Assistente digital
Modelo /360 PDP-8 IBM PC Palm III
Fabricante IBM Digital IBM 3Com
Preço 1.000.000 20.000 2.000 400
Redução % 98 90 80
Tecnologias Compatibilidade e escalabilidade.
Circuito impresso e transistores
Processador programável.
Reconhecimento de escrita e tela sensível.
Ambiente Extremamente controlado em temperatura e umidade.
Ambiente de escritório refrigerado.
Ambiente de escritório e residencial normal
Portátil
Peso Centenas de quilos. Dezenas de quilos. 10 a 5 quilos 200 gramas
Operação e SO
OS 360 foi um dos maiores desafios de desenvolvimento, e nunca ficou completamente concluído.
SO simplificado, incluindo processamento de tempo real e tempo compartilhado. Menos treinamento e menos qualificação.
Dispensa o profissional, pode ser operado pelo usuário. Interface gráfica.
Pouca interação com o SO. Aciona aplicativos diretamente.
Arquitetura aberta
Controle máximo sobre as informações internas. Dificuldade de combinar soluções IBM com produtos de terceiros.
Distribuição gratuita de manuais. Divulgação de especificações. Intervenção do cliente na máquina é aceita e incentivada.
Com um padrão de hardware quase independente de fabricante, há uma total independência do fabricante.
Mecanismos comerciais.
Contratos de leasing pesados. Hardware equivale a 1/3 do valor total.
Venda do produto. Contratos de OEM.
Venda em lojas como eletrodoméstico.
Pacote hardware + SO vendidos como item único.
Imagem Concentrador de dados.
Terminal inteligente Agenda
Cliente Principal
Grandes corporações.
Empresas grandes e médias.
Empresas de qualquer tamanho. Cliente privado.
Pessoa física e empresas.
Aplicação Missão crítica. Missão critica, soluções departamentais, comunicação, apoio ao mainframe.
Missão crítica, soluções departamentais, automação de escritório.
Indefinido.
Tabela 7. Quadro Resumo completo
76
9 CONCLUSÃO
O computador de quinta geração prometia nos levar a “Era dos Jetson”, mas
ele não chegou e não é mais o tema central dos debates. Ainda assim algo mudou
nas últimas décadas, muita coisa mudou.
Vejamos, por exemplo, o ERP (Enterprise Resource Planning), a grande
moda empresarial dos anos 90. Ele trouxe uma visão global das corporações. Em
lugar de dezenas de processos que se relacionavam em pontos determinados, a
corporação passou a ser vista como um imenso processo, com vários aspectos e
faces, mas um processo só. Por seu porte e complexidade, o ERP visava as grandes
corporações, as mesmas que sempre fizeram uso de computadores. Mas o que
tornou o ERP possível? Podemos dizer que o ERP nasceu de uma nova visão
administrativa, sem qualquer aspecto tecnológico. Mas se isso fosse verdade, ele
não poderia ter surgido muito antes? Sim, poderia.
Para controlar cada processo dentro da organização, é necessário estar
presente em todos os processos, é necessário que cada etapa de cada processo e
subprocesso esteja ligada entre si e troquem informações. É necessário avançar na
“última milha” da informação 59. Esse é o espaço, e o tempo, entre a informação ser
capturada e inserida em um sistema. Isso pode ser a distância percorrida por um
vendedor, ou o tempo necessário para digitar a contagem de estoque.
Avançar na última milha é um processo difícil. O ambiente é cada vez mais
hostil. Às vezes não tem luz elétrica, a temperatura é alta e há pouco espaço. Outras
vezes é necessário levar o equipamento de um lugar para outro. Os usuários são
menos preparados e nem sempre objetivos. Mas nenhum desses é o pior problema.
O pior problema da última milha é que custa muito caro para recolher tão pouca
informação. Em alguns casos, toda a informação reunida não enche uma folha de
papel. São números do contador de água ou a quantidade de jornais vendidos ou
quais alunos faltaram à aula. Como justificar o uso de equipamentos, de
computadores, para controlar tão pouca informação?
Para conseguir controlar a operação por inteiro, responde o ERP. Foi o
59 A última milha é um termo usado pela área de telecomunicações para descrever o último trecho de telefonia, para descrever o trecho entre a menor central telefônica e o telefone residencial. Ela é curta, pulverizada (poucas linhas agrupada) e espalhada geograficamente. Seu custo é baixo se considerarmos o valor de uma linha, mas fica cara quando levamos em conta o conjunto. A grande dificuldade de todos os projetos de banda larga não está em ligar centrais telefônicas, mas na última milha até a residência.
77
avanço na última milha na empresa que permitiu que um pedido de compra dispare
uma ordem de produção, uma reposição de estoque e contrate um serviços de
entregas para o próximo mês. Foi preciso estar presente em todos os processos.
Hoje um processo de ERP pode começar nos terminais dos clientes, passar pelo
fabricante e alcançar os fornecedores de matéria prima.
Na década de 70, quando o mainframe começava a dividir espaço com os
mínis, a visão era de que os computadores possuíam todas as informações sobre a
empresa. Então por que esperamos mais de vinte anos para termos o ERP? Por que
precisamos avançar nessa última milha para que isso funcionasse?
Desde que começamos a usar computadores, existe uma discussão sobre o
que é uma informação útil, afinal essa foi a essência do bug do milênio. Sempre
tentamos descobrir quais informações poderão ser úteis. Começamos falando em
estoque mensal e hoje discutimos logística de distribuição. Saímos do produto mais
vendido para perfil de consumo. Cada aprofundamento implica mais informação,
mais processos sendo acompanhados, avançar na última milha.
Houve um dia em que os sistemas de uma empresa terminava na porta da
fábrica. Depois conectou-se aos depósitos e as lojas. Agora tenta-se descobrir o
gosto dos clientes, o que gera uma batalha entre as forças de vendas e os
defensores do direito à privacidade.
Mas o ERP representa apenas um aspecto das mudanças, o aspecto
empresarial. O avanço na última milha trouxe outras mudanças. Algumas muito
semelhantes ao mesmo processo ocorrido na telefonia.
Era comum uma pequena cidade do interior ter um ou dois telefones. Eles
serviam para os moradores se comunicarem com outras cidades. Geralmente
ficavam em estabelecimentos públicos, na prefeitura ou na padaria. Ninguém
pensava em ter um telefone em casa, afinal não ligavam tanto assim para outras
cidades, e essa era a única utilidade do telefone. Posteriormente o número de
telefones saltava de 2 para 10 ou 20. Algumas pessoas até tinham telefone em casa,
criando dentro da cidade uma nova comunidade, a que tem novos meios e
comunicação e uma nova forma de interação. Agora a cidade está dividida entre os
que podem trocar conversas a distância e os que precisam visitar, ou serem
visitados, para se manterem em contado com a comunidade.
O avanço na última milha também cria uma nova comunidade, seja na
78
empresa seja na sociedade. Ele permite não apenas que os sistemas centrais
possam atingir a ponta, mas também que uma ponta converse com outra. Isso pode
ser uma troca de planilhas de custos entre filiais ou mensagens pessoais
substituindo telefonemas e cartas em papel. Permite que uma regional acesse seus
vendedores ou um grupo de estudantes concluir um trabalho por e-mail.
O avanço sobre a última milha colocou o cidadão em contato com a Internet,
e com tudo que está nela. Isso inclui muito de seus amigos, empresas, a receita
federal, o Louvre e muitas outras opções.
Cada computador de baixo custo fez um avanço sobre a última milha, tanto
para empresas como pessoas. O míni levou o computador para os departamentos e
permitiu que estudantes universitários tivessem acessos ocasionais. Os micros
levaram um computador a cada mesa de trabalho e está levando a muitas casas.
O PDA é o novo degrau desse processo, avançando um pouco mais na
última milha.
Quando o míni e o micro começaram a ser vendidos em larga escala,
dezenas de previsões sobre seu uso e impactos foram feitas. Em sua larga maioria
estavam todas erradas. Em geral nossas projeções seguem em duas direções: a
extensão dos usos atuais e a livre criatividade. Na extensão dos usos atuais
consideramos que o computador de baixo custo fará as mesmas coisas que os
computadores já estão fazendo, apenas em outro ambiente e em escala reduzida. A
livre criatividade é vizinha da ficção e dos desejos, mas tanto a ficção como os
desejos se baseiam em uma realidade conhecida, portanto, voltamos ao fato que
estamos repetindo uma realidade em outro ambiente. Isso não aconteceu, nem no
míni nem no micro.
Esperávamos ver o míni entre ser um pequeno mainframe e a colheitadeira
de batatas. Na verdade acabou sendo o computador de departamentos e pequenas
empresas, o que até poderia ser uma extensão do mainframe. Mas a relação do míni
com seus usuários sempre foi outra, na verdade seus usuários já foram outros. O
mainframe era manipulado por técnicos altamente especializados e respondia aos
desejos da diretoria da empresa. O míni colocou terminais para estudantes e atendia
ao chefe do departamento, e a alguns usuários às vezes. A automação usou muitos
mínis, mas duvido que algum esteja ainda sobre uma colheitadeira.
O micro ia alterar todos os ramos de atividades profissionais e mudar a
79
sociedade como um todo. É inegável que temos computadores em quase todas as
atividades profissionais, mas eles não causaram o impacto esperado. Opções como
transformar a casa em escritório aconteceram muito menos do que o esperado, em
parte por problemas culturais, em parte porque o microcomputador não era
realmente responsável por isso. E quanto à mudança na sociedade, ela existe, mas
está muito distante do que os visionários previram e desejaram. Eles esperavam que
as pessoas conhecessem o suficiente de computadores para serem donas e criarem
seus próprios programas, livres de empresas que diriam o que fazer com o seu
computador. Livres para criarem suas próprias conexões pelo mundo afora, criando
uma nova realidade. Durante um certo tempo acreditou-se que a Internet faria isto,
afinal uma página criada por um estudante em casa ou uma página criada por
qualquer gigante corporativo teriam o mesmo tamanho e poderiam competir em
igualdade de condições. Mas Internet está, em grande parte, repetindo o comercio
tradicional, as mesmas empresas, os mesmos mecanismos. Talvez seja possível
para o estudante criar sua página, mas a divulgação, propaganda na tevê e milhares
de anúncios em outros sites custa algo que ele não pode arcar, mas a grande
empresa pode.
Essa visão pode parecer pessimista, mas não é. Apenas representa muito
pouco, se comparada ao que os primeiros visionários esperavam. Aprender Basic ou
Assembler não mudaria realmente a vida de uma dona de casa. Certamente é útil
usar uma planilha e calcular as contas de casa e obter muito mais informações do
que se conseguia antes com papel e lápis. Ou acessar a página de uma empresa ou
do governo local e obter dezenas de informações em casa. E por fim, pressionar
para uma transparência cada vez maior tanto de empresas como do próprio Estado.
Quanto aos computadores de baixo custo, sabemos então que todas as
projeções que podemos fazer agora estarão excessivamente ligadas a realidade que
conhecemos, mas que os PDA criarão uma nova. Ainda assim, é impossível ser
humilde e não fazer algumas projeções.
Cada computador de baixo custo avançou na transformação de documentos
em arquivos eletrônicos, na mudança de processos de troca de papéis para troca de
informações. Esta é uma direção inevitável.
Como sempre, o desafio é descobrir quais informações são essas. Talvez
comecemos a imprimir menos relatórios, porque podemos levar um PDA para
80
reunião, em lugar de pilhas de papéis, mas é pouco provável. Talvez alguns
pequenos pacotes de informação fiquem no PDA, mas todos preferimos ler em papel
a ler na tela. Pode-se exibir um relatório para três pessoas, mas não se pode fazer o
mesmo com a telinha do PDA.
Mas haverá alguns documentos que serão convertidos. Talvez trabalhos do
colégio, ou a lista de compras. Mas isso não parece muito emocionante ou produtivo.
O próximo computador de baixo custo vai automatizar a lista de compras?
Essa parece a visão de quem chamou o micro de terminal inteligente.
Vamos tentar ampliar essa perspectiva. Talvez a dona de casa possa levar a lista de
compras que será lida pela rede do supermercado, o qual já entregaria todos os
itens sem precisar selecioná-los um a um. Parece uma idéia interessante ainda
assim, não parece ser essa sua opção.
Estamos por demais fechados em nossa atual visão sobre computadores e
informação para entendermos as óbvias informações que serão armazenadas num
PDA.
Mas alguém vai descobrir.
Consideramos o PC como um computador pessoal, seja no trabalho seja em
casa. Mas esta definição tem algumas falhas. Se o local de trabalho, mesa ou posto,
for compartilhado por um grupo de pessoas, o PC também será. Em casa o PC será
compartilhado por todos, a não ser que se compre um para cada membro da família,
o que pode ser caro ou ocupar um espaço não disponível.
Mas outro motivo para não chamarmos o PC de pessoal é que ele não
acompanha seu usuário a maior parte do tempo. Quem quiser colocar no PC suas
atividades, sejam escolares ou profissionais, terá que anotá-las em papel e gastar
um tempo com a transcrição de notas e lembretes. Usar uma agenda dentro de um
PC é bastante complicado, a não ser para atividades restritas, como uma agenda
para tarefas de trabalho no PC do escritório e outra no PC de casa. Mas quando sair
desses ambientes, a opção é imprimir e levar uma cópia.
Em resumo, o PC não é pessoal. Primeiro porque pode ser compartilhado
por pequenas comunidades; segundo porque ele não acompanha o dono em suas
atividades.
Tempo, local e propriedade são os fatores que definem a existência digital.
O PDA muda todos.
81
O tempo passa para 24 horas por dia, qualquer dia, o local é todos e a
propriedade absoluta. O fator limitante passa a ser outro, conexão.
Hoje os PDAs somente têm acesso a rede quando conectados a um PC ou a
um telefone. As redes sem fio para PDAs ainda são raras, em parte pelo alto custo e
em parte pela escassa utilidade. Enquanto o PDA não mudar isso, os parâmetros de
tempo e local são iguais ao do PC.
Mas os mínis facilitaram o desenvolvimento de protocolos de comunicação,
fosse a Arpanet ou pela transmissão direta por linha discada. Os PC impulsionaram
as redes locais e suas conexões com as grandes redes. Os PDAs também farão as
suas parte em breve. A corrida já começou, com vários tipos de soluções. Temos o
Bluetooth para pequenos grupos de conexões próximas e de baixo custo, o IEEE
802.11b para redes corporativas amplas ou a 3a geração de celulares que promete
transformar a cidade numa imensa rede. Essa será a hora de lembrarmos da Lei de
Metacalf, onde uma rede tem tanto mais valor quanto sua quantidade de pontos. 60
Entre todas estas opções, duas se destacam. Uma, que desejo
pessoalmente ver, é o fim da prisão domiciliar do cidadão digital. Ele poderá entrar
no banco para retirar dinheiro, real, e aproveitar para usar todos os recursos
eletrônicos do banco. Hoje, para usar esses recursos preciso é voltar a para casa e
acessar o mesmo banco pela Internet. O que se deseja é que a cidadania digital
possa sair de casa e ir até o banco.
A outra opção é a grande promessa dos celulares de 3a geração que
transformarão cada celular em um ponto de rede, conectando os celulares sempre
em qualquer lugar da cidade. Se isto acontecer e estiver a custos razoáveis, o
desejo de acessar o banco de dentro da agência será uma coisa insignificante, sem
graça. Afinal, pode-se acessá-lo de qualquer lugar a qualquer hora.
Nesse momento, com 24 horas de acesso, qualquer local e total
propriedade, a existência digital sofrerá uma transformação. E-mails e mensagens
de celulares serão quase a mesma coisa. Seu PDA poderá inclusive decidir quais
remetentes são importantes o suficiente para acordá-lo no meio da noite.
Com essa total ampliação da existência digital acompanhando o usuário 24
horas em qualquer lugar, a existência digital cada vez mais se confundirá com a real.
A computação ubíqua proposta por Mark Weiser é uma visão de futuro onde
60 Lei de Metacalf: O valor de uma rede é proporcional ao quadrado de seus pontos.
82
haverá computadores por toda parte. O computador não seria mais um elemento
isolado do ambiente, mas parte dele. Seria quase invisível, porque sua interação
com o usuário seria “calma”61. Em seu estudo Some Computer Science Issues in
Ubiquitous Computing, ele apresenta algumas formas de interface que poderão ser
usadas, incluindo uma prancheta, uma parede para grandes volumes de informação
e um dispositivo a caneta, um PDA (WEISER, 1993).
Em outro trabalho, The Future of Integrated Design of Ubiquitous Computing
in Combined Real & Virtual Worlds, Weiser e Daniel Russell discutem um dos
problemas da computação ubíqua: a cacofonia digital. Isto aconteceria quando uma
pessoa entrasse num ambiente com vários computadores embutidos e todos eles
tentassem interagir com o usuário, ou a interação com um dispositivo disparasse
outros. É como pedir ao ar condicionado mais frio e a geladeira congelar as garrafas
de água. Na proposta de Weiser e Russel deverá haver mecanismos de
comunicação entre os diversos dispositivos para evitar este caos de comunicação
(RUSSELL, WEISER, 1998).
Aqui estamos totalmente na área da ficção e dos desejos, distante de
questões práticas. Então vamos aos desejos.
Duas coisas chamam a atenção. Primeiro, o tamanho dos dispositivos para
uma tecnologia “calma”. Haverá pouco espaço nas paredes e nas mesas depois
desses dispositivos todos. Segundo, a necessidade de interagir com dezenas de
dispositivos espalhados pelo ambiente.
Essas idéias incomodam. É bom de pensar que haverá dezenas de
dispositivos para tornar a vida mais agradável e simples, mas é desconfortável a
idéia de que a casa fosse coberta por eles. Também é incômodo se tivesse que
relacionar com cada um para dormir à tarde, portando nada de bips. Aliás, ninguém
quer saber quantos dispositivos existem em casa.
O desejável é que alguém que organize isso, relacione o que há para
resolver, o que é urgente e o que pode esperar até depois do almoço. Negociar com
cada dispositivo da casa é cansativo, e não se pode confiar ao ar condicionado
instruções para o chuveiro, eles têm entendimentos bem distintos sobre frio e
61 A tecnologia “calma” é uma antiga proposta dos pesquisadores da PARC (Palo Alto Research Center). Nela a tecnologia deveria chamar a menor atenção possível sobre si mesma, deixando o usuário mais concentrado em suas ações, e não no computador que executa estas ações. O Windows, com sons, clipes e sugestões seria o melhor exemplo de tecnologia não calma.
83
quente. Essa confusão toda incomoda.
Útil será o aparelho a que se possam dizer as preferências uma única vez, e
ele converse com o resto da casa, com cada dispositivo. Uma interface única, um
interlocutor único.
Uma governanta.
A governanta eletrônica deverá ser o dispositivo mais pessoal de todos,
aquele que acompanha a qualquer lugar. Visita-se um hotel e o dispositivo pessoal
informará aos dispositivos do hotel quais são preferências. Vejam, isto é tão possível
quanto a própria computação ubíqua.
A governanta eletrônica será o PDA.
Uma etapa preliminar desse processo já pode ser vista através da
transformação dos controles remotos. Estes começaram totalmente dedicados, cada
controle cuidava de um equipamento apenas. Depois surgiram os controles
universais, capazes de controlar a tevê, som e videocassete. Agora já existem
programas para que PDA funcionem como controles remotos. Falta ainda um melhor
meio de comunicação do que o atual infravermelho. Isto pode ser melhor visto na
proposta de Nichols de um controle pessoal universal (PUC – personal universal
controler).
Figura 17. Controles Remotos
O primeiro aparelho é um modelo Pronto, controle remoto universal da Philips. O segundo é um Palm rodando o software Pronto Lite, oferecido pela própria Philips.
Devemos considerar também que este será o primeiro computador pessoal.
Este título, hoje pertencente injustamente ao PC. No ambiente do trabalho, o PC
está mais ligado ao local do que a seu usuário, podendo inclusive ser compartilhado.
84
Nas residências ainda é raro ver um micro para cada usuário. Geralmente existe a
figura do micro familiar, usado em turnos por todos ou muitos. Além disso o PC não
acompanha seu proprietário em sua rotina. É muito comum uma pessoa ter um
micro em casa e outro no trabalho, com duas agendas e dois universos de
informações. O PDA privativo e poderá acompanhar todas as atividades. O PDA
será efetivamente um computador pessoal, atravessando inclusive a distinção entre
trabalho e uso pessoal.
O PDA é um fato que virá, independente de nossa opinião sobre ele. Assim
veio o uso pessoal do e-mail da empresa e a necessidade de atualizar os sistemas
operacionais tantas vezes, vieram independentes de nossa opinião. Algumas
empresas o já estão incluindo em seus orçamentos e outras talvez nunca o façam.
O profissional de computação deverá fazer o que não fez com o míni ou o
micro, aproveitar as oportunidades. Em ambos os casos usuários foram mais pró-
ativos do que os profissionais, que chegaram depois, defasados em relação a seus
próprios clientes.
Pelo alcance geográfico e social, pela mobilidade, o PDA estará em posição
inédita de criar novas oportunidades de negócios. Os profissionais de computação
devem participar deste processo e não serem dele informados posteriormente.
85
10 PROPOSTAS PARA OUTRAS PESQUISAS
Este trabalho gerou muitas perguntas , que necessitam de mais informações
e tempo de dedicação. Seguem alguns exemplos.
10.1 A PRÓXIMA ONDA
Se este estudo está certo, e existem estes eventos padrões, por que o PDA
deveria ser o último? Esta é uma velha mania de acharmos que este é o momento
crucial, quando a história está acabando ou começando. Em lugar disso vamos
considerar a possibilidade de um próximo evento. Como seria? Uma estimativa
rápida indica:
Custo de menos de 50 dólares.
Tamanho de uma caneta, no máximo.
Interface vocal eficiente.
O que mais poderíamos antever desta solução?
10.2 ETAPAS E CLIENTES
Surgiu também um padrão de relação entre equipamento e clientes.
Equipamento Cliente Aplicação
Mainframe (antes 360) Estado Militar
Mainframe (depois 360) Grandes corporações Missões críticas
Mínis Empresas (grandes até pequenas)
Missão crítica e automação de negócios
PC Pessoal e micro negócios Missão crítica, automação de negócios e uso pessoal
PDA ?? ??
Pesquisar até onde essas relações são efetivas e que outras conclusões
podemos tirar são razões para mais um estudo, embora aumente a dificuldade para
coletar dados à medida que retrocedemos no tempo..
10.3 CONVERGÊNCIA E DIVERGÊNCIA
Do mainframe para o míni e deste para o PC havia um movimento de
convergência, traduzida em adoção pesada de padrões de hardware e de SO. As
soluções convergiam para uma solução profundamente homogênea, similar entre os
diversos fabricantes. Hoje o PC de um fabricante difere cada vez menos dos demais.
Diferimos mais de qualidade, entre um topo de linha e uma solução básica, mas as
86
soluções topo e as soluções básicas se assemelham muito, ou muito mais do que
nas etapas anteriores (mínis e maniframes).
O PDA, no entanto, acena com um processo de divergência, onde haverá
alguns modelos de equipamentos bem distintos. A principal diferença está em ser
um celular ou apenas um PDA.
Então temos duas possibilidades: convergimos, como já vinha acontecendo
ou divergimos para uma diversidade de modelos.
Outro fator a considerar é que o padrão de hardware do PC era de máquinas
montadas, qualquer um pode comprar os componentes iguais ou similares aos da
Compaq e montar o seu PC Compaq similar. Mas o PDA é uma máquina fechada,
sem padronização aberta de componentes.
87
11 BIBLIOGRAFIA
BELL, G.. Computer Industry Laws, Forces, and Heuristics… or - Why
computers are like they are and are likely to be, EUA 2000. Disponível em
www.reserch.microsoft.com/users/gbell. Acesso em: Maio 2002.
BRAND, S.. Spacewar - Fanatic Life and Symbolic Death Among the Computer
Bums. Revista Rolling Stones. Califórnia. 7 Dezembro de 1972. Disponível em:
www.wheels.org/spacewar/stone/rolling_stone.html. Acesso em: Outubro 2001.
CAMPBELL-KELLY, M.; ASPRAY, W.. A History of the Information Machine. New
York: Basic Books. 1996. 341p.
CARROL, P.. Big Blues, A Derrocada da IBM. Rio de Janeiro: Ediouro 1994. 343 p.
CERRUZZI, P. E., History of Modern Computing. New York: The MIT Press, 2000.
398 p.
CORTADA, J. W., Using textual Demographics to Understand Computers Use: 1950
– 1990. IEEE Annals of History of Computing, EUA, edição de Janeiro Março
2001.
DELL Corporation, Handheld Devices: Comparing the Major Platforms,
Dezembro 2002. Disponível em http://www.dell.com/us/en/dfb/topics/vectors_2000-
handhelds.htm. Acesso em: Outubro 2001.
FREIBERGER, P.; SWAINE, M.. Fire in the Valley - The making of the Personal
Computer. Segunda edição. EUA, McGraw-Hill, 1984. 463 p.
GILLET, B.. Microsoft Pocket PC 2002. Northern Illinois University, 12 de Fevereiro
2002. Disponível em: Omis3.omis.niu.edu/z018126/omis649/oper_system.html.
Acesso em: Março 2002.
GRAY, J.. Laws of Cyberspace. Alemanha 9 Outubro 1998. Apresentação a
Universidade Internacional de Bruchsal. Disponível em
research.microsoft.com/~Gray/Talks/Laws_ofCyberspace.ppt. Acesso em: Dezembro
2001.
GREENIA , M.. The History of Computing – An Encyclopedia of the People and
Machines that Made Computer History. Edição 2001.3x, Lexicon, 2001. CD-Rom.
HUTCHINSON Encyclopedia. Fifth-generation computer. Disponível em:
88
www.uk.tiscali.com/reference/encyclopaedia/hutchinson/m0005799.html. Acessado
em Novembro 2002.
IBGE – Censo Demográfico – 2000, Tabulação de domicílios particulares
permanentes e moradores em domicílios particulares permanentes, por
situação do domicílio, segundo algumas características dos domicílios - Brasil
(Tabela 1.7.1). Brasil, 2000. Disponível em: www.IBGE.gov.br. Acesso em: Outubro
2002.
KAPLAN, J.. Startup - a Silicon Valley Adventure. New York: Penguin Books,
1994. 322p.
MEYER, A. Pen Computing - A Technology Overview and Vision. SIG CHI
(Conference on Human Factors and Computing Systems) Bulletin, Vol 27, No 3, July
1995. ACM Press: New York.
MYERS, B.; HUDSON, S. E.; PAUSCH, R.. Past, Present, and Future of User
Interface Software Tools, ACM Transactions on Computer-Human Interaction, vol
7, No 1, Março 2000, p 3-28. Disponível em: www.acm.org. Acesso em: Maio 2002.
NDP - Reports Slight Growth in Handheld Sales. Publicado em 11/10/2001.
Disponível em: www.npd.com/corp/content/news/releases/press_011011.htm Acesso
em: Fevereiro 2002.
NICHOLS, J.; MEYERS, B. A.; HIGGINS, M.; HUGHES, J.; HARRIS, T. K.;
ROSENFELD, R.; PIGNOL, M.. Generating Remote Control Interfaces for Complex
Appliances, Proceedings of the 15th annual ACM symposium on User interface
software and technology. 2002 , Paris, France.
PALM SOURCE, Historical Timeline. Disponível em:
www.palm.com/about/corporate/timeline. Acesso em: Outubro 2002.
PUGH, E. W.; ASPRAY, W.. Creating the Computer Industry. IEEE Annals of the
History of Computing, Vol 18, no 2, 1996. Disponível em: www.acm.org. Acessado
em: Março 2001.
RUSSELL, D. M.; WEISER, M.. The Future of Integrated Design of Ubiquitous
Computing in Combined Real & Virtual Worlds. Proceedings of the conference on
CHI 1998, Los Angeles. Disponível em: www.acm.org. Acesso em: Julho 2001.
SAMMET, J E.. The Early History of Cobol, ACM SIGPLAN Noticies, Vol 13, no 8,
89
Agosto 1978. Disponível em: www.acm.org. Acesso em: Agosto 2002.
U.S. CENSUS - Departament of Commerce - Economics and Statistics
Administration - U.S. Census Bureau, Home Computers and Internet Use in the
United States: August 2000. Disponível em: www.census.gov/prod/2001pubs/p23-
207.pdf. Acesso em: Outubro 2002.
WEISER, M.. Some Computer Science Issues in Ubiquitous Computing.
Communications of the ACM. ACM Press: New York. Vol 36, No 7: Julho 1993.
WITENBERG. Milestones on History of Computers. Disponível em:
ww4.Wittenberg.edu/academics/mathcomp/bjsdir/bjshistory.shtml. Acesso em: Julho
2001.
90
12 APENDICE – PROJEÇÃO DE VENDAS
A montagem deste gráfico apresentou algumas dificuldades. Os mais graves
foram acesso a informações e definições sobre objeto pesquisado.
Informações sobre vendas de equipamentos são facilmente localizáveis nas
grandes consultorias de pesquisas de mercado. Entre essas podemos citar IDC
(International Data Corporation - www.idc.com), na NPD Group (www.npd.com) e
Gartner (www.gartner.com). Estas empresas costumam divulgar trechos de suas
pesquisas. Os dados completos estão disponíveis,a custos que variam de 500 a
5.000 dólares, conforme produtos, períodos e grau de detalhe.
Tentar montar uma planilha completa a partir dos trechos divulgados é
impossível, porque nunca são fornecidas informações suficientes para tal. Montar
com notícias de empresas distintas é um sério risco, porque varia o entendimento de
cada empresa sobre o que é o produto, segmento da sociedade e como montar a
pesquisa. Alguns se referem a dispositivos móveis, outros a handhelds e muitos a
PDAs. O termo PDA se refere ao objeto deste estudo, mas os dispositivos móveis
podem incluir telefones, conforme a visão desejada.
Algumas pesquisas apresentaram números muito maiores do que os
adotados aqui, mas com crescimento muito menor. São pesquisas onde PDA,
telefones e bipes estão todos em uma mesma categoria.
Além disso existe a questão de que números estão sendo considerados:
fabricação, venda, venda diretas, etc.
Depois de certa insistência, a NPD gentilmente forneceu uma planilha sobre
vendas (tabela 01). Ela contém números de vendas varejo e desconsidera alguns
fatores como vendas de PDA padrão Windows. Como o volume total deste somente
ainda é menos de 15%, segundo a própria NPD, consideramos essa diferença
aceitável.
A planilha começa em 1996 e vai até início de 2001, mas somente possui
informações sobre PDAs a partir de 1998.
Para montar a planilha final foram seguidos vários passos:
1. Gerar uma planilha de unidades vendidas, ignorando vendas em dólar e
percentuais de mercado (tabela 02);
2. Cortar os valor por 1000 para facilitar visualização (tabela 03);
3. Consolidar por ano, ignorando o ano de 2001 pois dele só havia o primeiro
91
trimestre;
4. Criar uma nova linha: PC. Essa seria a soma de Desktop e Notebook (tabela
04);
5. Cria uma tabela secundária com as taxas de crescimento anuais para cada
item;
6. Calcular a média das taxas (tabela 05);
7. Criar a projeção A de 2001 a 2002 usando a da taxa de crescimento do último
ano;
8. Criar a projeção B de 2001 a 2002 usando a da taxa média de crescimento
(tabela 06).
As projeções de vendas são realmente impressionantes, atingindo marcas
de mais de vinte milhões de unidades em 2002. A questão é saber se essas
estimativas são realistas ou não.
Na reportagem Reports Slight growth in Handheld Sales da mesma NPD de
outubro de 2001 (NDP, 2001), é citado o aumento de vendas de 11,9% em agosto,
como sendo o pior índice do ano. Podemos concluir que houve aumento todos os
meses e que o menor foi de 11,9%. Calculando um aumento mensal de 11,9% de
janeiro até agosto teremos um acumulado de 245% de aumento no ano. Portanto,
aumento entre 130% e 166% ao ano não foram exagerados para 2001.
É possível que a depressão econômica que se instalou após setembro de
2001 afete estes números, mas com certeza também afetará as vendas de PC.
Portanto a relação entre as vendas de PDA e PC deve permanecer a mesma, PCs
sendo superados por PDAs, mesmo que leve um ou mais anos.
Tabelas
Desktops 1QTR96 2QTR96 3QTR96 4QTR96 1QTR97
units 1.953.266 1.840.571 1.987.248 2.382.987 1.946.180
units share 3,72 3,51 3,79 4,54 3,71
dollars $ 3.771.857.000 3.649.508.000 3.587.457.000 4.028.766.000 3.096.002.000
dollars share 5,64 5,46 5,37 6,03 4,63
avgprice $ 1.931 1.983 1.805 1.691 1.591
Notebooks 1QTR96 2QTR96 3QTR96 4QTR96 1QTR97
units 449.991 418.640 540.220 653.684 557.061
units share 3 3 4 4 4
dollars $ 1.508.836.000 1.493.286.000 1.826.401.000 2.189.021.000 1.719.840.000
dollars share 4 4 5 6 5
avgprice $ 3.353 3.567 3.381 3.349 3.087
Desktops 2QTR97 3QTR97 4QTR97 1QTR98 2QTR98
units 2.013.102 2.150.752 2.611.619 2.485.359 2.289.973
92
units share 3,84 4,1 4,98 4,73 4,36
dollars $ 3.205.120.000 3.283.918.000 3.861.991.000 3.366.950.000 3.004.677.000
dollars share 4,8 4,91 5,78 5,04 4,5
avgprice $ 1.592 1.527 1.479 1.355 1.312
Notebooks 2QTR97 3QTR97 4QTR97 1QTR98 2QTR98
units 558.064 626.622 681.968 752.343 828.742
units share 4 4 5 5 5,61
dollars $ 1.661.924.000 1.881.913.000 1.976.070.000 1.994.802.000 2.110.630.000
dollars share 4 5 5 5 5,59
avgprice $ 2.978 3.003 2.898 2.651 2.547
PDAs 1QTR98 2QTR98
units 117.292 162.024
units share 1,83 2,52
dollars $ 34.303.980 53.338.590
dollars share 1,82 2,84
avgprice $ 292 329
Desktops 3QTR98 4QTR98 1QTR99 2QTR99 3QTR99
units 2.692.992 3.222.880 3.063.254 2.738.745 3.260.296
units share 5,13 6,14 5,84 5,22 6,21
dollars $ 3.345.943.000 3.758.897.000 3.430.908.000 3.024.311.000 3.176.184.000
dollars share 5,01 5,62 5,13 4,53 4,75
avgprice $ 1.242 1.166 1.120 1.104 974
Notebooks 3QTR98 4QTR98 1QTR99 2QTR99 3QTR99
units 820.226 810.888 789.760 761.465 859.769
units share 5,55 5,49 5,35 5,15 5,82
dollars $ 2.004.565.000 1.942.657.000 1.763.473.000 1.713.665.000 1.990.206.000
dollars share 5,31 5,15 4,67 4,54 5,27
avgprice $ 2.444 2.396 2.233 2.250 2.315
PDAs 3QTR98 4QTR98 1QTR99 2QTR99 3QTR99
units 145.151 241.176 232.396 265.657 245.755
units share 2,26 3,76 3,62 4,14 3,83
dollars $ 52.089.080 74.572.410 71.931.020 86.585.910 76.699.430
dollars share 2,77 3,97 3,83 4,61 4,08
avgprice $ 359 309 310 326 312
Desktops 4QTR99 1QTR00 2QTR00 3QTR00 4QTR00 1QTR01
units 3.342.851 2.935.847 2.161.538 2.493.092 2.633.078 2.290.815
units share 6,37 5,59 4,12 4,75 5,02 4,36
dollars $ 3.155.073.000
2.879.109.000
2.160.623.000
2.403.479.000
2.488.315.000
2.156.682.000
dollars share
4,72 4,31 3,23 3,6 3,72 3,23
avgprice $ 944 981 1.000 964 945 941
Notebooks 4QTR99 1QTR00 2QTR00 3QTR00 4QTR00 1QTR01
units 827.007 814.658 835.482 831.082 703.739 653.164
units share 5,6 5,51 5,65 5,63 4,76 4,42
dollars $ 1.873.086.000
1.764.336.000
1.827.680.000
1.769.588.000
1.472.898.000
1.265.635.000
dollars share
4,96 4,67 4,84 4,69 3,9 3,35
avgprice $ 2.265 2.166 2.188 2.129 2.093 1.938
PDAs 4QTR99 1QTR00 2QTR00 3QTR00 4QTR00 1QTR01
units 556.346 597.557 683.062 718.630 1.462.275 993.469
93
units share 8,66 9,31 10,64 11,19 22,77 15,47
dollars 167.671.500 180.269.700 208.373.600 210.822.500 392.297.700 271.049.300
dollars share
8,92 9,59 11,08 11,21 20,87 14,42
avgprice $ 301 302 305 293 268 273
Tabela 01 – Tabela fornecida pelo NPD.
1QTR96 2QTR96 3QTR96 4QTR96 1QTR97 2QTR97 3QTR97 4QTR97
Desktops 1.953.266
1.840.571
1.987.248
2.382.987
1.946.180
2.013.102
2.150.752
2.611.619
Notebooks
449.991 418.640 540.220 653.684 557.061 558.064 626.622 681.968
Pdas
1QTR98 2QTR98 3QTR98 4QTR98 1QTR99 2QTR99 3QTR99 4QTR99
Desktops 2.485.359
2.289.973
2.692.992
3.222.880
3.063.254
2.738.745
3.260.296
3.342.851
Notebooks
752.343 828.742 820.226 810.888 789.760 761.465 859.769 827.007
Pdas 117.292 162.024 145.151 241.176 232.396 265.657 245.755 556.346
1QTR00 2QTR00 3QTR00 4QTR00 1QTR01
Desktops 2.935.847 2.161.538 2.493.092 2.633.078 2.290.815
Notebooks 814.658 835.482 831.082 703.739 653.164
Pdas 597.557 683.062 718.630 1.462.275 993.469
Tabela 02 – Apenas o elemento unidades (units) da tabela original (tabela
01).
1q96 2q96 3q96 4q96 1q97 2q97 3q97 4q97 1q98 2q98 3q98 4q98
Deskktops 1.953 1.841 1.987 2.383 1.946 2.013 2.151 2.612 2.485 2.290 2.693 3.223
Notebooks 450 419 540 654 557 558 627 682 752 829 820 811
Pdas 117 162 145 241
1q99 2q99 3q99 4q99 1q00 2q00 3q00 4q00 1q01
Deskktops 3.063 2.739 3.260 3.343 2.936 2.162 2.493 2.633 2.291
Notebooks 790 761 860 827 815 835 831 704 653
Pdas 232 266 246 556 598 683 719 1.462 993
Tabela 03 – Redução da tabela 02 para milhares de unidades.
1996 1997 1998 1999 2000
Desktops 8.164 8.721 10.691 12.405 10.223
Notebooks 2.062 2.423 3.212 3.238 3.184
PC 10.227 11.145 13.903 15.643 13.409
PDAs 0 0 665 1.300 3.461
Tabela 04 – consolidação anual da tabela 03, descartando o ano de 2001,
por ter apenas o primeiro trimestre. È acrescentada uma nova linha, PC, soma das
linhas Desktop e Notebook.
94
1997 1998 1999 2000 Média % 2000 % Média
Desktops 1,07 1,23 1,16 0,82 1,0696 -18% 7,0%
Notebooks 1,18 1,33 1,01 0,98 1,1230 -2% 12,3%
PC 1,09 1,25 1,13 0,86 1,0799 -14% 8,0%
PDAs 1,95 2,66 2,3078 166% 130,8%
Tabela 05 – Tabela de médias, entre cada ano e ano anterior. Coluna final
de média dos anos disponíveis.
1996 1997 1998 1999 2000 2001 2002
Desktops A 8.164 8.722 10.691 12.405 10.224 8.426 6.944
Desktops B 8.164 8.722 10.691 12.405 10.224 10.936 11.697
Notebooks A 2.063 2.424 3.212 3.238 3.185 3.133 3.081
Notebooks B 2.063 2.424 3.212 3.238 3.185 3.577 4.017
PC A 10.227 11.145 13.903 15.643 13.409 11.493 9.851
PC B 10.227 11.145 13.903 15.643 13.409 14.480 15.637
PDAs A - - 666 1.300 3.462 9.216 24.536
PDAs B - - 666 1.300 3.462 7.989 18.436
Tabela 06 – Tabela final, com as projeções A e B.
95
13 ANEXO – LEIS DA INFORMÁTICA
A maioria destas leis podem ser encontradas nos trabalhos de Godon Bell e
Jim Gray, em
www.intel.com/research/silicon/mooreslaw.htm e
research.microsoft.com/~Gray/Talks/Laws_ofCyberspace.ppt
Nu Lei de Texto Autor
1. Bell da evolução das classes de computadores
Tecnologia permite dois caminhos:
Performance constante, custo decrescente.
Preço constante, performance crescente.
Gordon Bell
2. Bell de classes de computadores
Novas plataformas de computadores emergem baseadas na evolução da densidade de chips.
Classes de computadores requerem novas plataformas, redes e cyberização.
Novas aplicações e conteúdo são desenvolvidos em torno de cada nova classe.
Cada classe surge de uma indústria verticalmente desintegrada e de softwares padrões.
Gordon Bell
3. Bill De economia de software
Preço = (custo fixo/unidades) + custo marginal
Lei de Bill Joy: não escreva software para menos de 100 mil plataformas. Preço 1.000.
Lei de Bill Gates: não escreva software para menos de 1 milhão de plataformas. Preço 100.
Bill Joy (Sun)
4. Gilder de Telcosom
O tamanho de banda triplicará a cada ano, por 25 anos. (início na década de 70)
George Gilder
5. Grosch Um computador duas vezes maior (duas vezes mais caro) tem um desempenho multiplicado por quatro.
Herbert Grosch
6. Grove da Nova indústria de Computadores
Integração é o formato da nova indústria.
Cada camada escolhe o melhor da camada abaixo.
Andy Grove
7. Grove de largura de banda
A largura de banda dobra a cada 100 anos. Andy Grove
8. Metcalf O valor de uma rede é proporcional ao quadrado de seus pontos.
Robert Metcalfe
9. Moore
Densidade de chips dobra a cada 18 meses.
96
Moore 1a ou Lei de Moore revisada
Os seguintes fatores dobram a cada 18 meses:
densidade de chips
velocidade de processador
densidade de discos magnéticos
banda de comunicação
Gordon E. Moore
10. Moore 2a O custo de linha de fabricação dobra a cada geração (3 anos).
Gordon E. Moore
11. Nathan De Software
1. Software é um gás: expande-se até ocupar todo container.
2. Software cresce até ser limitado pela Lei de Moore.
3. O crescimento de software torna possível a Lei de Moore.
4. Software é limitado somente pelas ambições e expectativas humanas.
12. Paralela Duas vezes o investimento retorna duas vezes o processamento, geralmente.
Gordon Bell
top related