a evolução da computação

23
A Evolução da Informática Tudo começou há 2.000 a.C., quando o homem necessitava de recursos para efetuar cálculos, que estavam cada vez mais complicados, foi inventado então o ábaco, uma máquina simples e rudimentar. O ábaco foi se aperfeiçoando e, pelo incrível que pareça, evoluiu até o computador. Outra grande invenção após o ábaco, ocorreu quando um francês chamado Blaise Pascal, inventou a primeira máquina de somar, a Pascalina, a qual executava operações aritméticas quando se giravam os discos interligados, sendo assim a precursora das calculadoras mecânicas. Em 1671 na Alemanha, Gottfried Wiilhelm von Leibnitz inventou uma máquina muito parecida com a Pascalina, que efetuava cálculos de multiplicação e divisão, e qual se tornou a antecessora direta das calculadoras manuais. Em 1802 na França, Joseph Marie Jacquard passou a utilizar Cartões Perfurados para controlar suas máquinas de tear e automatiza-las. Em 1820, Charles Xavier Thomas, conhecido como Thomas de Colmar, projetou e construiu uma máquina capaz de efetuar as quatro operações básicas e a Arithmometer. Essa foi a primeira calculadora realmente comercializada com sucesso. Ela fazia multiplicações com o mesmo princípio da calculadora de Leibnitz e com a assistência do usuário efetuava as divisões. Em 1822, foi desenvolvido por um cientista inglês chamado Charles Babbage uma máquina diferencial que permitia cálculos como funções trigonométricas e logaritmos, utilizando os cartões de Jacquard. Charles Babbage, considerado o pai do computador atual, construiu em 1830 o primeiro computador do mundo, cem anos antes de se tornar realidade. O projeto de Babbage apresentava desvantagens; uma delas era o fato de que o seu computador deveria ser mecânico, e a outra era a precariedade da engenharia da época. Apesar desses problemas, Charles Babbage construiu um aparelho que impressionou o governo inglês. Nos anos que se seguiram, vários projetos foram feitos com intuito de aperfeiçoar essa primeira calculadora. Entretanto, nada de significativo aconteceu, até que Babbage e Ada Lovelace (companheira de Babbage) começaram a considerar melhor o problema. Com Ada Lovelace, filha de Lord Byron, iniciou um projeto mais ambicioso para construir uma "máquina analítica". Foi projetada para calcular valores de funções matemáticas bem mais complexas que as funções logarítmicas. A máquina era enorme, demonstrava inúmeros problemas e simplesmente não funcionava. Grande parte da arquitetura lógica e da estrutura dos computadores atuais provém dos projetos de Charles Babbage, que é lembrado como um dos fundadores da computação moderna. Só por volta de 1936, as idéias de Babbage foram comprovadas, quando um jovem matemático chamado Alan Turing, publicou um artigo, pouco conhecido, On computable numbers. O nome de Turing é quase desconhecido para o público, mas sua

Upload: anhangueraeducacional

Post on 17-May-2023

1 views

Category:

Documents


0 download

TRANSCRIPT

A Evolução da Informática

Tudo começou há 2.000 a.C., quando o homem necessitava de recursos para efetuar cálculos, que estavam cada vez mais complicados, foi inventado então o ábaco, uma máquina simples e rudimentar. O ábaco foi se aperfeiçoando e, pelo incrível que pareça, evoluiu até o computador.

Outra grande invenção após o ábaco, ocorreu quando um francês chamado Blaise Pascal, inventou a primeira máquina de somar, a Pascalina, a qual executava operações aritméticas quando se giravam os discos interligados, sendo assim a precursora das calculadoras mecânicas.

Em 1671 na Alemanha, Gottfried Wiilhelm von Leibnitz inventou uma máquina muito parecida com a Pascalina, que efetuava cálculos de multiplicação e divisão, e qual se tornou a antecessora direta das calculadoras manuais.

Em 1802 na França, Joseph Marie Jacquard passou a utilizar Cartões Perfurados para controlar suas máquinas de tear e automatiza-las.

Em 1820, Charles Xavier Thomas, conhecido como Thomas de Colmar, projetou e construiu uma máquina capaz de efetuar as quatro operações básicas e a Arithmometer. Essa foi a primeira calculadora realmente comercializada com sucesso. Ela fazia multiplicações com o mesmo princípio da calculadora de Leibnitz e com a assistência do usuário efetuava as divisões.

Em 1822, foi desenvolvido por um cientista inglês chamado Charles Babbage uma máquina diferencial que permitia cálculos como funções trigonométricas e logaritmos, utilizando os cartões de Jacquard.

Charles Babbage, considerado o pai do computador atual, construiu em 1830 o primeiro computador do mundo, cem anos antes de se tornar realidade. O projeto de Babbage apresentava desvantagens; uma delas era o fato de que o seu computador deveria ser mecânico, e a outra era a precariedade da engenharia da época. Apesar desses problemas, Charles Babbage construiu um aparelho que impressionou o governo inglês.

Nos anos que se seguiram, vários projetos foram feitos com intuito de aperfeiçoar essa primeira calculadora. Entretanto, nada de significativo aconteceu, até que Babbage e Ada Lovelace (companheira de Babbage) começaram a considerar melhor o problema.

Com Ada Lovelace, filha de Lord Byron, iniciou um projeto mais ambicioso para construir uma "máquina analítica". Foi projetada para calcular valores de funções matemáticas bem mais complexas que as funções logarítmicas. A máquina era enorme, demonstrava inúmeros problemas e simplesmente não funcionava. Grande parte da arquitetura lógica e da estrutura dos computadores atuais provém dos projetos de Charles Babbage, que é lembrado como um dos fundadores da computação moderna.

Só por volta de 1936, as idéias de Babbage foram comprovadas, quando um jovem matemático chamado Alan Turing, publicou um artigo, pouco conhecido, On computable numbers. O nome de Turing é quase desconhecido para o público, mas sua

contribuição foi fundamental para o desenvolvimento de idéias que ocorreriam antes do computador propriamente dito tornar-se realidade. Os cientistas admitiam que a matemática não era uma arte misteriosa, e sim uma ciência inteiramente relacionada com regras lógicas. Se uma máquina recebesse essas regras e o problema a ser solucionado, ela seria capaz de resolvê-lo. No entanto, os esforços dos mais competentes matemáticos foram inúteis para desenvolver tal máquina. Turing decidiu examinar o impasse de outra maneira. Verificou os tipos de problemas que uma máquina poderia resolver seguindo regras lógicas, e tentou fazer uma lista de todos eles. Turing liderou uma equipe de pesquisa na Inglaterra e desenvolveu a mais secreta invenção da Segunda Guerra Mundial, o Colossus, o primeiro computador eletromecânico do mundo, que pode decifrar os códigos alemães de mensagens enigmáticas, durante a guerra.

Depois da guerra, Turing colaborou no projeto do primeiro computador dos Estados Unidos, o ENIAC (Eletronic Numerical Integrator and Calculator), desenvolvido na Universidade da Pensilvânia em 1946. O desenvolvimento do computador continuou, mas só com a invenção do transistor de silício, em 1947, tornou-se possível aumentar a velocidade das operações na computação.

Em meados dos anos 60, os cientistas observaram que um circuito eletrônico funcionaria de modo igualmente satisfatório se tivesse o tamanho menor. Os laboratórios começaram experimentando a colocação de um projeto de circuito no chip. Antes do fim dos anos 60, nasceu o "Circuito Integrado", com isso a computação deu um grande passo à frente. O desenvolvimento de um circuito em um único chip levou à construção de múltiplos circuitos em um só chip; e o resultado inevitável da colocação de vários chips juntos foi o começo do microprocessador.

Apesar de pouca semelhança entre a tecnologia do microchip e os diversos projetos de Babbage, Ada Lovelace e o Colossus de Turing, a "arquitetura" prática criada por Charles Babbage ainda é utilizada nos microprocessadores atuais. E a teoria matemática de Turing, que possibilitou tudo isso, ainda não foi superada.

A indústria dos computadores pessoais (PC), teve seu início em 1971 com a fabricação do primeiro microprocessador, o Intel 4004. Porém a indústria decolou somente em 1975 com Altair 8800, da MITS. Pelos padrões atuais, este kit inicial desenvolvido por Ed Roberts, líder da MITS, era bastante limitado. O kit tinha como base o microprocessador 8080 da Intel e possuía apenas 250 bytes de memória. Com um preço bem acessível, quase 400 dólares, o Altair foi o primeiro computador pessoal disponível em grande escala para o público em geral.

A união de Paul Allen, um jovem programador, com um calouro da Universidade de Harvard conhecido como Bill Gates originou uma versão do Basic para o Altair. Mais tarde surgiria a Microsoft.

A Evolução da Computação na Segunda Guerra Mundial

1939 – 1945

Resumo

Os maiores avanços tecnológicos feitos pelo homem, muitas vezes estão diretamente ligados a tempos de conflitos. E na área da computação não poderia ser diferente, muito dos conceitos utilizados nos computadores atuais, tiveram origem na Segunda Guerra Mundial. Este trabalho apresenta em que estágio se encontrava a computação no início dos anos 30 e como ela se desenvolveu durante o tempo em que durou o conflito.

Abstract

This work presents how the computation was found in the start of years 30 and how it developed during the time where the conflict lasted. The concepts defined by the great names who change the history of the computers.

1) Introdução

São em momentos de crise, que a capacidade do homem é posta a prova. E infelizmente em um dos capítulos mais tristes de nossa história, é que surgiram algumas das mentes mais brilhantes de todos os tempos. Portanto, a guerra é ao mesmo tempo uma evolução tecnológica e uma involução moral do homem.

Este trabalho tem como objetivo, manter vivo em nossa memória este capítulo de nossa história, e ao mesmo tempo analisar as evoluções feitas naquele período.

2.0) 1939 - 1945

Antes de analisarmos a evolução da computação na Segunda Guerra Mundial, precisamos realizar uma breve recapitulação da história da computação, para sabermos em que estágio se encontrava esta ciência no final dos anos 30.

2.1) A origem

Desde o inicio dos tempos, o homem sempre se esforçou para desenvolver um meio mais eficiente de computar . Tanto um pastor quanto um coletor de impostos, ambos precisavam trabalhar com números, e nem sempre o faziam da melhor forma. O uso de objetos, como pedras, para a contagem de ovelhas por parte de um pastor, era a prática mais recorrente em meados de 1000 a.C., fazendo com que o uso da atribuição matemática fosse utilizada de forma primitiva. Com o crescimento dos rebanhos ou dos números a serem atribuídos, a atribuição rapidamente se tornou obsoleta de modo que novos métodos de contagem tinham de ser desenvolvidos.

Com o surgimento do instrumento de contagem asiático chamado ábaco (Fig. 1), se permitiu não apenas a formalização da contagem, mas como nos introduziu a idéia de notação posicional utilizada hoje em dia. Ou seja, um objeto podia não ser apenas a atribuição de um elemento, mas podia também ser atribuído a um grupo de elementos. Tudo isso graças a este antecessor da calculadora pessoal.

Fig.1 – O Ábaco

Apenas quando o processo de contagem se tornou mais abstrato é que foi desenvolvida a formalização de símbolos matemáticos. Possibilitando a escrita da computação.

No século 12, foi desenvolvido por Muhammad ibn Musa Al'Khowarizmi (Fig. 2) o conceito de ordenação computacional para a obtenção de algum objetivo, que posteriormente viria se chamar Algoritmo.

Em 1614 John Napier inventou o logaritmo, recurso que reduzia a divisão em subtrações e a multiplicação em somas, e criou posteriormente a máquina de multiplicação chamada de "bones" [1].

Fig.2 - Muhammad ibn Musa Al'Khowarizmi

Em 1623 Francis Bacon é o primeiro a usar aritmética de base 2, a mesma aritmética utilizada hoje pelos computadores, a binária e William Schickard usando os conceitos de Napier produz a primeira máquina de calcular automática, a Schickard's, no entanto como nenhuma cópia original da máquina foi encontrada, este mérito vai todo para Blaise Pascal que em 1642 inventou a pascalina (Fig. 3), máquina de somar que obteve patente do próprio rei da França mas que nunca obteve êxito comercial.

Em 1801 Joseph Jacquard construiu um tear que memorizava os.

A HISTÓRIA DA INTERNET

A Internet nasceu praticamente sem querer. Foi desenvolvida nos tempos remotos da Guerra Fria com o nome de ArphaNet para manter a comunicação das bases militares dos Estados Unidos, mesmo que o Pentágono fosse riscado do mapa por um ataque nuclear.

Quando a ameaça da Guerra Fria passou, ArphaNet tornou-se tão inútil que os militares já não a consideravam tão importante para mantê-la sob a sua guarda. Foi assim permitido o acesso aos cientistas que, mais tarde, cederam a rede para as universidades as quais, sucessivamente, passaram-na para as universidades de outros países, permitindo que pesquisadores domésticos a acessarem, até que mais de 5 milhões de pessoas já estavam conectadas com a rede e, para cada nascimento, mais 4 se conectavam com a imensa teia da comunicação mundial.

Nos dias de hoje, não é mais um luxo ou simples questão de opção uma pessoa utilizar e dominar o manuseio e serviços disponíveis na Internet, pois é considerada o maior sistema de comunicação desenvolvido pelo homem.

Com o surgimento da World Wide Web, esse meio foi enriquecido. O conteúdo da rede ficou mais atraente com a possibilidade de incorporar imagens e sons. Um novo sistema de localização de arquivos criou um ambiente em que cada informação tem um endereço único e pode ser encontrada por qualquer usuário da rede.

Em síntese, a Internet é um conjunto de redes de computadores interligadas que tem em comum um conjunto de protocolos e serviços, de uma forma que os usuários conectados possam usufruir de serviços de informação e comunicação de alcance mundial.

Histórico

Desenvolvida pela empresa ARPA (Advanced Research and Projects Agency) em 1969, com o objetivo de conectar os departamentos de pesquisa, esta rede foi batizada com o nome de ARPANET.

Antes da ARPANET, já existia outra rede que ligava estes departamentos de pesquisa e as bases militares, mas como os EUA estavam em plena guerra fria, e toda a comunicação desta rede passava por um computador central que se encontrava no Pentágono, sua comunicação era extremamente vulnerável.

Se a antiga URSS resolvesse cortar a comunicação da defesa americana, bastava lançar uma bomba no Pentágono, e esta comunicação entrava em colapso, tornando os Estados Unidos extremamente vulnerável a mais ataques.

A ARPANET foi desenvolvida exatamente para evitar isto. Com um Back Bone que passava por baixo da terra (o que o tornava mais difícil de ser interrompido), ela ligava os militares e pesquisadores sem ter um centro definido ou mesmo uma rota única para as informações, tornando-se quase indestrutível.

Nos anos 1970, as universidades e outras instituições que faziam.

A história dos computadores e da computação

Hoje em dia, os computadores estão presentes em nossa vida de uma forma nunca vista

anteriormente. Sejam em casa, na escola, na faculdade, na empresa ou em qualquer

outro lugar, eles estão sempre entre nós. Ao contrário do que parece, a computação não

surgiu nos últimos anos ou décadas, mas sim há mais de 7 mil anos. 

Por este motivo, desenvolvemos este artigo que conta a história e a evolução da

computação e dos computadores em geral, desde a antiguidade até os dias de hoje.

Desta maneira, você poderá ficar por dentro das principais formas de computação

utilizadas pela humanidade. O texto está dividido em quatro partes e vai abordar temas

diversos, como ábaco, Máquina de Pascal, Lógica de Boole, computadores mainframes,

Steve Jobs e Bill Gates, entre vários outros.

Para começar, vamos falar sobre uma forma de calcular muito simples, mas que também

foi muito útil nas culturas antigas: o ábaco.

Ábaco, a primeira calculadora da História

Muitos povos da antiguidade utilizavam o ábaco

para a realização de cálculos do dia a dia, principalmente nas áreas de comércio de

mercadorias e desenvolvimento de construções civis. Ele pode ser considerado como a

primeira máquina desenvolvida para cálculo, pois utilizava um sistema bastante simples,

mas também muito eficiente na resolução de problemas matemáticos. É basicamente um

conjunto de varetas de forma paralela que contém pequenas bolas que realizam a

contagem.

Seu primeiro registro é datado do ano de 5.500 a.C., pelos povos que constituíam a

Mesopotâmia. Contudo, o ábaco também foi usado posteriormente por muitas outras

culturas: Babilônia, Egito, Grécia, Roma, Índia, China, Japão etc. Cada um desses

povos possui uma versão de específica dessa máquina, entretanto, preservando a sua

essência original. Seu nome na Roma Antiga era "Calculus", termo de onde a palavra

cálculo foi derivada.

O fato deste instrumento ter sido difundido entre todas essas culturas se deve

principalmente a dois fatores. O contato entre povos distintos é o primeiro deles, o que

fez com que o ábaco fosse copiado de um lugar para vários outros no mundo. Por outro

lado, a necessidade da representação matemática fez com que os sistemas de contagem

utilizados no cotidiano fossem implementados de forma mais prática.

Sobre as operações matemáticas, ele é bastante útil para a soma e subtração. Já para a

multiplicação e divisão, o ábaco comum não é muito recomendado, somente algumas

versões mais complexas que a padrão.

Régua de Cálculo

Durante vários séculos, o ábaco foi sendo desenvolvido e aperfeiçoado, se tornando a

principal ferramenta de cálculo por muito tempo. Entretanto, os principais intelectuais

da época do Renascimento precisavam descobrir maneiras mais eficientes de efetuar

cálculos. Logo, em 1638 depois de Cristo, um padre inglês chamado William Oughtred,

criou uma tabela muito interessante para a realização de multiplicações muito grandes.

A base de sua invenção foram as pesquisas sobre logaritmos, realizadas pelo escocês

John Napier.

Até o momento, a multiplicação de números muito grandes era algo muito trabalhoso e

demorado de ser realizado. Porém, Napier descobriu várias propriedades matemáticas

interessantes e deu a elas o nome de logaritmos. Após o fato, multiplicar valores se

tornou uma tarefa mais simples. 

O mecanismo consistia em uma régua que já possuía uma boa quantidade de valores

pré-calculados, organizados de forma que os resultados fossem acessados

automaticamente. Uma espécie de ponteiro indicava o resultado do valor desejado. 

 

Máquina de Pascal

Apesar da régua de cálculo de William Oughtred ser útil, os valores presentes nela ainda

eram pré-definidos, o que não funcionaria para calcular números que não estivessem

presentes na tábua. Pouco tempo depois, em 1642, o matemático francês Bleise Pascal

desenvolveu o que pode ser chamado de primeira calculadora mecânica da História, a

Máquina de Pascal.

Seu funcionamento era baseado no uso de rodas interligadas que giravam na realização

dos cálculos. A ideia inicial de Pascal era desenvolver uma máquina que realizasse as

quatro operações matemáticas básicas, o que não aconteceu na prática, pois ela era

capaz apenas de somar e subtrair. Por esse motivo, a tecnologia não foi muito bem

acolhida na época.

Alguns anos após a Máquina de Pascal, em 1672, o alemão Gottfried Leibnitz

conseguiu o que Pascal não tinha conseguido: criar uma calculadora que efetuava a

soma e a divisão, além da raiz quadrada.

A programação funcional

Em todas as máquinas e mecanismos mostrados, as operações já estavam previamente

programadas, não sendo possível inserir novas funções. Contudo, no ano de 1801, o

costureiro Joseph Marie Jacquard desenvolveu um sistema muito interessante nesta

área.

A indústria de Jacquard atuava no ramo de desenhos em tecidos, tarefa que ocupava

muito tempo de trabalho manual. Vendo esse problema, Joseph construiu a primeira

máquina realmente programável, com o objetivo de recortar os tecidos de forma

automática. 

Tal mecanismo foi chamado de Tear Programável, pois aceitava cartões perfuráveis

com entrada do sistema. Dessa maneira, Jacquard perfurava o cartão com o desenho

desejado e a máquina o reproduzia no tecido. A partir desse momento, muitos esquemas

foram influenciados pelo tear, incluindo o que vamos explicar logo abaixo.

A Máquina de Diferenças e o Engenho Analítico

No ano de 1822, foi publicado um artigo científico que prometia revolucionar tudo o

que existia até então no ramo do cálculo eletrônico. O seu autor, Charles Babbage,

afirmou que sua máquina era capaz de calcular funções de diversas naturezas

(trigonometria, logaritmos) de forma muito simples. Esse projeto possuía o nome de

Máquina de Diferenças.

Houve um grande boom na época por causa disso, pois as ideias aplicadas no projeto

estavam muito à frente do seu tempo. Devido a limitações técnicas e financeiras, a

Máquina de Diferenças só pôde ser implementada muitos anos depois.

Após um período, no ano de 1837,

Babbage lançou uma nova máquina, chamada de Engenho Analítico (Máquina

Analítica). Ela aproveitava todos os conceitos do Tear Programável, como o uso dos

cartões. Além disso, instruções e comandos também poderiam ser informados pelos

cartões, fazendo uso de registradores primitivos. A precisão chegava a 50 casas

decimais. 

Novamente, ela não pôde ser implementada naquela época, pelo mesmo motivo de

limitações técnicas e financeiras. A tecnologia existente não era avançada o suficiente

para a execução do projeto. Contudo, a contribuição teórica de Babbage foi tão grande

que muitas de suas ideias são usadas até hoje.

A Teoria de Boole

Se Babbage é o avô da computador do ponto de vista de arquitetura de hardware, o

matemático George Boole pode ser considerado o pai da lógica moderna. Boole

desenvolveu, em 1847, um sistema lógico que reduzia a representação de valores

através de dois algarismos: 0 ou 1.

Em sua teoria, o número “1” tem significados como: ativo, ligado, existente, verdadeiro.

Por outro lado, o “0” representa o inverso: não ativo, desligado, não existente, falso.

Para representar valores intermediários, como “mais ou menos” ativo, é possível usar

dois ou mais algarismos (bits) para a representação. Por exemplo:

00 – desligado

01 – carga baixa

10 – carga moderada

11 – carga alta

Todo o sistema lógico dos computadores atuais, inclusive o do qual você está usando,

usa a teoria de Boole de forma prática.

Máquina de Hollerith

O conceito de cartões desenvolvidos na máquina de Tear Programável também foi

muito útil para a realização do censo de 1890, nos Estados Unidos. Nessa ocasião,

Hermann Hollerith desenvolveu uma máquina que acelerava todo o processo de

computação dos dados. 

Em vez da clássica caneta para marcar X em “sim” e “não” para perguntas como sexo e

idade, os agentes do censo perfuravam essas opções nos cartões. Uma vez que os dados

fossem coletados, o processo de computação da informação demorou aproximadamente

1/3 do comum. Foi praticamente uma revolução na maneira de coleta de informações.

Aproveitando todo o sucesso ocasionado por sua máquina, Hollerith fundou sua própria

empresa, a Tabulation Machine Company, no ano de 1896. Após algumas fusões com

outras empresas e anos no comando do empreendimento, Hoolerith veio a falecer.

Quando um substituto assumiu o seu lugar, em 1916, o nome da empresa foi alterado

para Internacional Business Machine, a mundialmente famosa IBM.

Computadores pré-modernos

Na primeira metade do século XX, vários computadores mecânicos foram

desenvolvidos, sendo que, com o passar do tempo, componentes eletrônicos foram

sendo adicionados aos projetos. Em 1931, Vannevar Bush implementou um computador

com uma arquitetura binária propriamente dita, usando os bits 0 e 1. A base decimal

exigia que a eletricidade assumisse 10 voltagens diferentes, o que era muito difícil de

ser controlado. Por isso, Bush fez uso da lógica de Boole, onde somente dois níveis de

voltagem já eram suficientes. 

 

A Segunda Guerra Mundial foi um grande incentivo no desenvolvimento de

computadores, visto que as máquinas estavam se tornando mais úteis em tarefas de

desencriptação de mensagens inimigas e criação de novas armas mais inteligentes. Entre

os projetos desenvolvidos nesse período, o que mais se destacou foi o Mark I, no ano de

1944, criado pela Universidade de Harvard (EUA), e o Colossus, em 1946, criado por

Allan Turing.

 

Sendo uma das figuras mais importantes da computação, Allan Turing focou sua

pesquisa na descoberta de problemas formais e práticos que poderiam ser resolvidos

através de computadores. Para aqueles que apresentavam solução, foi criada a famosa

teoria da “Máquina de Turing”, que, através de um número finito de operações, resolvia

problemas computacionais de diversas ordens. A máquina de Turing foi colocada em

prática através do computador Colosssus, citado acima. 

Computação moderna

A computação moderna pode ser definida pelo uso de computadores digitais, que não

utilizam componentes analógicos com base de seu funcionamento. Ela pode ser dividida

em várias gerações.

Primeira geração (1946 — 1959)

A primeira geração de computadores modernos tinha com principal característica o uso

de válvulas eletrônicas, possuindo dimensões enormes. Eles utilizavam quilômetros de

fios, chegando a atingir temperaturas muito elevadas, o que frequentemente causava

problemas de funcionamento. Normalmente, todos os programas eram escritos

diretamente na linguagem de máquina. Existiram várias máquinas dessa época, contudo,

vamos focar no ENIAC, que foi a mais famosa de todas.

ENIAC

No ano de 1946, ocorreu uma revolução no mundo da computação com o lançamento

do computador ENIAC (Electrical Numerical Integrator and Calculator), desenvolvido

pelos cientistas norte-americanos John Eckert e John Mauchly. Esta máquina era em

torno de mil vezes mais rápida que qualquer outra que existia na época.

 

A principal inovação nesta máquina é a computação digital, muito superior aos projetos

mecânicos-analógicos desenvolvidos até então. Com o ENIAC, a maioria das operações

era realizada sem a necessidade de movimentar peças de forma manual, mas sim pela

entrada de dados no painel de controle. Cada operação podia ser acessada através de

configurações-padrão de chaves e switches. 

 

As dimensões desta máquina são muito grandes, com aproximadamente 25 metros de

comprimento por 5,50 metros de altura. O seu peso total era de 30 toneladas. Esse valor

representa algo como um andar inteiro de um prédio.

Segunda geração (1959 — 1964)

Na segunda geração, houve a substituição das  válvulas eletrônicas por transístores, o

que diminiu em muito tamanho do hardware. A tecnologia de circuitos impressos

também foi criada, evitando que os fios e cabos elétricos ficassem espalhados por todo

lugar. É possível dividir os computadores desta geração em duas grandes categorias:

supercomputadores e minicomputadores.

IBM 7030

O IBM 7030, também conhecido por Strech, foi o primeiro supercomputador lançado na

segunda geração, desenvolvido pela IBM. Seu tamanho era bem reduzido comparado

com máquinas como o ENIAC, podendo ocupar somente uma sala comum. Ele era

utilzado por grandes companhias, custando em torno de 13 milhões de dólares na

época.  

 

Esta máquina executava cálculos na casa dos microssegundos, o que permitia até um

milhão de operações por segundo. Dessa maneira, um novo patamar de velocidade foi

atingido. Comparado com os da primeira geração, os supercomputadores, como o IBM

7030, eram mais confiáveis. 

 

Várias linguagens foram desenvolvidas para os computadores de segunda geração,

como Fortran, Cobol e Algol. Assim, softwares já poderiam ser criados com mais

facilidade. Muitos mainframes (modo como as máquinas dessa época são chamadas)

ainda estão em funcionamento em várias empresas no dias de hoje, como na própria

IBM.

PDP-8

PDP-8 foi um dos minicomputadores mais conhecidos da segunda geração.

Basicamente, foi uma versão mais basica do supercomputador, sendo mais atrativo do

ponto de vista financeiro (centenas de milhões de dólares a menos). Eram menores do

que os supercomputadores, mas mesmo assim ainda ocupavam um bom espaço no

cômodo.

Terceira geração (1964 — 1970) 

Os computadores desta geração foram conhecidos pelo uso de circuitos integrados, ou

seja, permitiram que uma mesma placa armazenasse vários circuitos que se

comunicavam com hardwares distintos ao mesmo tempo. Desta maneira, as máquinas se

tornaram mais velozes, com um número maior de funcionalidades. O preço também

diminuiu consideravelmente. 

 

Um dos principais exemplos da terceira geração é o IBM 360/91, lançado em 1967,

sendo um grande sucesso em vendas na época. Esta máquina já trabalhava com

dispositivos de entrada e saída modernos, como discos e fitas de armazenamento, além

da possibilidade de imprimir todos os resultados em papel.  

 

O IBM 360/91 foi um dos primeiros a permitir programação da CPU por microcódigo,

ou seja, as operações usadas por um processador qualquer poderiam ser gravadas

através de softwares, sem a necessidade do projetar todo o circuito de forma manual. 

 

No final deste período, houve um preocupação com a falta de qualidade no

desenvolvimento de softwares, visto que grande parte das empresas estava só focada no

hardware.

Quarta geração (1970 até hoje)

A quarta geração é conhecida pelo advento dos microprocessadores e computadores

pessoais, com a redução drástica do tamanho e preço das máquinas. As CPUs atingiram

o incrível patamar de bilhões de operações por segundo, permitindo que muitas tarefas

fossem implementadas.

Os circuitos acabaram se tornando ainda mais integrados e menores, o que permitiu o

desenvolvimento dos microprocessadores. Quanto mais o tempo foi passando, mais fácil

foi comprar um computador pessoal. Nesta era, os softwares e sistemas se tornaram tão

importantes quanto o hardware.

Altair 8800

O Altair 8800, lançado em 1975, revolucionou tudo o que era conhecido como

computador até aquela época. Com um tamanho que cabia facilmente em uma mesa e

um formato retangular, também era muito mais rápido que os computadores anteriores.

O projeto usava o processador 8080 da Intel, fato que propiciou todo esse desempenho.

Com todo o boom do Altair, um jovem programador chamado Bill Gates se interessou

pela máquina, criando a sua linguagem de programação Altair Basic. O Altair

funcionava através de cartões de entradas e saída, sem uma interface gráfica

propriamente dita.

Apple, Lisa e Macintosh

Vendo o sucesso do Altair, Steve Jobs

(fundador da Apple) sentiu que ainda faltava algo no projeto: apesar de suas

funcionalidades, este computador não era fácil de ser utilizado por pessoas comuns.   

 

Steve sempre foi conhecido por ter um lado artístico apurado, portanto, em sua opinião,

um computador deveria representar de maneira gráfica o seu funcionamento, ao

contrário de luzes que acendiam e apagavam. Por isso, o Apple I, lançado em 1976,

pode ser considerado como o primeiro computador pessoal, pois acompanhava um

pequeno monitor gráfico que exibia o que estava acontecendo no PC. Como o sucesso

da máquina foi muito grande, em 1979 foi lançado o Apple II, que seguia a mesma

ideia. 

 

Seguindo na mesma linha, os computadores Lisa (1983) e Macintosh (1984) foram os

primeiros a usar o mouse e possuir a interface gráfica como nós conhecemos hoje em

dia, com pastas, menus e área de trabalho. Não é um preciso dizer que esses PCs

tiveram um sucesso estrondoso, vendendo um número enorme de máquinas. 

Microsoft e os processadores Intel                                             

Paralelamente à Apple, Bill Gates fundou a Microsoft, que também desenvolvia

computadores principiais. No começo de sua existência, no final dos anos 70 e até

meados dos anos 80, Gates usou as ideias contidas nas outras máquinas para construir a

suas próprias. Utilizando processadores 8086 da Intel, o primeiro sistema operacional da

Microsof, MS-DOS, estava muito aquém dos desenvolvidos por Steve Jobs.

Por esse motivo, Bill Gates acabou criando uma parceria com Jobs e, após algum

tempo, copiou toda a tecnologia gráfica do Macintosh para o seu novo sistema

operacional, o Windows. 

 

Desta forma, em meados dos anos 80, O Machintosh e o Windows se tornaram fortes

concorrentes. Com a demisão de Steve Jobs da Apple, a empresa acabou muito

enfraquecida. Assim, a Microsoft acabou se tornando a líder do mercado de

computadores pessoais.

Desde aquela época, vários processadores da Intel foram lançados, acompanhados de

várias versões de Windows. Entre os modelos da  Intel, podemos citar: 8086, 286, 386,

486, Pentium, Pentium 2, Pentium 3, Pentium 4, Core 2 Duo e i7. A AMD entrou no

ramo de processadores em 1993, com o K5, lançando posteriormente o K6, K7, Athlon,

Duron, Sempron, entre outros.

 

Todos os computadores pessoais que são lançados atualmente são bastante derivados

das ideias criadas pela Apple e pela Microsoft.

Multi-core

Uma das principais tendências dos últimos anos do mercado de desktops é a chamada

“multi-core”, que consiste em vários processadores trabalhando paralelamente. Assim,

as tarefas podem ser divididas e executadas de maneira mais eficiente. No início da

década de 2000, os transístores usados no processador já estavam muito pequenos,

causando um aquecimento maior que o normal. Desta maneira, foi necessário dividir a

CPU em vários núcleos. 

Computação de bolso e tablets

Finalizando este artigo, vamos falar sobre a

computação de bolso, que está cada vez mais presente nas nossas vidas. De alguns anos

para cá, cada vez mais computadores móveis são lançados no mercado, os quais podem

ser carregados dentro do bolso — por isso o seu nome. 

 

Entre esses dispositivos, podemos citar primeiramente os celulares, que cada vez mais

executam funções existentes nos computadores, possuindo sistemas operacionais

completos, além de palmtops, pendrives, câmeras fotográficas, TVs portáteis etc.  

 

Na verdade, a principal tendência do futuro, que já está ocorrendo agora, é a união de

muitas funcionalidades em um mesmo aparelho. Por isso, após alguns anos, vai ser

muito comum que as pessoas tenham somente um único dispositivo portátil, que vai

executar todas as tarefas desejadas. A chegada dos tablets ao mercado foi outro grande

passo para que isso se tornasse realidade.