Quinta-feira, 24 de Junho de 2010
O Computador de Mesa

A História do computador e da Informática

 

Com o início da segunda guerra mundial, os governos procuraram desenvolver maquinas computerizadas para explorar o próprio potencial estratégico. Isto deu início a uma serie de projectos de desenvolvimento de computadores e de progresso técnico. Em 1941 Konrad, alemão, tinha desenvolvido um computador, o Z3 , para projectar aviões e mísseis. As forças aliadas, entretanto, fizeram esforços superiores desenvolvendo computadores poderosos. Em 1943, os Ingleses terminaram um computador chamado Colossus para descodificar mensagens alemãs. O impacto do Colossus no desenvolvimento da indústria do computador foi muito limitado por duas razões importantes: o Colossus não era um computador de uso geral e foi projectado somente para descodificar mensagens secretas. Em segundo, a existência da máquina foi mantida secreta até décadas após a guerra.

 

Os esforços americanos produziram resultados numa escala maior. Howard H. Aiken (1900-1973), um coordenador de Harvard que trabalhava para a IBM, estava determinado em produzir uma “maquina calculadora” já em 1944 . A finalidade do computador era criar cartas balísticas para a marinha de Estados Unidos. Esta maquina era tão grande quanto um campo de football e continha aproximadamente 500 milhas de fios eléctricos. Usava sinais electromagnéticos para mover as peças mecânicas. A máquina era lenta demorando entre  3-5 segundos por cada cálculo) e inflexível, tanto que as sequências dos cálculos não poderiam ser mudadas, mas poderia executar a aritmética básica, bem como umas equações mais complexas.

 

Um outro modelo de computador estratega era o computador numérico electrónico  ENIAC , produzido por uma parceria entre o governo de Estados Unidos e a Universidade de Pensilvânia. Este computador era uma maquina tão pesada que consumia 160 quilo watts de electricidade, energia que era suficiente para escurecer as luzes em uma grande parte da cidade de Filadélfia. Realizado  por John Presper Eckert (1919-1995) e por John W. Mauchly (1907-1980), o ENIAC, ao contrário do Colossus, era um computador “universal” que permitia realizar operações com  velocidades 1.000 vezes maiores do que o seu antecessor.

 

Em meados de 1940 John Von Neumann (1903-1957) em colaboração com a equipa da faculdade de Pensilvânia, deu início aos conceitos arquitecturais do computador que permaneceram ainda validos. Von Neumann projectou o computador automático variável electrónico (EDVAC) em 1945, com uma memória capaz de manter um programa armazenado, bem como os relativos dados. Esta "memória de armazenamento" e "transferência de controlos condicionais," permitiam que o computador fosse parado em qualquer ponto e que retomasse então de novo o seu processamento, permitindo uma maior versatilidade na sua programação. O elemento chave da “arquitectura” produzida por  Von Neumann era a unidade central de processamento (processador), que permitiu que todas as funções do computador fossem coordenadas por uma única fonte. Em 1951, o UNIVAC I (computador automático universal), construído por Remington, transformou-se num dos primeiros computadores comercialmente disponíveis. Uma das impressionantes previsões adiantadas pelo UNIVAC predizia o vencedor  da eleição presidencial de 1952, Dwight D. Eisenhower.

 

Os computadores de primeira geração foram caracterizados pelo facto de que as instruções operadas eram face à ordem para a tarefa específica para que o computador devia ser usado. Cada computador tinha um programa código binário diferente chamado “língua de máquina” que lhe dizia como deveria operar. Isto fez o computador difícil de programar e limitou a sua versatilidade e velocidade. Outras características distintivas dos computadores de primeira geração eram o uso dos tubos de vácuo (responsáveis pelo seu tamanho) e cilindros magnéticos para o armazenamento de dados.

 

Em 1948, a invenção do transístor mudou muito o desenvolvimento do computador. O transístor substituiu o tubo de vácuo nas televisões, os rádios e os computadores grandes, incómodos. Em consequência, o tamanho da maquinaria electrónica foi desde então diminuindo. Acoplado com avanços adiantados na memória do núcleo magnético, os transístores conduziram aos computadores de segunda geração que eram, mais rápidos, de maior confiança e energicamente mais económicos do que seus predecessores. Estes computadores, tornaram-se extremamente importantes para os laboratórios de energia atómica, podendo armazenar uma quantidade enorme de dados, potencialidade esta muito procurada por cientistas atómicos. As máquinas eram caras e o sector comercial não ajudava a sua divulgação . Somente dois “LARCs” foram instalados: um nos laboratórios da radiação de Lawrence em Livermore, Califórnia, que foi chamado (computador atómico da pesquisa de Livermore) e o outro nos E. U., no centro da pesquisa e de desenvolvimento da marinha em Washington. Outros computadores de segunda geração conseguiram substituir a linguagem de programação de códigos binários muito complexos por códigos de programação abreviados.

No princípio da década de 60 um grande numero de computadores de segunda geração era usado nos negócios, em universidades e pelas estruturas governamentais. Estes computadores além de terem um design muito mais atractivo em relação aos da geração anterior, continham transístores em vez de tubos em vácuo, além de componentes e periféricos que hoje em dia são geralmente associadas aos chamados computadores modernos, como impressoras, discos ou fitas de armazenamento de dados, sistema operativo e programas gravados, só para indicar alguns. Um dos exemplos mais importantes deste tipo de computadores foi o IBM 1401 que foi universalmente aceite pela indústria e considerado como modelo de referência.

 

Foi a capacidade de guardar programas no seu interior e a linguagem de programação que deu aos computadores a flexibilidade suficiente para poderem ser usados na industria e nos negócios, começando desde então uma dualidade custo-beneficio competitiva e conveniente. O conceito de armazenamento dos programas no interior do computador para desenvolver uma tarefa especifica, foi largamente ajudado pela capacidade de memória do próprio computador e podia rapidamente repor outra sequência de execução, permitindo assim proceder a facturação de um cliente e pouco depois proceder a emissão de cheques, ou calcular o total de vendas de um determinado departamento. Linguagens de programação mais complexas como o Cobol (Common Business Oriented Language) e o Fortran (Formula Translator) eram muito comuns nesta altura e expandiram-se até aos nossos dias. Estas linguagens substituíam códigos binários criptados com palavras, frases, formulas matemáticas, simplificando muito a tarefa de programar um computador. A partir deste momento uma serie de novas carreiras profissionais dedicadas a esta área começaram a ser criadas, desde programadores, analistas e especialistas de sistemas informáticos, esta industria começou a ter um peso cada vez maior.

 

Os transístores foram claramente um grande avanço relativamente aos tubos em vácuo, mas deram origem a maquinas cujo interior era extremamente frágil e sensível. A pedra de quartzo veio resolver este problema. Jack Kilby, engenheiro da Texas Instruments, deu origem ao circuito integrado em 1958. Este circuito combina três componentes electrónicos num pequeno disco de silicio (silicon) que fora feito a partir do quartzo. Os cientistas continuaram o processo de miniaturização das componentes para um único chip e deram origem ao chamado semicondutor. Como resultado conseguimos computadores cada vez mais pequenos apesar de tentarmos incluir neles cada vez mais componentes no mesmo chip. Os computadores de terceira geração contemplam o uso de um novo sistema operativo que permite ao mesmo computador utilizar diferentes programas ao mesmo tempo e o sistema central controla e coordena os vários programas, bem como a gestão da memória do próprio computador.

 

Após os circuitos integrados, a única coisa a fazer era diminuir o tamanho das maquinas e obviamente dos relativos componentes. Com a Large Scale Integration (LSI) centenas de componentes podem caber num único chip. Nos anos 80 um processo mais agressivo de miniaturização (VLSI – Very Large Scale Integration) permitiu comprimir centenas de componentes num mesmo chip. A integração (ULSI – Ultra Large Scale Integration) elevou este numero para os milhões de componentes. A capacidade de reduzir o tamanho de tantos componentes numa área de uma moeda de dez cêntimos de Euro, fez com que os preços dos computadores bem como o seu tamanho diminuísse drasticamente, ao mesmo tempo que a sua performance era aumentada. O chip Intel 4004, desenvolvido em 1971 foi mais um passo na colocação de todos os componentes de um computador (unidade central de processamento, memória e controlos de input e output) num único minúsculo chip. Os circuitos deixaram de serem produzidos directamente com um propósito especifico para se passar a produzir um microprocessador que pode ser estandardizado e só depois programado para ir de encontro as necessidades do eventual utilizador. Muito rapidamente todos os electrodomésticos como o caso de microondas, fornos, televisões, ou ainda automóveis passaram a integrar microprocessadores nas suas estruturas.

A partir dos anos 70 estes computadores deixaram de ser produzidos exclusivamente para empresas ou para serviços governamentais. Estas pequenas maquinas, com uma potência de processamento de informação tão concentrada, começaram a ser disponibilizadas às populações e aos consumidores em geral. Estes computadores são complementados com pacotes de programas amigáveis que permitem aos utilizadores e até aos menos familiarizados com esta tecnologia, de desenvolver facilmente trabalhos de processamento de texto e de folhas de calculo. Pioneiros neste sentido foram a Commodore e a Apple Computers. No princípio da década de 80 uns jogos de vídeo como o Pac Man e sistemas de vídeo jogos como o Atari 2600 iniciaram os consumidores no interesse para computadores mais sofisticados e programáveis.

 

Em 1981 a IBM foi a primeira a introduzir no mercado o computador pessoal (PC) para uso domestico, escritório e escolas. Deu-se nesta década uma impressionante expansão dos computadores e as cópias dos computadores da IBM deram origem a muitas outras marcas IBM compatíveis tornando o computador pessoal mais divulgado e mais acessível. O numero de computadores duplicou de 1981 para 1982, passando de 2 milhões para 5,5 milhões.  Dez anos depois o numero de computadores pessoais existente era de 65 milhões. Os computadores continuaram o seu processo de miniaturização, passando dos computadores de mesa para os portáteis e sucessivamente para os palmtop, com o tamanho que lhes permite serem postos  no bolso interior de um casaco. Um dos directos concorrentes da IBM foram os computadores Macintosh da Apple Computers introduzidos no mercado em 1984. Notável pelo seu design amigável, o computador da Macintosh oferecia um sistema operativo muito intuitivo que permitia aos utilizadores moverem écrans e carregarem em ícones em vez de precisar da digitação das próprias instruções. Os utilizadores controlavam o cursor usando um rato, um dispositivo que lhes permitia utilizar como que um prolongamento da própria mão em cima do écran.

 

Com os computadores a ficarem cada vez mais potentes, foi possível liga-los em serie, partilhar do espaço, software, informações e comunicarem entre eles. Assim, um potente computador, usado como servidor, pode partilhar os seus elementos com uma infinidade de terminais com variadissimas aplicações. Usando este tipo de ligação e associando-a a um sistema que permita o transporte da informação de um lado para outro, podemos atingir uma quantidade enorme de informações.

fonte:http://cfigpo.no.sapo.pt



publicado por adm às 22:27
link do post | comentar | favorito

.pesquisar
 
.posts recentes

. O Computador de Mesa

.subscrever feeds
.arquivos

. Janeiro 2011

. Junho 2010

.links
.tags

. todas as tags