RevistaGDH10 - Matérias Históricas

 

Embed or link this publication

Description

Revista Guia do Hardware Número 10 com matérias históricas sobre o surgimento de várias das tecnologias atuais de computadores.

Popular Pages


p. 1

a evolução dos computadores especial trazendo o melhor de cada ediÇÃo kurumin 7 do 486 ao athlon especial memória ram especial hds montagem de micros especial notebooks a rede no windows ano 2 ­ nº 10 ­ março de 2008 configurando

[close]

p. 2

colaboradores carlos e morimoto É editor do site http www.guiadohardware.net autor de mais de 12 livros sobre linux hardware e redes entre eles os títulos redes e servidores linux linux entendendo o sistema linux ferramentas técnicas entendendo e dominando o linux kurumin desvendando seus segredos hardware manual completo e dicionário de termos técnicos de informática desde 2003 desenvolve o kurumin linux uma das distribuições linux mais usadas no país sumÁrio 03 computadores 33 pg a evolução dos pg pg 53 pg júlio césar bessa monqueiro É especialista em linux participante de vários fóruns virtuais atual responsável pelos scripts dos ícones mágicos do kurumin editor de notícias e autor de diversos artigos e tutoriais publicados no guia do hardware marcos elias picão É produtor do explorando e aprendendo http www.explorando.cjb.net um blog de informática que traz toda semana dicas de windows programas sites configurações e otimizações para todos os níveis iniciou sua vida digital em 2001 e aos poucos foi evoluindo para frente e para trás avançando nas novidades do mercado e ao mesmo tempo voltando ao passado para conhecer as janelas antigas de vidro a vidro mexe livremente com programação em delphi e mantém sites com dicas e tutoriais além dos seus programas para windows 486 ao athlon 68 95 124 hds especial pg do memória ram especial pg pg 148 pg 172 as mais lidas das edições pg luciano lourenço designer do kurumin linux trabalha com a equipe do guia do hardware.net executando a parte gráfica e de webdesing editor da oka do kurumin onde desenvolve dicas para aplicações gáficas em sl participa de projetos voltado a softwares livres como o o gimp inkscape brasil e mozilla brasil 203 218 pg contato comercial para anunciar no guia do hardware em revista escreva para revista@guiadohardware.net participe do fórum http guiadohardware.net/comunidade/

[close]

p. 3

oje em dia quando ouvimos falar em processadores de 2 ou 3 ghz dá até sono de tão comuns que eles já se tornaram pouca gente já ouviu falar no 8088 que foi o processador usado no pc xt em 1981 e muito menos no intel 4004 o primeiro microprocessador lançado em 71 nas próximas páginas falarei sobre os processadores e computadores que fizeram parte da história começando não a partir da década de 70 ou 80 mas no século xix sim na época dos nossos bisavós os computadores já existiam apesar de extremamente rudimentares eram os computadores mecânicos que realizavam cálculos através de um sistema de engrenagens acionado por uma manivela ou outro sistema mecânico qualquer este tipo de sistema comum na forma de caixas registradoras predominou até o início da década de 70 quando as calculadoras portáteis se popularizaram guiadohardware.net revista nº 10 março de 2008 3

[close]

p. 4

especial história da informática no final do século xix surgiu o relê um dispositivo eletromecânico formado por um magneto móvel que se deslocava unindo dois contatos metálicos o relê foi muito usado no sistema telefônico no tempo das centrais analógicas nas localidades mais remotas algumas continuam em atividade até os dias de hoje os relês podem ser considerados uma espécie de antepassados dos transístores suas limitações eram o fato de serem relativamente caros grandes demais e ao mesmo tempo muito lentos um relê demora mais de um milésimo de segundo para fechar um circuito também no final do século xix surgiram as primeiras válvulas as válvulas foram usadas para criar os primeiros computadores eletrônicos na década de 40 as válvulas tem seu funcionamento baseado no fluxo de elétrons no vácuo tudo começou numa certa tarde quando thomas edison inventor da lâmpada elétrica estava brincando com a sua invenção ele percebeu que ao ligar a lâmpada ao polo positivo de uma bateria e uma placa metálica ao polo negativo era possível medir uma certa corrente fluindo do filamento da lâmpada até chapa metálica mesmo que não existisse contato entre eles havia sido descoberto o efeito termoiônico o princípio de funcionamento das válvulas as válvulas já eram bem mais rápidas que os relês atingiam freqüências de alguns megahertz o problema é que esquentavam demais consumiam muita eletricidade e se queimavam com facilidade era fácil usar válvulas em rádios que usavam poucas mas construir um computador que usava milhares delas era extremamente complicado e caro apesar de tudo isso os primeiros computadores começaram a surgir durante a década de 40 naturalmente com propósitos militares os principais usos eram a codificação e decodificação de mensagens e cálculos de artilharia sem dúvida o computador mais famoso daquela época foi o eniac electronic numerical integrator analyzer and computer construído em 1945 o eniac era composto por nada menos do que 17.468 válvulas além de 1.500 relês e guiadohardware.net revista nº 10 março de 2008 um grande número de capacitores resistores e outros componentes no total ele pesava 30 toneladas e era tão volumoso que ocupava um grande galpão outro grave problema era o consumo elétrico um pc típico atual com um monitor lcd consome cerca de 100 watts de energia enquanto o eniac consumia incríveis 200 kilowatts relê construir este monstro custou ao exército americano 468.000 dólares da época que correspondem a pouco mais de us 10 milhões em valores corrigidos porém apesar do tamanho o poder de processamento do eniac é ridículo para os padrões atuais suficiente para processar apenas 5.000 adições 357 multiplicações ou 38 divisões por segundo o volume de processamento do eniac foi superado pelas calculadoras portáteis ainda na década de 70 e hoje em dia mesmo as calculadoras de bolso 4

[close]

p. 5

especial história da informática das mais baratas são bem mais poderosas do que ele a idéia era construir um computador para quebrar códigos de comunicação e realizar vários tipos de cálculos de artilharia para ajudar as tropas aliadas durante a segunda guerra mundial porém o eniac acabou sendo terminado exatos 3 meses depois do final da guerra e acabou sendo usado durante a guerra fria contribuindo por exemplo no projeto da bomba de hidrogênio uma terceira traduzia os resultados também impressos em cartões para o padrão decimal o eniac também possuía sérios problemas de manutenção em média a cada 5 minutos alguma das válvulas se queimava tornando necessárias manutenções freqüentes abaixo está a foto de uma válvula muito usada na década de 40 vendo essa foto é fácil imaginar por que as válvulas eram tão problemáticas e caras elas eram simplesmente complexas demais mesmo assim na época as válvulas eram o que existia de mais avançado permitindo que computadores como o eniac executassem em poucos segundos cálculos que um matemático equipado com uma calculadora mecânica demorava horas para executar durante a década de 1940 e início da de 1950 a maior parte da indústria continuou trabalhando no aperfeiçoamento das válvulas obtendo modelos menores e mais confiáveis porém vários pesquisadores começaram a procurar alternativas menos problemáticas 5 se você acha que programar em c ou em assembly é complicado imagine como era a vida dos programadores daquela época a programação do eniac era feita através de 6.000 chaves manuais e ao invés de teclas toda a entrada de dados guiadohardware.net revista nº 10 março de 2008 era feita através de cartões de cartolina perfurados que armazenavam algumas poucas operações cada um uma equipe preparava os cartões incluindo as operações a serem realizadas formando uma pilha outra ia trocando os cartões no leitor do eniac e

[close]

p. 6

especial história da informática várias destas pesquisas tinham como objetivo a pesquisa de novos materiais tanto condutores quanto isolantes os pesquisadores começaram então a descobrir que alguns materiais não se enquadravam nem em um grupo nem no outro pois de acordo com a circunstância podiam atuar tanto quando isolantes quanto como condutores formando uma espécie de grupo intermediário que foi logo apelidado de grupo dos semicondutores haviam encontrado a chave para desenvolver o transístor o primeiro protótipo surgiu em 16 de dezembro de 47 veja a foto abaixo onde era usado um pequeno bloco de germânio que na época era junto com o silício o semicondutor mais pesquisado e três filamentos de ouro um filamento era polo positivo o outro o polo negativo enquanto o terceiro tinha a função de controle tendo apenas uma carga elétrica no polo positivo nada acontecia o germânio atuava com um isolante bloqueando a corrente porém quando uma certa tensão elétrica era aplicada usando o filamento de controle uma fenômeno acontecia e a carga elétrica passava a fluir para o polo negativo haviam criado um dispositivo que substituía a válvula que não possuía partes móveis gastava uma fração da eletricidade gasta por uma e ao mesmo tempo era muito mais rápido alcançada por um transístor sozinho nos computadores da época a freqüência de operação era muito menor já que em cada ciclo de processamento o sinal precisa passar por vários transístores mas o grande salto foi a substituição do germânio pelo silício isto permitiu minia turizar ainda mais os transístores e baixar seu custo de produção os primeiros transístores de junção comercial já similares aos atuais foram produzidos partir de 1960 pela crystalonics decretando o final da era das válvulas a idéia do uso do silício para construir transístores é que adicionando certas substâncias em pequenas quantidades é possível alterar as propriedades elétricas do silício as primeiras experiências usavam fósforo e boro que transformavam o silício em condutor por cargas negativas ou condutor por cargas positivas dependendo de qual dos dois materiais fosse usado estas substâncias adicionadas ao silício são chamadas de impurezas e o silício contaminado por elas é chamado de silício dopado o funcionamento de um transístor é bastante simples quase elementar É como naquele velho ditado as melhores invenções são as mais simples as válvulas eram muito mais complexas que os transístores e mesmo assim foram rapidamente substituídas por eles 6 este primeiro transístor era muito grande mas não demorou muito para que este modelo inicial fosse aperfeiçoado durante a década de 50 o transístor foi aperfeiçoado e passou a gradual-mente dominar a indústria substituindo rapidamente as problemáticas válvulas os modelos foram diminuindo de tamanho caindo de preço e tornando-se mais rápidos alguns transístores da época podiam operar a até 100 mhz claro que esta era a freqüência que podia ser guiadohardware.net revista nº 10 março de 2008

[close]

p. 7

especial história da informática um transístor é composto basicamente de três filamentos chamados de base emissor e coletor o emissor é o polo positivo o coletor o polo negativo enquanto a base é quem controla o estado do transístor que como vimos pode estar ligado ou desligado veja como estes três componentes são agrupados num transístor moderno um 386 por exemplo consumia pouco mais de 1watt de energia e podia funcionar sem nenhum tipo de resfriamento um 486dx-4 100 consumia cerca de 5 watts e precisava de um cooler simples enquanto o athlon 64 chega a consumir 80 watts de energia e precisa de no mínimo um bom cooler para funcionar bem em compensação a versão mais rápida do 386 operava a apenas 40 mhz enquanto processadores atuais já superam a barreira dos 3.0 ghz o grande salto veio quando descobriuse que era possível construir vários transistores sobre o mesmo wafer de silício isso permitiu diminuir de forma gritante o custo e o tamanho dos computadores entramos então na era do microship quando o transístor está desligado não existe carga elétrica na base por isso não existe corrente elétrica entre o emissor e o coletor quanto é aplicada uma certa tensão na base o circuito é fechado e é estabelecida a corrente entre o emissor e o receptor cada transístor funciona como uma espécie de interruptor que pode estar ligado ou desligado como uma torneira que pode estar aberta ou fechada ou mesmo como uma válvula a diferença é que o transístor não tem partes móveis como uma torneira e é muito menor mais barato mais durável e muito mais rápido que uma válvula a mudança de estado de um transístor é feito através de uma corrente elétrica esta mudança de estado por sua vez pode comandar a mudança de estado de vários outros transístores ligados ao primeiro permitindo processador dados num transístor esta mudança de estado pode ser feita bilhões de vezes por segundo porém a cada mudança de estado é consumida uma certa quantidade de eletricidade que é transformada em calor É por isso que quanto mais rápidos mais eles se aquecem e mais e mais energia consomem guiadohardware.net revista nº 10 março de 2008 o primeiro microship comercial foi lançado pela intel em 1971 e chamava-se 4004 como o nome sugere ele era um processador que manipulava palavras de apenas 4 bits embora já trabalhasse com instruções de 8 bits ele era composto de pouco mais de 2000 transistores e operava a apenas 740 khz embora fosse muito limitado ele foi muito usado em calculadoras área em que representou uma pequena revolução mais do que isso o sucesso do 4004 mostrou a outras empresas que os microships eram viáveis criando uma verdadeira corrida evolucionária em busca de processadores mais rápidos e avançados 7

[close]

p. 8

especial história da informática como são fabricados os processadores o componente básico para qualquer chip é o wafer de silício que é obtido através da fusão do silício junto com os materiais que permitirão sua dopagem posteriormente inicialmente são produzidos cilindros com de 20 a 30 centímetros de diâmetro que posteriormente são cortados em fatias bastante finas intel 4004 em 1972 surgiu o intel 8008 o primeiro processador de 8 bits e em 1974 foi lançado o intel 8080 antecessor do 8088 que foi o processador usado nos primeiros pcs em 1977 a amd passou a vender um clone do 8080 inaugurando a disputa intel x amd que continua até os dias de hoje estas fatias por sua vez são polidas e tratadas obtendo os wafers de silício a qualidade do wafer determinará o tipo de chip que poderá ser construído com base nele wafers de baixa qualidade usados para para construir circuitos rudimentares com poucos milhares de transístores podem ser comprados a preços bastante baixos a partir de milhares de fornecedores diferentes entretanto para produzir um processador moderno é preciso utilizar wafers de altíssima qualidade que são extremamente caros 8080 da amd embora o silício seja um material extremamente barato e abundante toda a tecnologia necessária para produzir os wafers faz com que eles estejam entre os produtos mais caros produzidos pelo homem cada wafer de 30 centímetros custa de mais de 20 mil dólares para um fabricante como a intel mesmo quando compra dos em grande quantidade 8 guiadohardware.net revista nº 10 março de 2008

[close]

p. 9

especial história da informática cada wafer é usado para produzir vários processadores que no final da produção são separados e encapsulados individualmente não seria possível mostrar todos os processos usados na fabricação de um processador mas para lhe dar uma boa idéia de como eles são produzidos vou mostrar passo a passo a construção de um único tran sístor imagine que um core 2 duo possui 291 milhões de transístores e cada wafer permite produzir algumas centenas de processadores tudo começa com o wafer de silício em seu estado original a camada fotosensível é originalmente sólida mas ao ser atingidapela luz ultravioleta transforma-se numa substância gelatinosa que pode ser facilmente removida depois de remover as partes moles da camada fotosensível temos algumas áreas do dióxido de silício expostas e outras que continuam cobertas pelo que restou da camada em seguida é aplicada uma camada bastante fina de um material fotosensível sobre a camada de dióxido de silício usando uma máscara especial é jogada luz ultravioleta apenas em algumas áreas da superfície esta máscara tem uma padrão diferente para cada área do processador de acordo com o desenho que se pretende obter a técnica usada aqui é chamada de litografia óptica existem várias variações da tecnologia como a euvl extreme ultra violet lithography usada nos processadores atuais quanto mais avançada a técnica usada menores são os transístores permitindo o desenvolvimento de processadores mais complexos e rápidos o wafer é banhado com um produto especial que remove as partes do dióxido de silício que não estão protegidas pela camada fotosensível o restante continua intacto a primeira etapa do processo é oxidar a parte superior do wafer transformando-a em dióxido de silício isto é obtido expondo o wafer a gases corrosivos e altas temperaturas a fina camada de dióxido de silício que se forma é que será usada como base para a construção do transístor guiadohardware.net revista nº 10 março de 2008 9

[close]

p. 10

especial história da informática finalmente é removida a parte que restou da camada fotosensível note que como temos substâncias diferentes é possível remover uma camada de cada vez ora o dióxido de silício ora a própria camada fotosensível com isto é possível desenhar as estruturas necessárias para formar os transístores temos aqui pronta a primeira camada cada transístor é formado para várias camadas dependendo do projeto do processador neste exemplo temos um transístor simples de apenas quatro camadas mas os processadores atuais utilizam um numero muito maior de camadas mais de vinte em alguns casos dependendo da densidade que o fabricante pretende alcançar começa então a construção da segunda camada do transístor inicialmente o wafer passa novamente pelo processo de oxidação inicial sendo coberto por uma nova camada desta vez bem mais fina de dióxido de silício note que apesar da nova camada de dióxido o desenho conseguido anteriormente é mantido em seguida é aplicada sobre a estrutura uma camada de cristal de silício sobre esta é aplicada uma nova camada de material fotosensível novamente o wafer passa pelo processo de litografia desta vez utilizando uma máscara diferente novamente a parte da camada fotosensível que foi exposta à luz é removida deixando expostas partes das camadas de cristal de silício e dióxido de silício que são removidas em seguida estas impurezas também são chamadas de íons note que os íons aderem apenas à camada de silício que foi exposta no processo anterior e não nas camadas de dióxido de silício ou na camada de cristal de silício como na etapa anterior o que restou da camada fotosensível é removida terminamos a construção da segunda camada do transístor É adicionada então uma ter ceira camada composta de um tipo diferente de cristal de silício e novamente é aplicada a camada fotosensível sobre tudo chegamos a uma das princi pais etapas do processo de fabricação que é a aplicação das impurezas que transfor marão partes do wafer de silício num material condutor guiadohardware.net revista nº 10 março de 2008 o wafer passa novamente pelo processo de litografia usando mais uma vez uma máscara diferente 10

[close]

p. 11

especial história da informática uma finíssima camada de metal é aplicada sobre a estrutura anterior nos processadores atuais que são produzidos através de uma técnica de produção de 0.065 mícron esta camada metálica tem o equivalente a apenas 3 átomos de espessura as partes do material fotosensível expostas à luz são removidas expondo partes das camadas inferiores que são removidas em seguida cada processador é constituído por vários milhões de transístores divididos em diversos grupos de componentes entre eles as unidades de execução onde as instruções são realmente processadas e os caches como todo processador atual processa várias instruções por ciclo são incluídos diversos circuitos adicionais que organizam e ordenam as instruções de forma a aproveitar da melhor maneira possível os recursos disponíveis no final do processo toda a área do wafer é coberta por processadores destes muitos acabam sendo descartados pois qualquer imperfeição na superfície do wafer partícula de poeira ou anomalia durante o processo de litografia acaba resultando numa área defeituosa temos também os processadores incompletos que ocupam as bordas do wafer que também são descartados t emos agora pronta a terceira camada do transístor veja que a estrutura do transístor já está quase pronta faltando apenas os três filamentos condutores o processo de aplicação da camada fotosensível de litografia e de remoção das camadas é aplicado mais uma vez com o objetivo de remover as partes indesejadas da camada de metal finalmente temos o transístor pronto cada processador é testado individualmente através de um processo automático o wafer é finalmente cortado e os processadores bons são finalmente encapsulados ou seja instalados dentro da estrutura que os protege e facilita o manuseio e instalação guiadohardware.net revista nº 10 março de 2008 11

[close]

p. 12

especial história da informática o formato do encapsulamento varia de processador para processador geralmente temos um spreader ou seja uma proteção de metal sobre o die do processador que fica entre ele e o cooler entretanto em muitos processadores como os athlons durons e semprons antigos é usado um encapsulamento mais simples onde a parte central é a própria parte inferior do wafer de silício exposta para melhorar a dissipação de calor nestes casos é preciso redobrar os cuidados na hora de instalar e remover o cooler pois qualquer dano ao núcleo será suficiente para inutilizar o processador parece pouco mas estes transistores parecem pirâmides se comparados aos atuais o 486 já foi produzido numa técnica de 1 mícron onde cada transístor ocupa uma área 100 vezes menor enquanto o 4004 tinha apenas 2.000 transístores o 486 tinha um milhão deles como a velocidade de operação do transístor está diretamente relacionada a seu tamanho o 486 é também brutalmente mais rápido enquanto o 4004 opera a 740 khz o 486 atingiu 100 mhz nas versões fabricados pela intel mas isso não é nada se comparado com os processadores atuais um core 2 duo x6800 é fabricado numa técnica de 0.065 mícron 237 vezes menores que os do 486 possui 291 milhões de transístores e opera a 2.93 ghz estão previstos processadores fabricados numa técnica de 0.045 mícron em 2008 e 0.032 mícron em 2010 depois disso não se sabe até onde a tecnologia poderá evoluir pois os fabricantes estão se aproximando dos limites da matéria a 0.032 mícron já temos transístores ocupando uma área equivalente a poucas centenas de átomos de silício os supercomputadores nas décadas de 1940 e 1950 todos os computadores do mundo eram gigantescos e caros agregando tudo o que havia mais avançado em termos de conhecimento humano pois bem vendo de hoje pode parecer ridículo que qualquer calculadora de mão de 3 reais possa ter um poder de processamento muito superior ao de um eniac que só de manutenção consumia o equivalente a quase 200.000 dólares por dia em valores corrigidos mas os supercomputadores continuam existindo tão grandes e caros quanto um eniac porém incomparavelmente mais rápidos do que os micros de mesa como o que você está usando neste exato momento estes mastodontes que estão por trás de muitos dos avanços da humanidade que apesar de estarem escondidos em grandes salas refrigeradas são alvo de grande curiosidade enquanto escrevo o supercomputador mais rápido do planeta segundo o http www.top500.org é o ibm blue gene/l desenvolvido pela ibm ele é composto por nada menos do que 131.072 processadores powerpc e possui 32 terabytes de memória ram para chegar a estes números a ibm desenvolveu módulos relativamente simples cada um contendo 2 processadores 512 mb de ram e uma interface de rede gigabit ethernet similares a um pc doméstico 12 só a título de curiosidade o intel 4004 era produzido numa técnica de 10 micra onde cada transístor mede o equivalente a 1/100 de milímetro guiadohardware.net revista nº 10 março de 2008

[close]

p. 13

especial história da informática estes módulos foram agrupados em racks chamados de nós cada um com 128 deles no final chegaram a 512 racks interligados por uma complexa malha de cabos de rede rodando um software próprio de gerenciamento esta gigantesca estrutura funciona como um cluster onde o processamento é dividido em pequenos pedaços e dividido entre os módulos veja uma foto mostrando parte das instalações publicada com autorização da ibm os primeiros supercomputadores começaram a surgir na década de 60 alias uma década de muitos avanços já que no final da década de 50 foi feita a transição das válvulas para os transístores cada transístor era centenas de vezes menor que uma válvula era muito mais durável e tinha a vantagem de gerar pouco calor todos os computadores da desenvolvimento dos pri meiros minicomputadores naquela época minicomputador era qualquer coisa do tamanho de um armário com uma capacidade de processamento inferior ao de uma agenda eletrônica atual das mais baratas os computadores de grande porte porém continuaram a ser desenvolvidos passando a ser chamados de supercomputadores o primeiro supercomputador para fins comerciais foi o cdc 6600 que foi seguido pelos ibm 360/95 e 370/195 na década de 70 surgiu uma nova revolução o microchip um microchip sozinho oferecia uma capacidade de processamento equivalente à de um minicomputador mas em compensação era escandalosamente menor e mais barato surgiram então os primeiros microcomputadores os supercomputadores da década de 70 já eram centenas de vezes mais poderosos do que os produzidos uma década antes guiadohardware.net revista nº 10 março de 2008 13

[close]

p. 14

especial história da informática os principais modelos foram o cdc 7600 o bsp produzido pela burroughs e o asc da texas instruments estes sistemas atingiram a marca de 100 megaflops ou seja 100 milhões de cálculos de ponto flutuante por segundo esta é a mesma capacidade de processamento de um pentium 60 porém atingida 20 anos antes no final da década de 70 sugiram os supercomputares cray produzidos pela seymour o primeiro da linha chamado de cray 1 também processava 100 megaflops porém o cray-xmp atingiu a incrível marca de 1 gigaflop ainda no início da década de 80 esta é uma capacidade de processamento próxima à de um 370/195 pentium ii 350 só para efeito de comparação o blue gene/l que citei a pouco possui 360 teraflops de poder de processamento ou seja é 360 mil vezes mais rápido apesar de mesmo um pc de baixo custo atualmente possuir um poder de processamento superior ao de um supercomputador que a 15 anos atrás custava 5 milhões de dólares a demanda por sistemas cada vez mais rápidos continua as aplicações são várias englobando principalmente pesquisas científicas aplicações militares diversas e vários tipos de aplicativos financeiros e relacionados à internet aplicativos que envolvem uma quantidade absurda de processamento e claro envolvem instituições que podem pagar muito mais do que 5 ou 10 mil dólares por um computador o mais rápido possível existindo demanda aparecem os fornecedores atualmente todos os supercomputadores são construídos com base em praticamente os mesmos componentes que temos em micros de mesa memória hds e processadores intel ibm ou amd ao invés de usar apenas um disco rígido ide como num micro de mesa um supercomputador utiliza um array de centenas de hds sistemas semelhantes ao raid mas numa escala maior que permitem gravar dados de forma fragmentada em vários discos e ler os pedaços simultaneamente a partir de vários hds obtendo taxas de transferência muito altas processadores e memória ram geralmente são agrupados em nós cada nó engloba de um a quatro processadores e uma certa quantidade de memória ram e cache isso garante que os processadores tenham um acesso à memória tão rápido quanto um pc de mesa os nós por sua vez são interligados através de interfaces de rede o que os torna partes do mesmo sistema de processamento 14 como neurônios interligados para formar um cérebro um nó sozinho não tem uma capacidade de processamento tão surpreendente assim mas ao interligar algumas centenas ou milhares de nós a coisa muda de figura uma opção mais barata para instituições que precisam de um supercomputador mas não possuem muito dinheiro disponível é usar um sistema de processamento distribuído ou cluster um cluster formado por vários pcs comuns ligados em rede o exemplo mais famoso de processamento distribuído foi o projeto seti@home onde cada voluntário instalava um pequeno programa que utilizava os ciclos de processamento ociosos da máquina para processar as guiadohardware.net revista nº 10 março de 2008

[close]

p. 15

especial história da informática informações relacionadas ao projeto os pacotes de dados de 300 kb cada chegavam pela internet e demoravam várias horas para serem processados isso permitiu que mais de 2 milhões de pessoas muitas com conexão via modem participassem do projeto o sistema montado pela seti@home foi considerado por muitos o supercomputador mais poderoso do mundo na época este tipo de sistema pode ser construído usando por exemplo a rede interna de uma empresa rodando o software adequado todos os micros podem fazer parte do sistema alcançando juntos um poder de processamento equivalente ao de um supercomputador o mais interessante é que estes pcs poderiam ser usados normalmente pelos funcionários já que o programa rodaria utilizando apenas os ciclos ociosos do processador a tecnologia de cluster mais usada atualmente são clusters beowulf formados por vários computadores interligados em rede não é necessário nenhum hardware muito sofisticado um grupo de pcs parrudos ligados através de uma rede gigabit já é o suficiente para montar um cluster beowulf capaz de rivalizar com muitos supercomputadores em poder de processamento a idéia é criar um sistema de baixo custo que possa ser utilizado por universidades e pesquisadores com poucos recursos o primeiro cluster beowulf foi criado em 1994 na cesdis uma subsidiária da nasa e era formado por 16 pcs 486 dx100 ligados em rede para manter a independência do sistema e baixar os custos os desenvolvedores optaram por utilizar o linux estes clusters não servem para processar dados em tempo real um game qualquer por exemplo mas apenas para processar grandes quantidades de dados que podem ser quebrados em pequenas partes e divididos entre os vários computadores uma área onde são populares é na aplicação de efeitos especiais e renderização de imagens para filmes de cinema há inclusive casos de filmes como shrek e final fantasy que foram feitos inteiramente em clusters beowulf a evolução dos computadores pessoais até aqui falei sobre os supercomputadores e sobre a evolução dos processadores que evoluíram das válvulas para o transístor e depois para o circuito integrado vou agora falar um pouco sobre os primeiros computadores pessoais que começaram a fazer sua história a partir da década de 70 t empos difíceis aqueles como disse a pouco o primeiro microchip o 4004 foi lançado pela intel em 71 era um projeto bastante primitivo que processava instruções de 8 bits através de um barramento rudimentar que permitia transferir apenas 4 bits por ciclo e operava a meros 740 khz na verdade o 4004 era tão lento que demorava 10 ciclos para processar cada instrução ou seja ele proces sava apenas 74 mil instruções por segundo cerca de 15 vezes mais rápido que o eniac hoje em dia esses números perecem piada mas na época era a última palavra em tecnologia o 4004 permitiu o desenvolvimento das primeiras calculadoras eletrônicas portáteis pouco tempo depois a intel lançou um novo processador que fez sucesso durante muitos anos o 8080 este já era um processador de 8 bits e operava a incríveis 2 mhz 15 guiadohardware.net revista nº 10 março de 2008

[close]

Comments

no comments yet