BOPE PEDE AJUDA NO TWITTER

Ajude o BOPE a ajudar você! (Fonte da imagem: Perfil oficial do BOPE no Twitter)


Quem tem Twitter pode seguir o perfil oficial do BOPE. O batalhão da PM carioca está usando a rede social para informar seus mais recentes atos à população. E além de dizer em que locais os policiais fizeram os bandidos pedirem para sair, ainda são colocadas fotografias de traficantes para que os seguidores possam colaborar com denúncias anônimas sobre suas localizações.

A imagem que ilustra esta notícia mostra exatamente isso. Postada no TwitPic, ela traz quatro traficantes foragidos e ainda utiliza um bordão que ficou famoso com o filme “Tropa de Elite”: “Ajude o BOPE a ajudar você”. O telefone para denúncias também está presente e, caso queira, você pode seguir o perfil do batalhão no Twitter. Mas é muito provável que o BOPE não vá seguir ninguém.

HACKER QUE DESBLOQUEO O PS3 TEM PLANO PARA ANIQUILAR O ORKUT

Para muitos, um herói. Para outros, o inimigo “número um” dos video games. George Hotz, também conhecido como GeoHot, é um dos hackers mais famosos dos últimos anos, atingindo esse posto após desbloquear um dos sistemas mais “lacrados” de todos os tempos: o PlayStation 3.
George Hotz em disputas frequentes com a Sony
Fonte da imagem: George Hotz
Liberando os sistemas a rodarem jogos não originais, a alteração prejudica a Sony (empresa fabricante do PlayStation) e todas as produtoras e desenvolvedoras de games associadas. Ele também é conhecido por ter desbloqueado o iPhone, criando jailbreaks para várias versões do sistema operacional portátil da Apple.

Disputas judiciais

Nem todas as suas ações repercutiram tanto quanto o desbloqueio dos PlayStation. Isso porque a Sony luta com todas as forças para manter o seu sistema sem alterações (desautorizadas) de qualquer tipo. Hoje, a empresa japonesa está com vários processos contra o hacker norte-americano.
São ações relacionadas a quebra de patentes e desacordo com os contratos de licenciamento. A primeira vitória da Sony foi uma ordem de restrição para Hotz, que ficou proibido de mencionar os nomes “Sony” e “PlayStation” ou divulgar versões modificadas de softwares em qualquer meio digital, o que inclui fóruns, sites, redes sociais e vídeos.
Não respeitando a decisão da justiça, em fevereiro deste ano Hotz publicou um vídeo no YouTube para desafiar a Sony. No vídeo, ele canta um rap próprio, no qual solta algumas ofensas contra a empresa. Entre as frases de maior impacto, estavam: “Cry to your uncle Sam” e “I’m the personification of freedom to y’all”.


A primeira delas diz para a Sony ir “chorar com o Tio Sam” (apelido dos Estados Unidos) e, na segunda, ele se declara a personificação da liberdade para todos. Há também várias outras frases que são um pouco pesadas para que sejam colocadas neste artigo.

A fuga para a América Latina

GeoHot foi obrigado pela justiça norte-americana a entregar todos os seus eletrônicos (incluindo discos rígidos e video games) à Sony. E apesar de todas as frases de efeito, quando isso ocorreu, Hotz não resistiu à pressão e decidiu fugir para a América Latina. Há várias fontes internacionais que confirmam a fuga para a Argentina.
Uma destas fontes é uma declaração da Sony. Quando a SCEA (Sony Computer Entertainment of America) pediu os discos rígidos do hacker, o advogado dele informou que ele não poderia responder aos pedidos naquele momento, já que estava na América Latina. Inicialmente na Argentina, não demorou para que George Hotz encontrasse formas de fugir para outro país – o Brasil.

Encontrando abrigo no Brasil

Após duas semanas em Buenos Aires, George Hotz foi contatado por um grupo de hackers, que ofereceu asilo para ele em uma cidade metropolitana do Rio de Janeiro. O Tecmundo conseguiu contato com GeoHot e divulga agora uma entrevista exclusiva – já traduzida –  realizada na última quarta-feira.
Tecmundo: George Hotz, o que levou você a buscar maneiras de burlar o sistema do PlayStation com tanto afinco?
GeoHot: Assim como aconteceu com o iPhone, o PlayStation 3 é um verdadeiro aprisionador dos usuários. Nós já pagamos uma boa quantia de dólares por eles; o mínimo que podemos esperar é que tenhamos liberdade para usá-los da maneira que quisermos.
TM: Então as suas modificações nos sistemas visam apenas o bem dos usuários?
GH: O que realmente me move é a vontade de mostrar que os usuários podem ser maiores do que as empresas. E não o contrário.
TM: Você reconhece sua culpa perante a lei norte-americana?
GH: Sei que a justiça dos Estados Unidos não é voltada ao consumidor, mas sim aos empresários. Também conheço os contratos do PlayStation e posso garantir que nunca burlei nenhum deles, porque nunca assinei nenhum deles.
TM: Mas o contrato da Sony diz que, se não concordar com os termos nele inscritos, você não é autorizado a utilizar os sistemas da marca.
GH: Não me lembro de ter lido isso!
TM: Mudando de assunto. Por que escolheu o Brasil?
GH: Eu estava na Argentina para esfriar a cabeça, então surgiu um convite de alguns hackers brasileiros. A oferta foi tentadora, porque aqui eu poderia libertar muito mais os usuários. Não apenas das garras da Sony, como também das opressões tributárias, que fazem os jogos serem muito mais caros do que valem. Aqui o desbloqueio dos sistemas possui uma razão a mais.
TM: E qual o próximo passo?
GH: Depois de disseminar os desbloqueios do PS3, vou lutar para libertar os brasileiros de uma outra praga.
TM: Qual?
GH: O Orkut.
TM: Por que você diz que ele é uma praga?
GH: Uma rede social que aprisiona a alma dos usuários não pode ser algo bom. Li alguns estudos sobre o perfil do usuário do Orkut e vi que, no Brasil, esta rede social é mais nociva do que muitas drogas.
TM: Prossiga.
GH: Os adolescentes voltam da escola e acessam o Orkut em vez de estudarem. E isso é só um dos mil exemplos. Preparem-se, porque em breve vocês verão o Orkut sendo aniquilado.
TM: Aniquilado?
GH: Exatamente. Falhas serão expostas e servidores serão derrubados. A Google vai aprender que a internet serve para libertar, não para prender.

Orkut: o próximo alvo

Como dito na entrevista, pelo próprio George Hotz, em breve o Orkut será atacado de uma maneira jamais vista anteriormente. O Tecmundo sugere que, para sua segurança, senhas sejam trocadas e dados muito confidenciais sejam retirados dos servidores da rede social.

GeoHot em seu quarto, ainda nos EUA
Fonte da imagem: George Hotz

Podemos garantir também que a Google já está trabalhando em maneiras de evitar que GeoHot utilize seus dotes de hacker para atacar o Orkut. Sabemos também que os principais objetivos do hacker são relacionados à “libertação” dos usuários, por isso esses ataques não devem ser nocivos a quem utiliza o Orkut.

Agora conte para o Tecmundo o que você pensa a respeito dessas novas intenções de GeoHotAproveite e diga também o que você acha dos desbloqueios criados por ele para o smartphone da Apple e o vídeo game da Sony.

Atenção:


Este artigo foi o Erro 404 escondido da semana e trata-se de uma brincadeira de primeiro de abril dos sites Baixaki e Tecmundo. Fiquem tranquilos, Geohot não tem planos malignos para destruir o Orkut. Ainda…

Leia mais em: http://www.tecmundo.com.br/9406-hacker-que-desbloqueou-o-ps3-tem-planos-para-aniquilar-o-orkut.htm#ixzz1PZ2xjuJi

COISAS ANTIGAS QUE FUNCIONAVAM MAIS RÁPIDO


É inegável a forte influência da tecnologia em nosso cotidiano. Você já parou para pensar na quantidade de aparelhos eletrônicos que usamos durante o dia? São computadores, smartphones, televisores, câmeras digitais, video games, DVD players, localizadores GPS, entre muitos outros gadgtes.

Toda essa parafernália tem o objetivo de nos manter melhor informados e tornar nossas vidas mais práticas e divertidas. Entretanto, em meio a tantos botões, mecanismo de configuração, recursos de navegação, telas sensíveis ao toque e conteúdos com maior resolução e interação, como uma atividade pode ficar mais simples?

Com tantos dispositivos à nossa disposição, sem qualquer dúvida, temos maior facilidade para encontrar informações e formas de entretenimento. Por outro lado, para ver o que está passando em todos os canais da TV ou assistir a um filme, por exemplo, nós gastamos mais tempo que nossos pais e avós.

cidar melhor esse cenário, que a cada dia ganha mais ferramentas, recursos e demora.Vamos analisar alguns casos práticos para elu

Na frente da “telinha”


Passado


A televisão é, por enquanto, a ferramenta de entretenimento mais usada pelas pessoas. Quem teve a oportunidade de acompanhar os primórdios da popularização dessa tecnologia, inventada no século passado, jamais imaginou que poderia acessar a internet, executar músicas armazenadas no celular e assistir a cenas que transcendem as três dimensões pela TV.

Todavia, não precisamos voltar muito no tempo para ver que aquelas velhas caixas pesadas tinham alguma vantagem. Antigamente, bastava conectar o cabo da antena no televisor e utilizar o controle remoto para pular os canais (sem qualquer atraso na troca) e acompanhar o que estava passando em cada uma das 15 emissoras.

Na época, a pessoa chegava em casa, ligava a televisão e passava por todos os canais pressionando os botões da TV ou do controle remoto, em um cenário mais recente.

Tempo estimado para passar todos os canais: 3 minutos.


Hoje


Atualmente, esse contexto é completamente diferente. Os aparelhos ocupam menos espaço e são mais bonitos. Porém, o tempo para achar a programação que desejamos é bem maior. Ao sentar no sofá, você liga o televisor. Ativa o receptor da TV a cabo. Aciona o amplificador de áudio. A cada canal é preciso esperar de 1 a 3 segundos para o carregamento do conteúdo.

Cansado de tanto pressionar o mesmo botão, você acessa o guia de programação para ver o que está passando nos mais de 300 canais disponíveis. Você nem começou a assistir ao que queria e já se passaram quase 10 minutos!

Tempo para encontrar um programa interessante: 10 minutos.


Pipoca gelada


Passado


Década de 80. Fim de semana chuvoso. Nada melhor para passar o tempo do que assistir a um bom filme comendo pipoca (estourada na panela) e tomando um refrigerante. Você vai até a locadora do bairro e escolhe um título bacana na seção “lançamentos”, mas que saiu de cartaz dos cinemas há mais de três meses.

Reunida a família na sala, você insere a fita VHS no aparelho, aperta o play e pronto! Após uma breve introdução com a divulgação da produtora, o filme começa a ser exibido para o deleite de todos.

Tempo para começar a assistir ao filme em VHS: 2 minutos.


Hoje


Como todos sabemos, na atualidade esse processo é um pouco mais prolongado. Começando pela dificuldade em reunir toda a família: é a mãe que não larga o telefone, o filho que não desliga o video game e a filha que não para de bater papo nos chats da internet.
Depois de muito sacrifício e todos dispostos a curtir o filme que deixou de ser exibido nos cinemas na semana retrasada, você liga o player e coloca o Blu-ray. Logo de cara, aparece a mensagem que o carregamento do conteúdo pode levar até três minutos. Em seguida, é exibida a campanha contra a pirataria e algumas advertências sobre a reprodução da mídia. Você se lembrou de ajustar o volume do home theater? Então o faça!

Quando você acha que o filme vai começar, iniciam-se os trailers das sete produções que serão lançadas no próximo semestre. O que é pior: você não pode pulá-los, apenas avançar a execução rapidamente. Enfim, você acessa o menu principal. Após definir o idioma de áudio e legenda, finalmente, chegou a hora de pressionar “Iniciar” e assistir ao tão esperado título.

Infelizmente, nesse momento, a pipoca (feita no micro-ondas) está fria e você já bebeu metade do copo de refrigerante. Dedo no botão de pausa para requentar o aperitivo e completar o recipiente da bebida.

Tempo para acessar o menu principal do filme: 8 minutos, se você não assistir aos trailers na íntegra.


Localização geográfica


Passado


O ano é 1992. Você está viajando com seu Escort branco 1.8 para a casa de parentes no interior. Em certo momento do trajeto, uma breve falha na memória deixa você com sérias dúvidas de qual caminho seguir em determinada bifurcação.

Nada de pânico. Você não está perdido. O mapa, que sempre está no porta-luvas ocupando quase todo o espaço do compartimento, o auxilia no esclarecimento do percurso. Se você possuir um guia completo, tudo fica ainda mais fácil. Com o catálogo aberto no índice, bastam alguns minutos para localizar a cidade em que você está e descobrir qual a direção correta.



Tempo médio para descobrir a rota: 3 minutos e meio.

Hoje


Quase 20 anos mais tarde, dificilmente você vai encontrar mapas físicos nos carros. A moda agora é o GPS. Comparar as dimensões e a beleza desse gadget com as centenas de páginas dos guias é covardia. Entretanto, alguns detalhes nesses dispositivos eletrônicos de localização podem tornar uma viagem um tanto quanto confusa.

 levando o cabo para o carregamento do aparelho. Em percursos longos, a bateria pode não durar no caminho de volta.

(Fonte da imagem: Wikimedia Commons/Autor Paul Vlaar)



O primeiro ponto a ser observado é: sempre confira se você está
Assim que você liga o GPS, é preciso esperar o sistema operacional ser carregado. Finalizado tal processo, o próximo passo é encontrar a ferramenta da localização e navegação em meio à rádio FM/AM, o recurso de armazenamento de documentos, o receptor de TV digital, o acervo de fotos, entre outras funcionalidades – as quais você pode usufruir em outros gadgets.

Acessada a função primordial do localizador, você precisa torcer para que o sinal do GPS, informando onde você está, seja encontrado rapidamente pelos satélites do serviço implementado no dispositivo. Depois de tanto tempo, e o provável desespero, o aparelho exibe a rota a ser percorrida.

Tempo estimado para acionar o localizador: de 7 a 10 minutos.


Meia-lua para frente e soco


Passado


Os video games fazem parte da vida de crianças e adolescentes há muitas décadas. Um dos consoles que teve muito sucesso nos anos 90 foi o Super Nintendo. O aparelho utilizava fitas como mídia de armazenamento dos jogos, as quais, em caso de mau funcionamento, exigiam apenas alguns métodos de limpeza simples e baratos.

(Fonte da imagem: Wikimedia Commons/Autor Evan-Amos)

Vamos acompanhar o procedimento básico para jogar neste dispositivo:
1º passo: insira o cartucho no console;

2º passo: pressione o botão “Power” no video game;

3º passo: aperte o botão “Start” no controle incessantemente, pulando todas as introduções;

4º passo: clique no botão ou link para começar a jogar.

Tempo para iniciar o game: entre 2 e 4 minutos.


Hoje


Por sua vez, um dos consoles com maior popularidade nos últimos anos é o PlayStation 3. O aparelho da Sony é considerado por muitos como o video game com melhor reprodução de imagens e efeitos visuais, apesar do alto custo dos jogos – os quais usam o Blu-ray como mídia de reprodução.

Confira o procedimento, nem tão básico assim, para jogar no PS3:


1º passo: ligue o console;

2º passo: aguarde o carregamento do sistema;
3º passo: insira o Blu-ray;

4º passo: aguarde a instalação ou a atualização do game;

5º passo: espere o loading do jogo;

6º passo: configure o brilho e a posição da tela;

7º passo: selecione o modo de jogo;

8º passo: em caso de games online, escolha o servidor;

9º passo: aguarde a conexão;

10º passo: aproveite o jogo.

Tempo aproximado para começar a jogar: de 18 a 25 minutos.


Cadê a tecla “Del”?


Passado


Quem tem menos de 18 anos, possivelmente, nunca teve contato com uma máquina de datilografia, ou máquina datilográfica. Para aqueles que não fazem a menor ideia do que estamos falando, esse instrumento secular dotado de teclas mecânicas, uma fita com tinta e dispositivos para a inserção do papel serve para escrever.

Com tal aparelho, bastava colocar o papel e começar a digitar o texto. Em vez de acompanhar a digitação em uma tela, como fazemos hoje, tal verificação era feita diretamente no papel. Não era preciso imprimir, pois o documento ficava pronto assim que o texto fosse terminado.

A falta de energia elétrica não era uma desculpa plausível para dar à professora por ter deixado de fazer a tarefa de casa. Entretanto, era bom evitar erros de gramática, pois consertar qualquer letra era bem complicado.

Tempo para terminar a tarefa de casa: 5 minutos.


Hoje


No atual cenário das tecnologias, não utilizamos nada parecido com tal descrição. Agora, o computador é nosso companheiro inseparável. Seja para navegar pela internet, ouvir música, assistir a vídeos e, inclusive, para escrever.

Contudo, o tempo necessário para ter um texto pronto em mão é um tanto quanto demasiado. Antes de tudo, é preciso ligar o PC e aguardar o carregamento do sistema operacional, que dependendo da configuração de hardware pode levar alguns minutos.

Depois disso, você acessa o editor de texto e o executa. Mais alguns segundos de espera. Chegou a hora de explorar sua criatividade e a agilidade dos seus dedos. A ajuda do corretor ortográfico e da tecla delete seria muito bem-vinda nas máquinas de datilografia.

Trabalho concluído? Ainda não. Faltou você enviar sua produção para a impressão. Aí é essencial que você tenha se lembrado de trocar os cartuchos de tinta da impressora e que a energia não acabe nesse momento.

Tempo para ligar o PC, digitar e imprimir: no mínimo, 15 minutos.

…..

Atenção: este artigo faz parte do quadro “Erro 404″, publicado semanalmente no Baixaki e Tecmundo com o objetivo de trazer um texto divertido aos leitores do site. Algumas das informações publicadas aqui são fictícias, ou seja, não remetem à realidade.

Leia mais em: http://www.tecmundo.com.br/10821-erro-404-coisas-antigas-que-funcionavam-mais-rapido.htm#ixzz1PYyWT2YS

RELÓGIO JAPONÊS AVISA QUANDO O USUÁRIO ESTA EMBRIAGADO

A companhia japonesa Tokyoflash revelou um novo conceito de relógio que promete fazer sucesso entre aqueles que gostam de beber depois do expediente. O dispositivo possui uma função chamada “Alchohol Test Function” (Função de teste de álcool, em uma tradução livre), que promete medir o nível alcoólico no sangue do usuário.

A tela do dispositivo, feita em LED, é ligada através de toques, e mostra uma combinação de cores e gráficos que indicam o estado do usuário. O grau de embriagues é medido de forma semelhante ao feito por um bafômetro, tomando como base a respiração de cada pessoa para determinar se ela está apta a dirigir ou a operar máquinas pesadas.

Não há perspectivas de que a companhia comece a produzir o relógio em larga escala, ao menos em um futuro próximo. Porém, a Tokyoflash é conhecida por publicar imagens conceituais de novos produtos, para só começar a fabricá-los após o público demonstrar interesse pela novidade – assim, aqueles que gostam de abusar das bebidas ainda podem manter a esperança de carregar um acessório do tipo no futuro.

Isso realmente iria funcionar de verdade aqui no Brasil!!!

Leia mais em: http://www.tecmundo.com.br/10858-relogio-japones-avisa-quando-o-usuario-esta-embriagado.htm#ixzz1PYuyRpwo

CURIOSO MAIS REAL CELULAR MATA HOMEM DE 25 ANOS ELETROCUTADO


Produtos falsificados também podem causar morte
(Fonte da imagem: 
PRLog)

Todo mundo sabe que produtos falsificados podem causar danos aos seus usuários, tanto financeiros quanto físicos. Mas poucos esperam morrer por causa da baixa qualidade de construção de tablets e celulares popularmente conhecidos como “xinglings”.
Morador do distrito de Panchmahal, na Índia, o jovem Dhanji Damor morreu ao usar um celular chinês falsificado. Damor foi eletrocutado ao tentar realizar uma ligação enquanto o telefone estava sendo carregado. 

Essa não foi a primeira vez em que algo assim aconteceu na Índia. Em 2010, uma mulher sofreu um acidente similar: Andhra Pradesh recebeu um choque ao tentar carregar o seu celular e acabou também falecendo.
Os “xinglings” costumam ser famosos por apresentarem problemas sérios com a bateria, que não é construída e testada adequadamente. Muitas vezes, esses eletrônicos acabam até mesmo sendo confiscados pelo governo indiano devido à má qualidade. Vale lembrar que muitos desses produtos são comercializados também no Brasil.

Então vamos pensar duas vezes antes de comprar um aparelho falsificado isso, serve de exemplo para que tenhamos o bom senso de procurar compra produtos de qualidade. Valeu!!!

Leia mais em: http://www.tecmundo.com.br/10835-celular-mata-eletrocutado-homem-de-25-anos.htm#ixzz1PYs5Szl8

A EVOLUÇÃO DOS COMPUTADORES PESSOAIS

Até aqui, falei sobre os supercomputadores e sobre a evolução dos processadores, que evoluíram das válvulas para o transístor e depois para o circuito integrado. Vou agora falar um pouco sobre os primeiros computadores pessoais, que começaram a fazer sua história a partir da década de 70. Tempos difíceis aqueles :).
Como disse há pouco, o primeiro microchip, o 4004, foi lançado pela Intel em 1971. Era um projeto bastante primitivo, que processava instruções de 8 bits, através de um barramento rudimentar, que permitia transferir apenas 4 bits por ciclo, e operava a meros 740 kHz. Na verdade, o 4004 era tão lento que demorava 10 ciclos para processar cada instrução, ou seja, ele processava apenas 74 mil instruções por segundo (mesmo assim, ele era cerca de 15 vezes mais rápido que o ENIAC). Hoje em dia esses números parecem piada, mas na época era a última palavra em tecnologia. O 4004 permitiu o desenvolvimento das primeiras calculadoras eletrônicas portáteis.
Pouco tempo depois, a Intel lançou um novo processador, que fez sucesso durante muitos anos, o 8080. Ele já era um processador de 8 bits e operava a incríveis 2 MHz: “Ele é capaz de endereçar até 64 KB de memória e é rápido, muito rápido!” como dito num anúncio publicitário do Altair 8800 que, lançado em 1974, é considerado por muitos o primeiro computador pessoal da história.
O Altair era baseado no 8080 da Intel e vinha com apenas 256 bytes de memória, realmente bem pouco, mesmo para os padrões da época. Estava disponível também uma placa de expansão para 4 KB. Em teoria, seria possível instalar até 64 KB, mas o custo tornava o upgrade inviável.
No modelo básico, o Altair custava apenas 439 dólares, na forma de kit (onde você precisava soldar manualmente todos os componentes). Em valores corrigidos, isso equivale a quase 4.000 dólares, mas na época esse valor foi considerado uma pechincha, tanto que foram vendidas 4.000 unidades em 3 meses, depois de uma matéria da revista Popular Eletronics.
Esse “modelo básico” consistia nas placas, luzes, chips, gabinete, chaves e a fonte de alimentação, junto, claro, com um manual que ensinava como montar o aparelho. Existia a opção de comprá-lo já montado, mas custava 182 dólares (da época) a mais.
Em sua versão básica, o Altair não tinha muita utilidade prática, a não ser a de servir como fonte de aprendizado de eletrônica e programação. Entretanto, pouco tempo depois, começaram a surgir vários acessórios para o Altair: um teclado que substituía o conjunto de chaves que serviam para programar o aparelho, um terminal de vídeo (bem melhor que ver os resultados na forma de luzes :), um drive de disquetes (naquela época ainda se usavam disquetes de 8 polegadas), placas de expansão de memória e até um modelo de impressora. Até mesmo Bill Gates (antes mesmo da fundação da Microsoft) participou, desenvolvendo uma versão do Basic para o Altair.
Se você tivesse muito dinheiro, era possível chegar a algo que se parecia com um computador moderno, capaz de editar textos e criar planilhas rudimentares. Algumas empresas perceberam o nicho e passaram a vender versões “completas” do Altair, destinadas ao uso em empresas, como neste anúncio, publicado na revista Popular Eletronics, onde temos um Altair “turbinado”, com o terminal de vídeo, impressora, dois drives de disquete e 4 KB de memória:

O Altair serviu para demonstrar a grande paixão que a informática podia exercer e que, ao contrário do que diziam muitos analistas da época, existia sim um grande mercado para computadores pessoais.
Pouco depois, em 1976, foi fundada a Apple, tendo como sócios Steve Jobs (que continua ativo até os dias de hoje) e Steve Wozniak. Na verdade, a Apple só foi fundada porque o projeto do Apple I (desenvolvido pelos dois nas horas vagas) foi recusado pela Atari e pela HP. Uma frase de Steve Jobs descreve bem a história:
- Então fomos à Atari e dissemos: “Ei, nós desenvolvemos essa coisa incrível, pode ser construído com alguns dos seus componentes, o que acham de nos financiar?” Podemos até mesmo dar a vocês, nós só queremos ter a oportunidade de desenvolvê-lo, paguem-nos um salário e podemos trabalhar para vocês. Eles disseram não, fomos então à Hewlett-Packard e eles disseram “Nós não precisamos de vocês, vocês mal terminaram a faculdade”.
O Apple I não foi lá um grande sucesso de vendas, vendeu pouco mais de 200 unidades a 666 dólares (pouco mais de US$ 5000 em valores corrigidos) cada uma. Mesmo assim, os lucros sustentaram a Apple durante o primeiro ano, abrindo caminho para o lançamento de versões mais poderosas. Quem comprou um, acabou fazendo um bom negócio, pois hoje em dia um Apple I (em bom estado) chega a valer US$ 50.000.
Diferente do Altair, o Apple I era vendido já montado. A placa era vendida “pelada” dentro de uma caixa de papelão, sem nenhum tipo de gabinete, por isso era comum que os Apple I fossem instalados dentro de caixas de madeira feitas artesanalmente.
O Apple I era baseado no processador 6502, um clone do Motorola 6800, que era fabricado pela MOS Tecnology. Ele era um processador de 8 bits, que operava a apenas 1 MHz. Em termos de poder de processamento, o 6502 perdia para o 8080, mas isso era compensado pelos “espaçosos” 8 KB de memória, suficientes para carregar o interpretador BASIC (que ocupava 4 KB), deixando os outros 4 KB livres para escrever e rodar programas.
Uma das vantages é que o Apple I podia ser ligado diretamente a uma TV, dispensando a compra de um terminal de vídeo. Ele possuía também um conector para unidade de fita (o controlador era vendido separadamente por 75 dólares) e um conector proprietário reservado para expansões futuras:


Apple I

Naquela época, as fitas K7 eram o meio mais usado para guardar dados e programas. Os disquetes já existiam, mas eram muito caros.
Os grandes problemas das fitas K7 eram a lentidão e a baixa confiabilidade. No Apple I, os programas eram lidos a meros 1500 bits por segundo e em outros computadores o acesso era ainda mais lento, com de 250 a 300 bits. Era preciso ajustar cuidadosamente o volume no aparelho de som antes de carregar a fita e, conforme a fita se desgastava, era preciso tentar cada vez mais vezes antes de conseguir uma leitura sem erros.
Na época, existiam até programas de rádio que transmitiam softwares como parte da programação. O locutor avisava e em seguida “tocava” a fita com o programa. Os interessados precisavam ficar com o aparelho de som à mão para gravar a cópia. Esses programas de rádio foram a primeira rede de pirataria de softwares de que se tem notícia, décadas antes da popularização da internet. ;)

Fita K7 com o BASIC para o Apple I

O Apple I foi logo aperfeiçoado, surgindo então o Apple II, lançado em 1977. Esse sim fez sucesso, apesar do preço salgado para a época: US$ 1.298, que equivalem a quase 10.000 dólares em valores corrigidos.
O Apple II vinha com apenas 4 KB de memória, mas incluía mais 12 KB de memória ROM, que armazenava um interpretador BASIC e o software de bootstrap, lido no início do boot. Isso foi uma grande evolução, pois você ligava e já podia começar a programar ou a carregar programas. No Apple I, era preciso primeiro carregar a fita com o BASIC, para depois começar a fazer qualquer coisa.
O BASIC era a linguagem mais popular na época (e serviu como base para diversas linguagens modernas), pois tem uma sintaxe simples se comparado com o C ou o Assembly, utilizando comandos derivados de palavras do Inglês.
Este é um exemplo de programa em BASIC simples, que pede dois números e escreve o produto da multiplicação dos dois:
10 PRINT “MULTIPLICANDO”
20 PRINT “DIGITE O PRIMEIRO NUMERO:”
30 INPUT A
40 PRINT “DIGITE O SEGUNDO NUMERO:”
50 INPUT B
60 LETC=A*B
70 PRINT “RESPOSTA:”, C
Este pequeno programa precisaria de 121 bytes de memória para rodar (os espaços depois dos comandos são ignorados, por isso não contam). Ao desenvolver programas mais complexos você esbarrava rapidamente na barreira da memória disponível (principalmente se usasse um ZX80, que tinha apenas 1 KB ;), o que obrigava os programadores a otimizarem o código ao máximo. Aplicativos comerciais (e o próprio interpretador BASIC) eram escritos diretamente em linguagem de máquina, utilizando diretamente as instruções do processador e endereços de memória, de forma a extraírem o máximo do equipamento.
Voltando ao Apple II, a memória RAM podia ser expandida até 52 KB, pois o processador Motorola 6502 era capaz de endereçar apenas 64 KB de memória, e 12 KB já correspondiam à ROM embutida. Um dos “macetes” naquela época era uma placa de expansão, fabricada pela recém formada Microsoft, que permitia desabilitar a ROM e usar 64 KB completos de memória.
Além dos jogos, um dos programas mais populares para o Apple II foi o Visual Calc, ancestral dos programas de planilha atuais:

Foto de um manual antigo que mostra a interface do Visual Calc

O Apple II já era bem mais parecido com um computador atual. Vinha num gabinete plástico e tinha um teclado incorporado. A versão mais básica era ligada na TV e usava o famigerado controlador de fita K7, ligado a um aparelho de som para carregar programas. Gastando um pouco mais, era possível adquirir separadamente uma unidade de disquetes.


Apple II

A linha Apple II se tornou tão popular que sobreviveu até o início dos anos 90, quase uma década depois do lançamento do Macintosh. O último lançamento foi o Apple IIC Plus, que utilizava um processador de 4 MHz (ainda de 8 bits) e vinha com um drive de disquetes de 3.5″, já similar aos drives atuais.
Outra inovação dos Apple I e Apple II em relação ao Altair e outros computadores anteriores é o tipo de memória usada. O Apple I foi o primeiro a utilizar memórias DRAM, que é essencialmente a mesma tecnologia utilizada até hoje em pentes de memória.
Ao longo das primeiras décadas, a memória RAM passou por duas grandes evoluções. No ENIAC, não existia uma unidade de memória dedicada. Parte das válvulas eram reservadas para armazenar as informações que estavam sendo processadas. Não existia unidade de armazenamento, além dos cartões perfurados e as anotações feitas manualmente pelos operadores.
Na década de 50 surgiram as memórias core, um tipo antiquado de memória onde são usados anéis de ferrite, um material que pode ter seu campo magnético alterado através de impulsos elétricos, armazenando o equivalente a um bit 1 ou 0). Esses anéis de ferrite eram carinhosamente chamados de “donuts” (rosquinhas) e eram montados dentro de uma complexa rede de fios, que transportavam os impulsos elétricos usados para ler e escrever dados.
Cada anel armazenava apenas um bit, de forma que você precisava de 8.192 deles para cada KB de memória. Inicialmente a malha de fios era “tecida” manualmente, mas logo começaram a ser usadas máquinas, que permitiram miniaturizar bastante as estruturas.
Este é um exemplo de placa de memória core. Ela mede 11 x 11 cm (um pouco menor que um CD), mas armazena apenas 50 bytes:

Essas placas eram ligadas entre si, formando “pilhas” organizadas dentro de estruturas maiores. Imagine que, para atingir 1 MB de memória no início da década de 1960, você precisaria de quase 21 mil dessas plaquinhas.
Este é um exemplo de unidade de memória, construída usando placas de memória core, que está em exposição no museu no MIT. Apesar do tamanho, ela possui apenas 64 KB:

Por serem muito caras e precisarem de um grande número de circuitos de apoio, as memórias core ficaram restritas aos computadores de grande porte. O Altair já utilizava memórias “modernas” na forma de chips. Para ser exato, ele utilizava dois chips de 1024 bits (ou 128 bytes) cada um.
O Altair utilizava chips de memória SRAM (static RAM), que eram rápidos e confiáveis, porém muito caros. Na memória SRAM, são usados de 4 a 6 transístores para cada bit de dados (as do Altair usavam 4 transistores), o que multiplica o custo dos chips. Atualmente, as memórias SRAM são usadas nos caches L1 e L2 dos processadores, o tipo mais rápido e caro de memória que existe.
O Apple I inovou utilizando um “novo” tipo de memória, as DRAM (dynamic RAM), onde é usado um único transístor para cada bit de dados. Embora à primeira vista pareçam mais simples, os chips de memória DRAM são muito mais complicados de se trabalhar (principalmente se considerarmos as limitações da época), pois são capazes de armazenar os dados por apenas uma pequena fração de segundo. Para conservar os dados, eles precisam de um circuito de refresh, que lê e regrava os dados a cada 64 milissegundos (ou menos, de acordo com o projeto).
Apesar de todas as dificuldades, foi o uso de memórias DRAM no Apple I que permitiu que ele viesse com 8 KB de memória, custando pouco mais que um Altair, que vinha com meros 256 bytes. A partir daí, as memórias DRAM se tornaram norma, o que continua até os dias de hoje.
Voltando à história, em 1979 surgiu um outro modelo interessante, desta vez da Sinclair, o ZX80. Ele não era tão poderoso quanto o Apple II, mas tinha a vantagem de custar apenas 99 dólares (pouco mais de 400 em valores corrigidos). Ele foi o computador mais popular até então, com 100.000 unidades vendidas (entre 1979 e 1981), sem contar uma grande quantidade de clones, produzidos em diversos países ao longo da década de 80.
O ZX80 era baseado no NEC-780C, um clone do Z80, que operava a 3.25 MHz. Ele era relativamente poderoso para os padrões da época, mas aquecia bastante. Segundo as más línguas, ele foi o primeiro processador overclocado da história. :)
Para cortar custos, ele vinha de fábrica com apenas 1 KB de memória RAM, combinados com 4 KB de memória ROM que armazenavam o interpretador BASIC, usado pelo aparelho. Como em qualquer sistema popular da época, os programas eram armazenados em fitas K7 e ele era ligado diretamente na TV:

Considerando o preço, o ZX80 foi uma máquina surpreendente, mas claro, tinha pesadas limitações, mesmo se comparado com outras máquinas da época. Apesar de já vir com uma saída de vídeo, a resolução gráfica era de apenas 64×48, mesmo em modo monocromático, já que o adaptador de vídeo tinha apenas 386 bytes de memória. Existia também uma opção de modo texto (usada para programas em BASIC, por exemplo), com 32×24 caracteres.
O processador Z80 se tornou incrivelmente popular, superando as vendas de qualquer outro processador da história. Versões modernizadas do Z80 (que conservam o mesmo projeto básico, mas são produzidas com técnicas modernas de fabricação e trabalham a freqüências mais altas) fazem sucesso até hoje, sendo utilizadas em todo tipo de eletrônicos, incluindo impressoras, aparelhos de fax, controladores diversos, robôs de uso industrial, brinquedos, diversos tipos de calculadoras, videogames (incluindo o Game Boy e Game Boy color), diversos modelos populares de mp3players, entre inúmeros exemplos. Apesar de não ser nenhum campeão de velocidade, o Z80 é um chip extremamente barato e fácil de programar, já que todos os seus truques são bem conhecidos e documentados.
Aqui no Brasil tivemos os TK80 e os TK82 da Microdigital, além do NE-Z80 da Prológica, produzidos na época da reserva de mercado. Eles concorriam com os computadores compatíveis com os Apple, como o AP II, Exato, Craft II e Magnex M10. A linha CP (200, 300, 400 e 500) da Prológica era baseada em chips Z80 e havia também os clones da linha MSX, como os Expert 1.0 e Expert Plus.
A reserva de mercado estagnou o desenvolvimento tecnológico do país, de forma que clones de computadores de 8 bits, lançados há uma década atrás era tudo que nossa indústria conseguia produzir. Isso perdurou até 1992, quando a reserva de mercado foi abolida, permitindo a entrada de computadores importados. Em pouco tempo, todos esses computadores de 8 bits foram substituídos por PCs 386 e 486.
Concluindo nosso passeio pela década de 70, outro que não poderia deixar de ser citado é o Atari 800. Sim, apesar de ser mais vendido como um videogame, o Atari 800 também podia ser usado como um computador relativamente poderoso, chegando a ser adotado nos laboratórios de informática de algumas universidades. Ele foi o antecessor do Atari 2600, o videogame conhecido por aqui.
Ele vinha de fábrica com 16 KB de memória RAM, que podiam ser expandidos para até 48 KB, com mais 10 KB de memória ROM. O sistema operacional era o Atari-OS, uma versão do BASIC:

 


Atari 800

Originalmente, o sistema vinha apenas com a entrada para os cartuchos, com o sistema operacional ou jogos, mas era possível adquirir separadamente uma unidade de disquetes, que o transformavam num computador completo. Não existiram muitos programas para o Atari, já que o foco foram sempre os jogos. A principal função do Atari como computador era desenvolver programas em BASIC, por isso seu uso em escolas.

OS SUPERCOMPUTADORES

Nas décadas de 1940 e 1950, todos os computadores do mundo eram gigantescos e caros, agregando tudo o que havia de mais avançado em termos de conhecimento humano. Hoje, pode parecer ridículo que qualquer calculadora de mão de 3 reais possa ter um poder de processamento muito superior ao de um ENIAC, que só de manutenção consumia o equivalente a quase 200.000 dólares por dia (em valores corrigidos). Mas, os supercomputadores continuam existindo, tão grandes e caros quanto o ENIAC, porém incomparavelmente mais rápidos do que os PCs e notebooks domésticos.
Esses mastodontes estão por trás de muitos dos avanços da humanidade e, apesar de estarem escondidos em grandes salas refrigeradas, são alvo de grande curiosidade.
Enquanto escrevo, o supercomputador mais rápido do planeta (segundo o http://www.top500.org/) é o IBM Blue Gene/L, desenvolvido pela IBM. Ele é composto por nada menos do que 131.072 processadores PowerPC e possui 32 terabytes de memória RAM.
Para chegar a esses números, a IBM desenvolveu módulos relativamente simples, cada um contendo 2 processadores, 512 MB de RAM e uma interface de rede gigabit Ethernet, similares a um PC doméstico. Esses módulos foram agrupados em racks (chamados de nós), cada um com 128 deles. No final, chegaram a 512 racks, interligados por uma complexa malha de cabos de rede, rodando um software próprio de gerenciamento. Essa gigantesca estrutura funciona como um cluster, onde o processamento é dividido em pequenos pedaços e dividido entre os módulos. Veja uma foto mostrando parte das instalações:


IBM Blue Gene/L

Os primeiros supercomputadores começaram a surgir na década de 60, aliás uma década de muitos avanços, já que no final da década de 50 foi feita a transição das válvulas para os transístores. Cada transístor era centenas de vezes menor que uma válvula, era muito mais durável e tinha a vantagem de gerar pouco calor.
Todos os computadores da década de 60 já utilizavam transístores, o que permitiu o desenvolvimento dos primeiros minicomputadores. Naquela época, minicomputador era qualquer coisa do tamanho de um armário, com uma capacidade de processamento inferior ao de uma agenda eletrônica atual, das mais baratas.
Os computadores de grande porte, porém, continuaram a ser desenvolvidos, passando a ser chamados de supercomputadores. O primeiro supercomputador para fins comerciais foi o CDC 6600, que foi seguido pelos IBM 360/95 e 370/195.
Na década de 70 surgiu uma nova revolução: o microchip. Um microchip sozinho oferecia uma capacidade de processamento equivalente à de um minicomputador, mas em compensação era escandalosamente menor e mais barato. Surgiram então os primeiros microcomputadores.
Os supercomputadores da década de 70 já eram centenas de vezes mais poderosos do que os produzidos uma década antes. Os principais modelos foram o CDC 7600, o BSP, produzido pela Burroughs, e o ASC da Texas Instruments.
Esses sistemas atingiram a marca de 100 megaflops, ou seja, 100 milhões de cálculos de ponto flutuante por segundo. Essa é a mesma capacidade de processamento de um Pentium 60, porém atingida 20 anos antes. :)
No final da década de 70 surgiram os supercomputadores Cray, produzidos pela Seymour. O primeiro da linha, chamado de Cray 1, também processava 100 megaflops, porém o Cray-XMP atingiu a incrível marca de 1 gigaflop, ainda no início da década de 80, uma capacidade de processamento próxima à de um Pentium II 350.
Só para efeito de comparação, o Blue Gene/L, que citei há pouco, possui 360 teraflops de poder de processamento, ou seja, é 360 mil vezes mais rápido.
Apesar de mesmo um “PC de baixo custo” atualmente possuir um poder de processamento superior ao de um supercomputador, que custava 5 milhões de dólares há 15 anos atrás, a demanda por sistemas cada vez mais rápidos continua.
As aplicações são várias, englobando principalmente pesquisas científicas, aplicações militares e diversos tipos de aplicativos financeiros e relacionados à Internet; aplicativos que envolvem uma quantidade absurda de processamento, e claro, são necessários para instituições que podem pagar muito mais do que 5 ou 10 mil dólares por um computador o mais rápido possível. Existindo demanda, aparecem os fornecedores.
Atualmente, todos os supercomputadores são construídos com base em praticamente os mesmos componentes que temos em micros de mesa, memória, HDs e processadores, Intel, IBM ou AMD.
Ao invés de usar apenas um disco rígido IDE ou SATA, como num micro de mesa, um supercomputador utiliza um array de centenas de HDs, sistemas semelhantes ao RAID, mas numa escala maior, que permitem gravar dados de forma fragmentada em vários discos e ler os pedaços simultaneamente a partir de vários HDs, obtendo taxas de transferência muito altas.
Processadores e memória RAM geralmente são agrupados em nós, cada nó engloba de um a quatro processadores e uma certa quantidade de memória RAM e cache. Isso garante que os processadores tenham um acesso à memória tão rápido quanto um PC de mesa.
Os nós por sua vez são interligados através de interfaces de rede, o que os torna partes do mesmo sistema de processamento, assim como neurônios interligados para formar um cérebro. Um nó sozinho não tem uma capacidade de processamento tão surpreendente assim, mas ao interligar algumas centenas, ou milhares de nós, a coisa muda de figura.
Uma opção mais barata para instituições que precisam de um supercomputador, mas não possuem muito dinheiro disponível, é usar um sistema de processamento distribuído, ou cluster. Um cluster formado por vários PCs comuns ligados em rede.
O exemplo mais famoso de processamento distribuído foi o projeto Seti@Home, onde cada voluntário instalava um pequeno programa que utilizava os ciclos de processamento ociosos da máquina para processar as informações relacionadas ao projeto. Os pacotes de dados de 300 KB cada chegavam pela Internet e demoravam várias horas para serem processados. Isso permitiu que mais de 2 milhões de pessoas, muitas com conexão via modem, participassem do projeto. O sistema montado pela Seti@Home foi considerado por muitos o supercomputador mais poderoso do mundo, na época.
Esse tipo de sistema pode ser construído usando, por exemplo, a rede interna de uma empresa. Rodando o software adequado, todos os micros podem fazer parte do sistema, alcançando juntos um poder de processamento equivalente ao de um supercomputador. O mais interessante é que esses PCs poderiam ser usados normalmente pelos funcionários, já que o programa rodaria utilizando apenas os ciclos ociosos do processador.
A tecnologia de cluster mais usada atualmente são os clusters Beowulf, formados por vários computadores interligados em rede. Não é necessário nenhum hardware muito sofisticado: um grupo de PCs parrudos, ligados através de uma rede gigabit já é o suficiente para montar um cluster Beowulf capaz de rivalizar com muitos supercomputadores em poder de processamento. A idéia é criar um sistema de baixo custo, que possa ser utilizado por universidades e pesquisadores com poucos recursos.
O primeiro cluster Beowulf foi criado em 1994 na CESDIS, uma subsidiária da NASA. Ele era formado por 16 PCs 486 DX-100 ligados em rede. Para manter a independência do sistema e baixar os custos, os desenvolvedores optaram por utilizar o Linux.
Os clusters não servem para processar dados em tempo real (um game qualquer por exemplo), mas apenas para processar grandes quantidades de dados, que podem ser quebrados em pequenas partes e divididos entre os vários computadores. Uma área onde são populares é na aplicação de efeitos especiais e renderização de imagens para filmes de cinema. Há inclusive casos de filmes como o Shrek e o Final Fantasy, que foram renderizados inteiramente utilizando clusters Beowulf.

http://www.hardware.com.br

COMO SÃO FEITOS OS PROCESSADORES

O componente básico para qualquer chip é o wafer de silício que é obtido através da fusão do silício junto com os materiais que permitirão sua dopagem posteriormente. O silício é um dos materiais mais abundantes da natureza, o grande problema é que os wafers de silício precisam ser compostos de silício 99,9999% puro, o que demanda um caro e complicado processo de purificação. Qualquer impureza que passe despercebida nessa fase acabará resultando em um chip defeituoso mais adiante.

Inicialmente são produzidos cilindros, com de 20 a 30 centímetros de diâmetro, que são posteriormente cortados em fatias bastante finas:

Essas “fatias” são polidas e tratadas, obtendo os wafers de silício. A qualidade do wafer determinará o tipo de chip que poderá ser construído com base nele.

Wafers de baixa qualidade, usados para construir circuitos rudimentares, com poucos milhares de transístores, podem ser comprados a preços bastante baixos, a partir de milhares de fornecedores diferentes. Entretanto, para produzir um processador moderno, é preciso utilizar wafers de altíssima qualidade, que são extremamente caros.

Embora o silício seja um material extremamente barato e abundante, toda a tecnologia necessária para produzir os wafers faz com que eles estejam entre os produtos mais caros produzidos pelo homem. Cada wafer de 30 centímetros custa mais de 20 mil dólares para um fabricante como a Intel, mesmo quando comprados em grande quantidade.

Cada wafer é usado para produzir vários processadores, que no final da produção são separados e encapsulados individualmente. Não seria possível mostrar todos os processos usados na fabricação de um processador, mas para lhe dar uma boa idéia de como eles são produzidos, vou mostrar passo a passo a construção de um único transístor. Imagine que um Core 2 Duo possui 291 milhões de transístores e cada wafer permite produzir algumas centenas de processadores.

Tudo começa com o wafer de silício em seu estado original:

A primeira etapa do processo é oxidar a parte superior do wafer, transformando-a em dióxido de silício. Isso é feito através da exposição do wafer a gases corrosivos e a altas temperaturas. A fina camada de dióxido de silício que se forma é que será usada como base para a construção do transístor:

Em seguida é aplicada uma camada bastante fina de um material fotossensível sobre a camada de dióxido de silício.

Usando uma máscara de litografia, é jogada luz ultravioleta apenas em algumas áreas da superfície. A máscara tem um padrão diferente para cada área do processador, de acordo com o desenho que se pretende obter:

A técnica usada aqui é chamada de litografia óptica. Existem diversas variações da tecnologia, como a EUVL (Extreme Ultra Violet Lithography), usada nos processadores atuais. Quanto mais avançada a técnica usada, menores são os transístores, permitindo o desenvolvimento de processadores mais complexos e rápidos.

A camada fotossensível é originalmente sólida, mas ao ser atingida pela luz ultravioleta transforma-se numa substância gelatinosa, que pode ser facilmente removida. Depois de remover as partes moles da camada fotossensível (através de um banho químico), temos algumas áreas do dióxido de silício expostas, e outras que continuam cobertas pelo que restou da camada:

O wafer passa por um novo banho químico (baseado em compostos diferentes), que remove as partes do dióxido de silício que não estão protegidas pela camada fotossensível. Apesar disso, o restante continua intacto:

 Finalmente, é removida a parte que restou da camada fotossensível. Note que, como temos substâncias diferentes, é possível remover uma camada de cada vez, ora o dióxido de silício, ora a própria camada fotossensível. Com isto é possível “desenhar” as estruturas necessárias para formar os transístores:

Cada transístor é formado para várias camadas, dependendo do projeto do processador. Neste exemplo, temos um transístor simples, mas os processadores atuais utilizam um numero muito maior de camadas, mais de vinte em alguns casos, dependendo da densidade que o fabricante pretende alcançar.

Começa então a construção da segunda camada do transístor. Inicialmente o wafer passa novamente pelo processo de oxidação inicial, sendo coberto por uma nova camada (desta vez bem mais fina) de dióxido de silício. Note que apesar da nova camada de dióxido de silício, o desenho anterior é mantido.

Em seguida é aplicada uma camada de cristal de silício sobre a estrutura anterior. Sobre ela é aplicada uma nova camada de material fotossensível, que será usado na fase seguinte:

O waffer passa novamente pelo processo de litografia, desta vez utilizando uma máscara diferente. O processo de fabricação das diferentes camadas do processador baseia-se justamente na repetição deste processo básico, alternando o uso de diferentes máscaras de litografia e banhos químicos:

Novamente, a parte da camada fotossensível que foi exposta à luz é removida, deixando expostas partes das camadas de cristal de silício e dióxido de silício, que são removidas em seguida:

Como na etapa anterior, é removido o que restou da camada fotossensível. Terminamos a construção da segunda camada do transístor:

Chegamos a uma das principais etapas do processo de fabricação, que é a aplicação das impurezas, que transformarão partes do wafer de silício num material condutor. Essas impurezas também são chamadas de íons. Note que os íons aderem apenas à camada de silício que foi exposta no processo anterior e não às camadas de dióxido de silício ou à camada de cristal de silício:

É adicionada então uma terceira camada, composta por um tipo diferente de cristal de silício, e novamente é aplicada a camada fotossensível sobre todo o material:

 O wafer passa novamente pelo processo de litografia, usando mais uma vez uma máscara diferente:

As partes do material fotossensível expostas à luz são removidas, expondo partes das camadas inferiores, que são removidas em seguida:

Temos agora pronta a terceira camada do transístor. Veja que a estrutura do transístor já está quase pronta, faltando apenas os filamentos condutores:

Uma finíssima camada de metal é aplicada sobre a estrutura anterior. Nos processadores atuais, que são produzidos através de uma técnica de produção de 0.065 micron, essa camada metálica tem o equivalente a apenas 3 átomos de espessura.

O processo de aplicação da camada fotossensível, de litografia e de remoção das camadas, é aplicado mais uma vez, com o objetivo de remover as partes indesejadas da camada de metal. Finalmente temos o transístor pronto.

Cada processador é constituído por vários milhões de transístores, divididos em diversos grupos de componentes, entre eles as unidades de execução (onde as instruções são realmente processadas) e os caches. Como todo processador atual processa várias instruções por ciclo, são incluídos diversos circuitos adicionais, que organizam e ordenam as instruções, de forma a aproveitar da melhor maneira possível os recursos disponíveis.

Como você viu, embora absurdamente mais avançado, o processo de fabricação dos processadores é muito similar ao processo de revelação de fotos, onde a imagem do negativo é impressa no papel fotográfico usando luz. O “negativo” neste caso são as retículas (as máscaras de litografia).

Embora nesse exemplo tenha mostrado a produção de um único transístor, na produção real são usadas máscaras contendo todos os componentes do processador. No final do processo, teríamos um processador inteiro pronto, em toda a sua complexidade, ao invés de um transístor solitário.
 
No começo (início da década de 70), os filmes usados para produzir as máscaras de litografia eram, literalmente, feitos a mão, usando rubylith, um filme plástico de duas camadas, que é ainda usado por artistas gráficos. O engenheiro cortava a camada superior usando um estilete, criando um desenho das trilhas e outros componentes que seriam posteriormente “impressos” no wafer de silício formando o chip. Eram usadas várias máscaras diferentes, que deveriam combinar-se com precisão absoluta. Esta é uma foto antiga, publicada no Intel Technology Journal, que mostra como o trabalho era delicado:

Existiram inclusive histórias engraçadas, como o Intel 3101, o primeiro chip de memória da Intel. A primeira versão acabou ficando com apenas 63 bits (ao invés de 64) devido a um erro em uma das máscaras de litografia ;).

As máscaras feitas no rubylith eram depois transferidas para um filme, através de um processo de redução, gerando as retículas usadas na produção. Devido à enorme precisão envolvida, são utilizados espectros de luz não-visível, utilizando comprimentos de onda incrivelmente curtos, geradas a partir de laser ou pulsos de de descarga.

Atualmente, o processo de produção das máscaras é completamente automatizado. O próprio desenvolvimento dos processadores mudou. Ao invés de projetar os circuitos manualmente, os engenheiros utilizam um HDL (hardware description language), como o VHDL ou o Verilog (os mais usadas atualmente), que são uma espécie de linguagem de programação para o desenvolvimento de processadores, onde o engenheiro “programa” as instruções que devem ser executadas e outras características do processador, e o HDL gera o projeto do chip.

Naturalmente, ainda é possível desenvolver processadores (ou otimizar componentes internos específicos) usando o processo manual (assim como é possível programar em assembly), mas o processo se torna muito mais lento e trabalhoso. É comum que os processadores passem por diversas revisões durante sua via útil, onde a equipe de desenvolvimento começa com um design produzido através de um HDL e depois trata de otimizá-lo sucessivamente, obtendo assim ganhos de performance e outras melhorias.

No final do processo, temos um grande arquivo, que é enviado para a fábrica, onde são produzidas as retículas e feitas as demais fases do processo. Uma vez terminado o projeto, os engenheiros precisam esperar várias semanas até que os primeiros chips funcionais sejam produzidos. Qualquer erro que chegue até a fase de produção geraria um prejuízo de vários milhões, por isso o projeto passa por inúmeras revisões.

As máquinas de produção (chamadas steppers) repetem a “impressão” várias vezes, até cobrir toda a área do wafer de silício. Em seguida o wafer é movido para a máquina com a máscara seguinte e assim continua, até que o processo esteja completo. Todo o processo é feito numa sala limpa, por engenheiros usando os trajes de astronauta que aparecem nos comerciais da Intel. Todo cuidado é pouco, já que cada wafer contém centenas de processadores, que juntos valem algumas dezenas de milhares de dólares. Temos aqui uma foto ilustrativa, cortesia da Intel:

Depois de pronto, o wafer é cortado, dando origem aos processadores individuais. Desses, muitos acabam sendo descartados, pois qualquer imperfeição na superfície do wafer, partícula de poeira, ou anomalia durante o processo de litografia acaba resultando numa área defeituosa. Como não é possível produzir um wafer de silício quadrado, temos também os processadores “incompletos”, que ocupam as bordas do wafer e que também são descartados no final do processo.


Processo de corte do wafer de silício (imagem cortesia da Micron)

Você poderia perguntar o porquê de não utilizarem retículas maiores para imprimir todo o wafer de uma única vez, ao invés de ter que repetir o processo para cada processador individual. O problema aqui reside no foco, que é perfeito no centro e sensivelmente pior nas bordas.

Já é difícil desenvolver máquinas que consigam manter o foco na área do chip, o que dizer então de mantê-lo em toda o wafer, que é uma superfície muito maior. É por isso também que os processadores são sempre mais ou menos quadrados, já que o formato permite obter o melhor foco.

Cada processador é testado individualmente, através de um processo automático. O wafer é finalmente cortado e os processadores “bons” são finalmente encapsulados, ou seja, instalados dentro da estrutura que os protege e facilita o manuseio e a instalação:

Nem todo processador nasce igual. Pequenas diferenças no foco, pequenos desvios no posicionamento das máquinas ao “imprimir” cada camada e assim por diante, fazem com que alguns processadores sejam mais rápidos que outros e muitos simplesmente não funcionem ou apresentem defeitos diversos. Em geral, mesmo grandes fabricantes como a Intel e AMD mantêm uma única linha de produção para cada processador. Os processadores são testados individualmente e vendidos de acordo com a freqüência de operação em que são capazes de trabalhar.

Um Core Duo 6600 (2.4 GHz) não é diferente de um Core Duo 6800 (2.96 GHz), por exemplo. Ambos compartilham a mesma arquitetura e passaram pela mesma linha de produção (pode ser que os dois tenham até mesmo compartilhado o mesmo wafer! :). A única diferença é que o 6800 teve a “sorte” de sair mais perfeito e, graças a isso, ser capaz de operar a freqüências mais altas. Com o passar o tempo o índice de aproveitamento tende a melhorar, fazendo com que mais e mais processadores sejam capazes de operar nas freqüências mais altas, até que finalmente é introduzida uma nova técnica de fabricação, ou uma nova família de processadores, dando início a um novo ciclo.

O formato do encapsulamento varia de processador para processador. Geralmente temos um spreader, ou seja, uma proteção de metal sobre o die do processador, que fica entre ele e o cooler. Entretanto em muitos processadores, como os Athlons, Durons e Semprons antigos, é usado um encapsulamento mais simples, em que a parte central é a própria parte inferior do wafer de silício, exposta para melhorar a dissipação de calor. Nesses casos, é preciso redobrar os cuidados na hora de instalar e remover o cooler, pois qualquer dano ao núcleo será suficiente para inutilizar o processador:


Sempron soquete A, exemplo de processador sem o spreader metálico

Só a título de curiosidade: o Intel 4004 era produzido usando uma técnica de 10 micra, em que cada transístor media o equivalente a 1/100 de milímetro. Considerando que um fio de cabelo possui apenas 1/10 de milímetro de espessura, transístores de 10 micra (micra é o plural de micron) podem parecer pequenos, mas se comparados com os atuais, eles parecem pirâmides, de tão grandes.

O 486 já foi produzido numa técnica de 1 micron, onde cada transístor ocupa uma área 100 vezes menor. Enquanto o 4004 tinha apenas 2.000 transístores, o 486 tinha um milhão deles.
Como a velocidade de operação do transístor está diretamente relacionada a seu tamanho, o 486 é também brutalmente mais rápido. Enquanto o 4004 opera a 740 kHz, o 486 atingiu 100 MHz (nas versões fabricados pela Intel).

Mas isso não é nada se comparado aos processadores atuais. Um Core 2 Duo X6800 é fabricado numa técnica de 0.065 micron (237 vezes menores que os do 486!), possui 291 milhões de transístores e opera a 2.93 GHz.

Estão previstos processadores fabricados numa técnica de 0.045 micron em 2008 e 0.032 micron em 2010. Depois disso não se sabe até onde a tecnologia poderá evoluir, pois os fabricantes estão se aproximando dos limites da matéria. A 0.032 micron já temos transístores ocupando uma área equivalente a poucas centenas de átomos de silício.

Atualmente, muitos tem passado a utilizar o nanômetro como unidade de medida no lugar do micron, pois é mais fácil de pronunciar. Um nanômetro equivale a um milésimo de micron, de forma que em vez de dizer que o processador, x é fabricado numa técnica de 0.045 micron, você pode dizer que ele é fabricado numa técnica de 45 nanômetros.

http://www.hardware.com.b

O TRANSÍSTOR

Durante a década de 1940 e início da de 1950, a maior parte da indústria continuou trabalhando no aperfeiçoamento das válvulas, obtendo modelos menores e mais confiáveis. Porém, vários pesquisadores, começaram a procurar alternativas menos problemáticas.
Várias dessas pesquisas tinham como objetivo o estudo de novos materiais, tanto condutores quanto isolantes. Os pesquisadores começaram então a descobrir que alguns materiais não se enquadravam nem em um grupo nem em outro, pois, de acordo com a circunstância, podiam atuar tanto como isolantes quanto como condutores, formando uma espécie de grupo intermediário que foi logo apelidado de grupo dos semicondutores.
Haviam encontrado a chave para desenvolver o transístor. O primeiro protótipo surgiu em 16 de dezembro de 1947 (veja a foto a seguir), consistindo em um pequeno bloco de germânio (que na época era junto com o silício o semicondutor mais pesquisado) e três filamentos de ouro. Um filamento era o pólo positivo, o outro, o pólo negativo, enquanto o terceiro tinha a função de controle.
Tendo apenas uma carga elétrica no pólo positivo, nada acontecia: o germânio atuava como um isolante, bloqueando a corrente. Porém, quando uma certa tensão elétrica era aplicada usando o filamento de controle, um fenômeno acontecia e a carga elétrica passava a fluir para o pólo negativo. Haviam criado um dispositivo que substituía a válvula, que não possuía partes móveis, gastava uma fração da eletricidade e, ao mesmo tempo, era muito mais rápido.


O primeiro transístor

O primeiro transístor era muito grande, mas não demorou muito para que esse modelo inicial fosse aperfeiçoado. Durante a década de 1950, o transístor foi aperfeiçoado e passou a gradualmente dominar a indústria, substituindo rapidamente as problemáticas válvulas. Os modelos foram diminuindo de tamanho, caindo de preço e tornando-se mais rápidos. Alguns transístores da época podiam operar a até 100 MHz. Claro que essa era a freqüência que podia ser alcançada por um transístor sozinho, nos computadores da época, a freqüência de operação era muito menor, já que em cada ciclo de processamento o sinal precisa passar por vários transístores.
Mas, o grande salto foi a substituição do germânio pelo silício. Isso permitiu miniaturizar ainda mais os transístores e baixar seu custo de produção. Os primeiros transístores de junção comerciais (já similares aos atuais) foram produzidos a partir de 1960 pela Crystalonics, decretando o final da era das válvulas.
A idéia central no uso do silício para construir transístores é que, adicionando certas substâncias em pequenas quantidades, é possível alterar as propriedades elétricas do silício. As primeiras experiências usavam fósforo e boro, que transformavam o silício em condutor por cargas negativas ou em condutor por cargas positivas, dependendo de qual dos dois materiais fosse usado. Essas substâncias adicionadas ao silício são chamadas de impurezas, e o silício “contaminado” por elas é chamado de silício dopado.
O funcionamento de um transístor é bastante simples, quase elementar. É como naquele velho ditado “as melhores invenções são as mais simples”. As válvulas eram muito mais complexas que os transístores e, mesmo assim, foram rapidamente substituídas por eles.
Um transístor é composto basicamente por três filamentos, chamados de base, emissor e coletor. O emissor é o pólo positivo, o coletor, o pólo negativo, enquanto a base é quem controla o estado do transístor, que como vimos, pode estar ligado ou desligado. Veja como esses três componentes são agrupados num transístor moderno:


transístor

Quando o transístor está desligado, não existe carga elétrica na base, por isso, não existe corrente elétrica entre o emissor e o coletor. Quando é aplicada uma certa tensão na base, o circuito é fechado e é estabelecida a corrente entre o emissor e o receptor.
Cada transístor funciona como uma espécie de interruptor, que pode estar ligado ou desligado, como uma torneira que pode estar aberta ou fechada, ou mesmo como uma válvula. A diferença é que o transístor não tem partes móveis como uma torneira e é muito menor, mais barato, mais durável e muito mais rápido que uma válvula.
A mudança de estado de um transístor é feita através de uma corrente elétrica. Cada mudança de estado pode então comandar a mudança de estado de vários outros transístores ligados ao primeiro, permitindo o processamento de dados. Num transístor essa mudança de estado pode ser feita bilhões de vezes por segundo, porém, a cada mudança de estado é consumida uma certa quantidade de eletricidade, que é transformada em calor. É por isso que quanto mais rápidos tornam-se os processadores, mais eles se aquecem e mais energia consomem.
Um 386, por exemplo, consumia pouco mais de 1 watt de energia e podia funcionar sem nenhum tipo de resfriamento. Um 486DX-4 100 consumia cerca de 5 watts e precisava de um cooler simples, enquanto um Athlon X2 chega a consumir 89 watts de energia (no X2 5600+) e precisa de no mínimo um bom cooler para funcionar bem. Em compensação, a versão mais rápida do 386 operava a apenas 40 MHz, enquanto os processadores atuais já superaram a barreira dos 3.0 GHz.
O grande salto veio quando descobriu-se que era possível construir vários transístores sobre o mesmo wafer de silício. Isso permitiu diminuir de forma gritante o custo e tamanho dos computadores. Entramos então na era do microchip.
O primeiro microchip comercial foi lançado pela Intel em 1971 e chamava-se 4004. Como o nome sugere, ele era um processador que manipulava palavras de apenas 4 bits (embora já trabalhasse com instruções de 8 bits). Ele era composto por pouco mais de 2000 transístores e operava a apenas 740 kHz. Embora fosse muito limitado, ele foi muito usado em calculadoras, área em que representou uma pequena revolução. Mais do que isso, o sucesso do 4004 mostrou a outras empresas que os microchips eram viáveis, criando uma verdadeira corrida evolucionária, em busca de processadores mais rápidos e avançados.


Intel 4004

Em 1972 surgiu o Intel 8008, o primeiro processador de 8 bits e, em 1974, foi lançado o Intel 8080, antecessor do 8088, que foi o processador usado nos primeiros PCs. Em 1977 a AMD passou a vender um clone do 8080, inaugurando a disputa Intel x AMD, que continua até os dias de hoje.


O 8080 da AMD

Uma observação é que o termo original, em inglês é “transistor”, sem o acento. O problema é que em português pronunciamos “transístor” e não “transistor”, por isso é comum que ao escrever em português o termo seja “aportuguesado” e escrito com o acento. O mesmo acontece com a palavra “micron”, que é muitas vezes escrita com acento (mícron), indicando a pronúncia mais usada. Nestes casos você fica livre para escrever da forma que preferir.

O ENIAC

Sem dúvida, o computador mais famoso daquela época foi o ENIAC (Electronic Numerical Integrator Analyzer and Computer), construído em 1945. O ENIAC era composto por nada menos do que 17.468 válvulas, além de 1.500 relês e um grande número de capacitores, resistores e outros componentes.
No total, ele pesava 30 toneladas e era tão volumoso que ocupava um grande galpão. Outro grave problema era o consumo elétrico: um PC típico atual, com um monitor LCD, consome cerca de 100 watts de energia, enquanto o ENIAC consumia incríveis 200 kilowatts.

Construir esse monstro custou ao exército Americano 468.000 dólares da época, que correspondem a pouco mais de US$ 10 milhões em valores corrigidos.
Porém, apesar do tamanho, o poder de processamento do ENIAC é ridículo para os padrões atuais, suficiente para processar apenas 5.000 adições, 357 multiplicações ou 38 divisões por segundo. O volume de processamento do ENIAC foi superado pelas calculadoras portáteis ainda na década de 70 e, hoje em dia, mesmo as calculadoras de bolso, das mais baratas, são bem mais poderosas do que ele.
A idéia era construir um computador para quebrar códigos de comunicação e realizar vários tipos de cálculos de artilharia para ajudar as tropas aliadas durante a Segunda Guerra Mundial. Porém, o ENIAC acabou sendo terminado exatos 3 meses depois do final da guerra e foi usado durante a Guerra Fria, contribuindo por exemplo no projeto da bomba de hidrogênio.


ENIAC (foto do acervo do Exército dos EUA)

Se você acha que programar em C ou em Assembly é complicado, imagine como era a vida dos programadores daquela época. A programação do ENIAC era feita através de 6.000 chaves manuais e, ao invés de ser feita através de teclas, toda a entrada de dados era feita através de cartões de cartolina perfurados, que armazenavam poucas operações cada um.
Uma equipe preparava os cartões, incluindo as operações a serem realizadas, formando uma pilha, outra ia trocando os cartões no leitor do ENIAC, e uma terceira “traduzia” os resultados, também impressos em cartões, para o padrão decimal.
O ENIAC também possuía sérios problemas de manutenção. A cada 5 minutos, em média, alguma das válvulas se queimava, tornando necessárias manutenções freqüentes. A seguir está a foto de uma válvula muito usada na década de 40:


Válvula

Vendo essa foto, é fácil imaginar por que as válvulas eram tão problemáticas e caras: elas eram simplesmente complexas demais.
Mesmo assim, na época, as válvulas eram o que existia de mais avançado, permitindo que computadores como o ENIAC executassem, em poucos segundos, cálculos que um matemático equipado com uma calculadora mecânica demorava horas para executar.