AS SENHAS MAIS USADAS DETODOS OS TEMPOS

Quando você inicia o cadastro em um jogo ou uma rede social, você escolhe a senha com cuidado ou usa a mesma para todos os serviços da internet? E se for um site que você não visitará com frequência, como uma loja de compras online, será que qualquer sequência de teclas já serve? Quando se trata de segurança digital, esses erros comuns podem facilmente fazer com que você seja mais uma vítima de invasão de contas.
Desde que o sistema de senhas começou a ser usado na internet, ficou claro que nem todos os códigos seriam impossíveis de serem acertados. Em alguns dos casos, teclar sequências óbvias pode até parecer uma boa alternativa, mas não se engane – afinal, é a visibilidade de seus dados que está em jogo.

As escolhidas

A simplicidade das sequências mais encontradas na internet é assustadora – e serve para mostrar o panorama mundial da (falta de) segurança na área.
Vários veículos e companhias publicaram inúmeros estudos com uma contabilização de senhas. Desde empresas especializadas em segurança digital, como a Imperva, até revistas e os próprios hackers, são várias as compilações divulgadas com as sequências mais óbvias utilizadas pelos usuários.

Apesar dos pedidos para que elas parem de ser escolhidas, é inevitável que termos comuns apareçam em cadastros. Com base nessas pesquisas, o Tecmundo compilou alguns dos temas e senhas mais simples e óbvios preenchidos nos campos de cadastro:

Senhas comuns (sem ordem de preferência)

  • 1234567
  • 123456
  • 12345
  • 123123
  • 000000
  • password
  • qwerty
  • asdfgh
  • zxcvbnm
  • qazwsx
  • abc123
  • blink182
  • lol123
  • 7777777
  • 666666
  • jesus
  • brasil/brazil
  • letmein
  • iloveyou
  • hello123
  • matrix
  • admin
  • hotmail
  • babygirl

Temas mais escolhidos

  • O nome do usuário ou de membros da família;
  • O clube de futebol favorito;
  • A data de nascimento do usuário ou de pessoas próximas;
  • O número do seu telefone ou do(a) namorado(a);
  • O próprio site do cadastro;
  • Teclas que estejam lado a lado;
  • O mesmo termo do login.

Caso a sua esteja entre as selecionadas acima, não pense duas vezes antes de trocá-la. Note a preferência por números e letras que estão lado a lado no teclado (em “qwerty” ou “123456”), por nomes (“Daniel” ou “Nicole”) ou até o nome do próprio site (como “orkut” ou “twitter”).

 

Vale lembrar que a lista não inclui datas importantes para o usuário, que são mais raras de coincidirem (“12072011”, por exemplo), ou códigos de conhecimento geral para o Brasil, como “sccp1910” (a sigla de Sport Club Corinthians Paulista, fundado em 1910). Ainda assim, essas não são senhas tão seguras quanto você pensa.

Tudo tem um motivo

Se as suas senhas não apareceram na lista acima, não pense que elas são tão raras assim. Por várias razões, é até normal que “123456” seja o código escolhido por tantos usuários. Mas o que leva alguém a fazer essas escolhas óbvias?

Inimiga da perfeição

Escolher a primeira palavra que vem à sua cabeça só para acabar logo o cadastro pode ser um péssimo negócio. Métodos de quebra de senhas envolvem consultas a dicionários inteiros para verificar se sua senha é uma palavra comum, sem símbolos e números ou alternâncias entre caixas alta e baixa.
O ideal é pensar com calma e só finalizar o cadastro com a certeza de que sua sequência não será descoberta tão facilmente.

Qual era a senha daqui mesmo?

Uma senha para o Twitter, uma para o Facebook, outra para o Tecmundo e mais uma para aquele MMORPG que você acessa todos os dias. Com o tanto de serviços na internet que exigem cadastros, ter uma infinidade de sequências diferentes acaba sendo trabalhoso demais para quem não quer memorizar todas – ou anotar em um documento de texto ou em um papel, em um ato ainda menos seguro.

Para isso, é comum que o usuário padronize a senha e utilize a mesma em todos os seus serviços. A facilidade de logar se reflete também na hora da invasão: se o código for fácil, o hacker terá acesso a todos os serviços que você acessa na rede. Perigoso, não?

Ninguém vai invadir minha conta

Mesmo com a internet tendo muitos milhões de usuários em todo mundo, não pense que um hacker vai ignorar a sua existência.

Não é só porque você não faz nada de relevante mundialmente para a rede que seu email ou perfil ficarão seguros contra invasões. Esses ataques são feitos em massa contra sistemas inteiros, recolhendo um alto número de dados pessoais de grandes grupos de usuários, como cadastrados em redes sociais, por exemplo.
Isso leva muita gente a escrever qualquer coisa no campo de senha e realmente não se importar com isso – até que algo saia errado, claro.

Por que é tão fácil?

Com todos os riscos possíveis, ainda há quem escolha senhas fáceis para seus cadastros. Mesmo assim, fica difícil imaginar que seja tão simples invadir uma conta. Em vários casos, pode ser um método bastante básico.

Nome, sobrenome, data de nascimento…

Com uma simples pesquisa em redes sociais e outros serviços, é possível descobrir informações preciosas sobre você – e, para isso, nem é preciso ser um hacker especialista no assunto.

Sistemas de reconhecimento como o do Gmail auxiliam o usuário na escolha da senha. (Fonte da imagem: Google)


Dados simples podem compor o código, como seu aniversário, o nome do usuário ou de seus pais e até sua localização (cidade, estado ou país). Procure evitar esses termos fáceis não só para o computador, mas também para a senha do banco, por exemplo.

Os métodos do mal

Os hackers não têm uma bola de cristal. Mesmo pra descobrir as senhas mais simples, são usados mecanismos complexos baseados em algoritmos e bancos de dados prontos.
Os principais métodos são os de codificação por força bruta (que tenta o login a partir de todas as combinações possíveis de caracteres, independente do número deles) e por dicionários (para descobrir o código a partir de um banco de dados prévio).
Ambos dependem do número de caracteres da senha e do uso de diferentes teclas, como números e símbolos. Quanto mais complexa e bem escolhida ela for, portanto, mais difícil é a invasão.

E aí, qual a complexidade de sua senha? Ela entrou na lista ou você toma cuidado na hora de escolher a sequência responsável por proteger seu perfil? Existe algum método infalível que você use?
Escolher um código seguro nos dias de hoje não é muito simples, mas é possível. O próprio Tecmundo ajuda os usuários nesse processo, em artigos como o guia para senhas seguras e como usar o método MUNGE, mas essa segurança só depende de você. Até a próxima!

BAIXAS TEMPERATURAS PODEM AFETAR O DESEMPENHO DO PC ?

Usuários que moram em lugares onde o clima é muito quente sempre se preocupam com o superaquecimento do computador. E não é para menos, com CPUs cada vez mais potentes e sistemas de refrigeração que trabalham com folga mínima, fica muito difícil manter a máquina funcionando no verão.
As altas temperaturas também estragam a brincadeira dos usuários que fazem overclock no processador. E mais: muitas vezes o calor excessivo não apenas desliga o computador, como também causa danos aos componentes de hardware. Os problemas com o calor excessivo estão diretamente ligados às limitações dos componentes eletrônicos, os quais possuem valores máximos de temperatura.
Pensando em todos esses problemas de alta temperatura, surgiu uma nova dúvida. Será que o frio demasiado pode danificar ou diminuir o desempenho do computador? Essa é uma dúvida não muito comum, mas que pode fazer certo sentido. Novamente, o Tecmundo entra em ação para desvendar mais esse mistério para você.

(Fonte da imagem: Reprodução/Wikimedia Commons)

Seu processador agradece

Para obter respostas plausíveis para nossa pergunta, é preciso analisar os principais componentes do computador separadamente. O item mais importante, claro, é o processador. As CPUs, em geral, são programadas para trabalhar com temperaturas próximas a 30 ᵒC ou 40 ᵒC.
Todavia, a regra geral é bem conhecida: em um processador, quanto menor a temperatura, melhor o desempenho. As diversas experiências que os entusiastas fazem ao brincar com nitrogênio líquido comprovam claramente isso. É possível manter uma CPU funcionando a mais de 6 GHz com uma temperatura de -100 ᵒC.

Em situações comuns, seria impossível atingir tal temperatura, porém, o inverno de alguns países obriga os processadores a trabalharem próximo de 0 ᵒC ou abaixo disso. Para nós, brasileiros, é bem difícil conseguir atingir temperaturas tão baixas, pois a cidade mais fria do Brasil apenas chega a -10 ᵒC (a qual não consegue esfriar tanto uma CPU).

E mesmo que houvesse muitos locais no país com temperaturas tão baixas, isso não seria um problema, porque ainda há a troca de calor entre o ambiente e os componentes do computador. Com isso, as temperaturas negativas não conseguiriam fazer os 30 ᵒC ou 40 ᵒC do processador chegarem a valores tão baixos.

Placa-mãe sem medo de frio

Enquanto o processador tende a funcionar tranquilamente com temperaturas bem inferiores a 0 ᵒC, a placa-mãe pode não ter a mesma felicidade. Em teoria, é interessante que o chipset e demais circuitos integrados estejam devidamente refrigerados, entretanto, alguns componentes eletrônicos podem não atuar como o esperado no frio.

(Fonte da imagem: Reprodução/Wikimedia Commons)

As placas-mães mais modernas tendem a não apresentar problemas do gênero — o que é uma notícia excelente para quem mora em regiões muito frias. Apesar disso, não é recomendado que seja instalada uma solução de refrigeração à base de nitrogênio líquido. Afinal, nem é preciso exagerar tanto no resfriamento da placa-mãe, porque ela não superaquece como outros componentes.

Uma memória RAM bem gelada, por favor!

Assim como o processador, a memória RAM pode ter sua frequência aumentada. Para esses casos, entusiastas apelam para refrigerações especiais, conseguindo deixar a temperatura dos módulos bem abaixo de 0 ᵒC.

Memória RAM DDR3 com sistema de refrigeração AirFlow II Fan (Fonte da imagem: Divulgação/Corsair)

Caso você não se encaixe nesse quadro, mas more em uma cidade em que o frio impere, não precisa se preocupar quanto a possíveis danos à memória RAM. Esses dispositivos suportam temperaturas bem baixas e funcionam com grande velocidade (apresentando desempenho excelente) quando trabalham em condições “frias”.

O disco rígido corre perigo

Entre tantos componentes, o que mais apresenta problemas é o HD. Os discos rígidos já possuem limitações por utilizarem partes mecânicas. E quando adicionamos a problemática das baixas temperaturas, as chances de falha dos discos aumentam significativamente.
O desempenho de um disco rígido já cai consideravelmente quando a temperatura dele está próxima de 10 ᵒC. Algumas falhas de leitura e escrita podem acontecer, mas até esse ponto o HD não deve falhar ao executar o sistema operacional.

(Fonte da imagem: Reprodução/Wikimedia Commons)

Entretanto, caso a temperatura caia abaixo de 0 ᵒC, aí sim podemos esperar dados corrompidos, problemas nos setores e muitos outros defeitos. Apesar disso já ser fator comprovado, as fabricantes não revelam quais componentes internos dos HDs limitam o trabalho com baixas temperaturas.
A maioria dos discos rígidos é programada para trabalhar com temperaturas entre 0 ᵒC e 60 ᵒC. Portanto, se você deseja manter a saúde do HD em ordem, recomendamos a utilização de um programa de diagnóstico para verificar se o dispositivo não está próximo de uma das temperaturas limites.

Outros eletrônicos entrando numa fria

Se você pensa que somente computadores estão sujeitos aos problemas das baixas temperaturas, está muito enganado. Muitos smartphones, tablets, câmeras digitais e até iPods não devem ser operados em ambientes com temperatura abaixo de 0 ᵒC.
No começo do ano, houve alguns problemas de clientes finlandeses que tiveram problemas com iPhones, justamente por utilizarem os smartphones em locais em que a temperatura chega abaixo do indicado pela Apple. O iPhone 4 (assim como o iPad 2) deve ser utilizado em ambientes com temperaturas que variem entre 0 ᵒC e 35 ᵒC.

(Fonte da imagem: Reprodução/iPhone Savior)

Nesse caso, especificamente, os consumidores recorreram à Agência dos Consumidores da Finlândia, a qual entrou em contato com a Apple para resolver o problema. Os clientes que tiveram prejuízos e não foram alertados sobre as condições de temperatura puderam obter o dinheiro de volta.
Acontece que nem sempre é assim. Há diversos relatos espalhados pela web sobre pessoas que tiveram seus iPods danificados com as baixas temperaturas. Vale lembrar ainda que o iPod Classic é o que mais corre perigo, justamente por contar com um disco rígido interno.

Sua vez de falar

As temperaturas negativas nem sempre causam problemas para os computadores. Alguns componentes, como o HD, podem ser danificados, mas não significa que isso aconteça com facilidade. Enfim, se você não é um morador do Polo Norte, não precisa se preocupar com esse tipo de situação. Você tem algo a adicionar? Compartilhe seu conhecimento conosco!

A MAIOR MENTIRA DA INTERNET

Então você decide baixar um programa ou entrar em uma nova rede social. Começa o processo de instalação e cadastro e tudo é bem simples. Eis que surge a exigência: para prosseguir é preciso ler e concordar com os termos de uso. Eles são longos e o que separa você da novidade é um clique em uma caixinha. E você mente: ?li e aceito os termos de uso?. Atire a primeira pedra quem nunca contou essa balela. O que não passa pela cabeça de muita gente é que estão ali todas as regras, proibições, direitos e perigos de usar aquele site, programa ou serviço. E com validade contratual legal.

O advogado Rony Vainzof, sócio do escritório Opice Blum e professor de Direito Eletrônico, explica que, no Brasil, um contrato não tem forma definida específica ou registro obrigatório, é apenas a manifestação da vontade entre as partes envolvidas. Assim, quando afirma que o documento foi lido e aceito, o usuário está deixando clara sua vontade de usar um serviço regido por determinadas regras.

O perigo de não saber a que está se sujeitando pode ir do cancelamento da sua conta fake no Twitter até o não conhecimento de que, ao anunciar no Mercado Livre, você está sujeito a regras do Código de Defesa do Consumidor para vendedores.

É verdade que tudo parece contribuir para que os termos de uso não sejam lidos: textos longos, palavras difíceis, regras minuciosas. E ainda é preciso ler políticas de privacidade, códigos de conduta, termos adicionais, regras de funções complementares, entre outros documentos anexos. É um vasto caminho a ser percorrido para que tudo seja lido, compreendido e aceito.

Mas é verdade também que muitas empresas já perceberam que usuários que sabem as regras do jogo causam menos problemas e aproveitam melhor o serviço do que aqueles que nem desconfiam do teor da política que rege o site. O Google, por exemplo, reescreveu seus termos de serviço em uma linguagem mais simples, ?além de cortar as partes longas e desnecessárias. Isso foi uma estratégia para fomentar nos usuários o hábito de ler nossas políticas de privacidade?, diz Daniel Helft, diretor de comunicação, políticas e assuntos públicos do Google para a América Latina. O Facebook é outro exemplo de companhia que mudou a forma de apresentação de suas regras. Depois da avalanche de reclamações devido às mudanças nos termos de uso em fevereiro deste ano, a maior rede social do mundo respondeu criando um sistema em que os usuários podem comentar e votar nas propostas de alterações dos termos.

Segundo Debbie Frost, diretora de Comunicação e Políticas Públicas do Facebook, a ação foi inédita e busca engajar os usuários na governança da rede social. Apesar de muitos termos dizerem que são regidos pela legislação do local onde a empresa é sediada, se um produto circula no Brasil, está sujeito às nossas leis. E por aqui a regra é: só há relação de consumo (e será alvo do Código de Defesa do Consumidor) a prestação de serviço que envolver transações monetárias. E os fornecedores, dentro dessa relação, são obrigados a cumprir o que prometeram e assumir a responsabilidade por eventuais danos mesmo se não tiveram intenção de causá-lo.

Só há uma ocasião em que a empresa pode se eximir completamente da responsabilidade: se a culpa for exclusiva do usuário. E isso se dá caso ele tenha infringido os termos de uso ? o que se torna muito mais comum se ele não os tiver lido.

Mas calma. Há garantias para consumidores de serviços gratuitos ? como as redes sociais ? na legislação brasileira. E caso uma cláusula que você aceitou seja reconhecidamente abusiva há como contestá-la com a própria empresa ou na Justiça.

Valéria Cunha, assistente de direção do Procon (Fundação de Proteção e Defesa do Consumidor), alerta que é importante que o usuário não só leia como guarde uma cópia do documento que aceitou, pois esses termos estão sujeitos a constantes atualizações. Sobre isso, Valéria diz ainda que a empresa não pode alterar o contrato sem pedir novamente para o usuário que o aceite ? a menos que essa possibilidade esteja prevista na primeira versão apresentada dos termos de uso.

Principais semelhanças

Como são

Não importa se você perdeu aquela promoção no site de compra coletiva. Os termos de uso dizem que não é possível assegurar que os serviços estarão sempre no ar. Se isso acontecer, você não pode culpar a empresa.

Certeza

Nada de voltar atrás depois de dar um lance em um leilão ou dizer que queria participar de uma promoção. Está no Código Civil que, se manifestada a vontade de comprar, é obrigatória a realização da compra.

Mudanças

Todos preveem mudanças no contrato. O que difere é com quanta antecedência as alterações serão comunicadas aos usuários antes de entrarem em vigor e o tempo permitido para que eles manifestem sua insatisfação.

Reclame

As empresas devem deixar seus termos de uso disponíveis e compreensíveis para os usuários. Proteste se eles não estiverem:
- Em português ou bem traduzidos
- Com linguagem simples e sem excesso de termos jurídicos Com partes controversas em destaque
- Disponíveis online em uma página fácil de ser encontrada

estadao.br.msn.com

BOPE PEDE AJUDA NO TWITTER

Ajude o BOPE a ajudar você! (Fonte da imagem: Perfil oficial do BOPE no Twitter)


Quem tem Twitter pode seguir o perfil oficial do BOPE. O batalhão da PM carioca está usando a rede social para informar seus mais recentes atos à população. E além de dizer em que locais os policiais fizeram os bandidos pedirem para sair, ainda são colocadas fotografias de traficantes para que os seguidores possam colaborar com denúncias anônimas sobre suas localizações.

A imagem que ilustra esta notícia mostra exatamente isso. Postada no TwitPic, ela traz quatro traficantes foragidos e ainda utiliza um bordão que ficou famoso com o filme “Tropa de Elite”: “Ajude o BOPE a ajudar você”. O telefone para denúncias também está presente e, caso queira, você pode seguir o perfil do batalhão no Twitter. Mas é muito provável que o BOPE não vá seguir ninguém.

HACKER QUE DESBLOQUEO O PS3 TEM PLANO PARA ANIQUILAR O ORKUT

Para muitos, um herói. Para outros, o inimigo “número um” dos video games. George Hotz, também conhecido como GeoHot, é um dos hackers mais famosos dos últimos anos, atingindo esse posto após desbloquear um dos sistemas mais “lacrados” de todos os tempos: o PlayStation 3.
George Hotz em disputas frequentes com a Sony
Fonte da imagem: George Hotz
Liberando os sistemas a rodarem jogos não originais, a alteração prejudica a Sony (empresa fabricante do PlayStation) e todas as produtoras e desenvolvedoras de games associadas. Ele também é conhecido por ter desbloqueado o iPhone, criando jailbreaks para várias versões do sistema operacional portátil da Apple.

Disputas judiciais

Nem todas as suas ações repercutiram tanto quanto o desbloqueio dos PlayStation. Isso porque a Sony luta com todas as forças para manter o seu sistema sem alterações (desautorizadas) de qualquer tipo. Hoje, a empresa japonesa está com vários processos contra o hacker norte-americano.
São ações relacionadas a quebra de patentes e desacordo com os contratos de licenciamento. A primeira vitória da Sony foi uma ordem de restrição para Hotz, que ficou proibido de mencionar os nomes “Sony” e “PlayStation” ou divulgar versões modificadas de softwares em qualquer meio digital, o que inclui fóruns, sites, redes sociais e vídeos.
Não respeitando a decisão da justiça, em fevereiro deste ano Hotz publicou um vídeo no YouTube para desafiar a Sony. No vídeo, ele canta um rap próprio, no qual solta algumas ofensas contra a empresa. Entre as frases de maior impacto, estavam: “Cry to your uncle Sam” e “I’m the personification of freedom to y’all”.


A primeira delas diz para a Sony ir “chorar com o Tio Sam” (apelido dos Estados Unidos) e, na segunda, ele se declara a personificação da liberdade para todos. Há também várias outras frases que são um pouco pesadas para que sejam colocadas neste artigo.

A fuga para a América Latina

GeoHot foi obrigado pela justiça norte-americana a entregar todos os seus eletrônicos (incluindo discos rígidos e video games) à Sony. E apesar de todas as frases de efeito, quando isso ocorreu, Hotz não resistiu à pressão e decidiu fugir para a América Latina. Há várias fontes internacionais que confirmam a fuga para a Argentina.
Uma destas fontes é uma declaração da Sony. Quando a SCEA (Sony Computer Entertainment of America) pediu os discos rígidos do hacker, o advogado dele informou que ele não poderia responder aos pedidos naquele momento, já que estava na América Latina. Inicialmente na Argentina, não demorou para que George Hotz encontrasse formas de fugir para outro país – o Brasil.

Encontrando abrigo no Brasil

Após duas semanas em Buenos Aires, George Hotz foi contatado por um grupo de hackers, que ofereceu asilo para ele em uma cidade metropolitana do Rio de Janeiro. O Tecmundo conseguiu contato com GeoHot e divulga agora uma entrevista exclusiva – já traduzida –  realizada na última quarta-feira.
Tecmundo: George Hotz, o que levou você a buscar maneiras de burlar o sistema do PlayStation com tanto afinco?
GeoHot: Assim como aconteceu com o iPhone, o PlayStation 3 é um verdadeiro aprisionador dos usuários. Nós já pagamos uma boa quantia de dólares por eles; o mínimo que podemos esperar é que tenhamos liberdade para usá-los da maneira que quisermos.
TM: Então as suas modificações nos sistemas visam apenas o bem dos usuários?
GH: O que realmente me move é a vontade de mostrar que os usuários podem ser maiores do que as empresas. E não o contrário.
TM: Você reconhece sua culpa perante a lei norte-americana?
GH: Sei que a justiça dos Estados Unidos não é voltada ao consumidor, mas sim aos empresários. Também conheço os contratos do PlayStation e posso garantir que nunca burlei nenhum deles, porque nunca assinei nenhum deles.
TM: Mas o contrato da Sony diz que, se não concordar com os termos nele inscritos, você não é autorizado a utilizar os sistemas da marca.
GH: Não me lembro de ter lido isso!
TM: Mudando de assunto. Por que escolheu o Brasil?
GH: Eu estava na Argentina para esfriar a cabeça, então surgiu um convite de alguns hackers brasileiros. A oferta foi tentadora, porque aqui eu poderia libertar muito mais os usuários. Não apenas das garras da Sony, como também das opressões tributárias, que fazem os jogos serem muito mais caros do que valem. Aqui o desbloqueio dos sistemas possui uma razão a mais.
TM: E qual o próximo passo?
GH: Depois de disseminar os desbloqueios do PS3, vou lutar para libertar os brasileiros de uma outra praga.
TM: Qual?
GH: O Orkut.
TM: Por que você diz que ele é uma praga?
GH: Uma rede social que aprisiona a alma dos usuários não pode ser algo bom. Li alguns estudos sobre o perfil do usuário do Orkut e vi que, no Brasil, esta rede social é mais nociva do que muitas drogas.
TM: Prossiga.
GH: Os adolescentes voltam da escola e acessam o Orkut em vez de estudarem. E isso é só um dos mil exemplos. Preparem-se, porque em breve vocês verão o Orkut sendo aniquilado.
TM: Aniquilado?
GH: Exatamente. Falhas serão expostas e servidores serão derrubados. A Google vai aprender que a internet serve para libertar, não para prender.

Orkut: o próximo alvo

Como dito na entrevista, pelo próprio George Hotz, em breve o Orkut será atacado de uma maneira jamais vista anteriormente. O Tecmundo sugere que, para sua segurança, senhas sejam trocadas e dados muito confidenciais sejam retirados dos servidores da rede social.

GeoHot em seu quarto, ainda nos EUA
Fonte da imagem: George Hotz

Podemos garantir também que a Google já está trabalhando em maneiras de evitar que GeoHot utilize seus dotes de hacker para atacar o Orkut. Sabemos também que os principais objetivos do hacker são relacionados à “libertação” dos usuários, por isso esses ataques não devem ser nocivos a quem utiliza o Orkut.

Agora conte para o Tecmundo o que você pensa a respeito dessas novas intenções de GeoHotAproveite e diga também o que você acha dos desbloqueios criados por ele para o smartphone da Apple e o vídeo game da Sony.

Atenção:


Este artigo foi o Erro 404 escondido da semana e trata-se de uma brincadeira de primeiro de abril dos sites Baixaki e Tecmundo. Fiquem tranquilos, Geohot não tem planos malignos para destruir o Orkut. Ainda…

Leia mais em: http://www.tecmundo.com.br/9406-hacker-que-desbloqueou-o-ps3-tem-planos-para-aniquilar-o-orkut.htm#ixzz1PZ2xjuJi

COISAS ANTIGAS QUE FUNCIONAVAM MAIS RÁPIDO


É inegável a forte influência da tecnologia em nosso cotidiano. Você já parou para pensar na quantidade de aparelhos eletrônicos que usamos durante o dia? São computadores, smartphones, televisores, câmeras digitais, video games, DVD players, localizadores GPS, entre muitos outros gadgtes.

Toda essa parafernália tem o objetivo de nos manter melhor informados e tornar nossas vidas mais práticas e divertidas. Entretanto, em meio a tantos botões, mecanismo de configuração, recursos de navegação, telas sensíveis ao toque e conteúdos com maior resolução e interação, como uma atividade pode ficar mais simples?

Com tantos dispositivos à nossa disposição, sem qualquer dúvida, temos maior facilidade para encontrar informações e formas de entretenimento. Por outro lado, para ver o que está passando em todos os canais da TV ou assistir a um filme, por exemplo, nós gastamos mais tempo que nossos pais e avós.

cidar melhor esse cenário, que a cada dia ganha mais ferramentas, recursos e demora.Vamos analisar alguns casos práticos para elu

Na frente da “telinha”


Passado


A televisão é, por enquanto, a ferramenta de entretenimento mais usada pelas pessoas. Quem teve a oportunidade de acompanhar os primórdios da popularização dessa tecnologia, inventada no século passado, jamais imaginou que poderia acessar a internet, executar músicas armazenadas no celular e assistir a cenas que transcendem as três dimensões pela TV.

Todavia, não precisamos voltar muito no tempo para ver que aquelas velhas caixas pesadas tinham alguma vantagem. Antigamente, bastava conectar o cabo da antena no televisor e utilizar o controle remoto para pular os canais (sem qualquer atraso na troca) e acompanhar o que estava passando em cada uma das 15 emissoras.

Na época, a pessoa chegava em casa, ligava a televisão e passava por todos os canais pressionando os botões da TV ou do controle remoto, em um cenário mais recente.

Tempo estimado para passar todos os canais: 3 minutos.


Hoje


Atualmente, esse contexto é completamente diferente. Os aparelhos ocupam menos espaço e são mais bonitos. Porém, o tempo para achar a programação que desejamos é bem maior. Ao sentar no sofá, você liga o televisor. Ativa o receptor da TV a cabo. Aciona o amplificador de áudio. A cada canal é preciso esperar de 1 a 3 segundos para o carregamento do conteúdo.

Cansado de tanto pressionar o mesmo botão, você acessa o guia de programação para ver o que está passando nos mais de 300 canais disponíveis. Você nem começou a assistir ao que queria e já se passaram quase 10 minutos!

Tempo para encontrar um programa interessante: 10 minutos.


Pipoca gelada


Passado


Década de 80. Fim de semana chuvoso. Nada melhor para passar o tempo do que assistir a um bom filme comendo pipoca (estourada na panela) e tomando um refrigerante. Você vai até a locadora do bairro e escolhe um título bacana na seção “lançamentos”, mas que saiu de cartaz dos cinemas há mais de três meses.

Reunida a família na sala, você insere a fita VHS no aparelho, aperta o play e pronto! Após uma breve introdução com a divulgação da produtora, o filme começa a ser exibido para o deleite de todos.

Tempo para começar a assistir ao filme em VHS: 2 minutos.


Hoje


Como todos sabemos, na atualidade esse processo é um pouco mais prolongado. Começando pela dificuldade em reunir toda a família: é a mãe que não larga o telefone, o filho que não desliga o video game e a filha que não para de bater papo nos chats da internet.
Depois de muito sacrifício e todos dispostos a curtir o filme que deixou de ser exibido nos cinemas na semana retrasada, você liga o player e coloca o Blu-ray. Logo de cara, aparece a mensagem que o carregamento do conteúdo pode levar até três minutos. Em seguida, é exibida a campanha contra a pirataria e algumas advertências sobre a reprodução da mídia. Você se lembrou de ajustar o volume do home theater? Então o faça!

Quando você acha que o filme vai começar, iniciam-se os trailers das sete produções que serão lançadas no próximo semestre. O que é pior: você não pode pulá-los, apenas avançar a execução rapidamente. Enfim, você acessa o menu principal. Após definir o idioma de áudio e legenda, finalmente, chegou a hora de pressionar “Iniciar” e assistir ao tão esperado título.

Infelizmente, nesse momento, a pipoca (feita no micro-ondas) está fria e você já bebeu metade do copo de refrigerante. Dedo no botão de pausa para requentar o aperitivo e completar o recipiente da bebida.

Tempo para acessar o menu principal do filme: 8 minutos, se você não assistir aos trailers na íntegra.


Localização geográfica


Passado


O ano é 1992. Você está viajando com seu Escort branco 1.8 para a casa de parentes no interior. Em certo momento do trajeto, uma breve falha na memória deixa você com sérias dúvidas de qual caminho seguir em determinada bifurcação.

Nada de pânico. Você não está perdido. O mapa, que sempre está no porta-luvas ocupando quase todo o espaço do compartimento, o auxilia no esclarecimento do percurso. Se você possuir um guia completo, tudo fica ainda mais fácil. Com o catálogo aberto no índice, bastam alguns minutos para localizar a cidade em que você está e descobrir qual a direção correta.



Tempo médio para descobrir a rota: 3 minutos e meio.

Hoje


Quase 20 anos mais tarde, dificilmente você vai encontrar mapas físicos nos carros. A moda agora é o GPS. Comparar as dimensões e a beleza desse gadget com as centenas de páginas dos guias é covardia. Entretanto, alguns detalhes nesses dispositivos eletrônicos de localização podem tornar uma viagem um tanto quanto confusa.

 levando o cabo para o carregamento do aparelho. Em percursos longos, a bateria pode não durar no caminho de volta.

(Fonte da imagem: Wikimedia Commons/Autor Paul Vlaar)



O primeiro ponto a ser observado é: sempre confira se você está
Assim que você liga o GPS, é preciso esperar o sistema operacional ser carregado. Finalizado tal processo, o próximo passo é encontrar a ferramenta da localização e navegação em meio à rádio FM/AM, o recurso de armazenamento de documentos, o receptor de TV digital, o acervo de fotos, entre outras funcionalidades – as quais você pode usufruir em outros gadgets.

Acessada a função primordial do localizador, você precisa torcer para que o sinal do GPS, informando onde você está, seja encontrado rapidamente pelos satélites do serviço implementado no dispositivo. Depois de tanto tempo, e o provável desespero, o aparelho exibe a rota a ser percorrida.

Tempo estimado para acionar o localizador: de 7 a 10 minutos.


Meia-lua para frente e soco


Passado


Os video games fazem parte da vida de crianças e adolescentes há muitas décadas. Um dos consoles que teve muito sucesso nos anos 90 foi o Super Nintendo. O aparelho utilizava fitas como mídia de armazenamento dos jogos, as quais, em caso de mau funcionamento, exigiam apenas alguns métodos de limpeza simples e baratos.

(Fonte da imagem: Wikimedia Commons/Autor Evan-Amos)

Vamos acompanhar o procedimento básico para jogar neste dispositivo:
1º passo: insira o cartucho no console;

2º passo: pressione o botão “Power” no video game;

3º passo: aperte o botão “Start” no controle incessantemente, pulando todas as introduções;

4º passo: clique no botão ou link para começar a jogar.

Tempo para iniciar o game: entre 2 e 4 minutos.


Hoje


Por sua vez, um dos consoles com maior popularidade nos últimos anos é o PlayStation 3. O aparelho da Sony é considerado por muitos como o video game com melhor reprodução de imagens e efeitos visuais, apesar do alto custo dos jogos – os quais usam o Blu-ray como mídia de reprodução.

Confira o procedimento, nem tão básico assim, para jogar no PS3:


1º passo: ligue o console;

2º passo: aguarde o carregamento do sistema;
3º passo: insira o Blu-ray;

4º passo: aguarde a instalação ou a atualização do game;

5º passo: espere o loading do jogo;

6º passo: configure o brilho e a posição da tela;

7º passo: selecione o modo de jogo;

8º passo: em caso de games online, escolha o servidor;

9º passo: aguarde a conexão;

10º passo: aproveite o jogo.

Tempo aproximado para começar a jogar: de 18 a 25 minutos.


Cadê a tecla “Del”?


Passado


Quem tem menos de 18 anos, possivelmente, nunca teve contato com uma máquina de datilografia, ou máquina datilográfica. Para aqueles que não fazem a menor ideia do que estamos falando, esse instrumento secular dotado de teclas mecânicas, uma fita com tinta e dispositivos para a inserção do papel serve para escrever.

Com tal aparelho, bastava colocar o papel e começar a digitar o texto. Em vez de acompanhar a digitação em uma tela, como fazemos hoje, tal verificação era feita diretamente no papel. Não era preciso imprimir, pois o documento ficava pronto assim que o texto fosse terminado.

A falta de energia elétrica não era uma desculpa plausível para dar à professora por ter deixado de fazer a tarefa de casa. Entretanto, era bom evitar erros de gramática, pois consertar qualquer letra era bem complicado.

Tempo para terminar a tarefa de casa: 5 minutos.


Hoje


No atual cenário das tecnologias, não utilizamos nada parecido com tal descrição. Agora, o computador é nosso companheiro inseparável. Seja para navegar pela internet, ouvir música, assistir a vídeos e, inclusive, para escrever.

Contudo, o tempo necessário para ter um texto pronto em mão é um tanto quanto demasiado. Antes de tudo, é preciso ligar o PC e aguardar o carregamento do sistema operacional, que dependendo da configuração de hardware pode levar alguns minutos.

Depois disso, você acessa o editor de texto e o executa. Mais alguns segundos de espera. Chegou a hora de explorar sua criatividade e a agilidade dos seus dedos. A ajuda do corretor ortográfico e da tecla delete seria muito bem-vinda nas máquinas de datilografia.

Trabalho concluído? Ainda não. Faltou você enviar sua produção para a impressão. Aí é essencial que você tenha se lembrado de trocar os cartuchos de tinta da impressora e que a energia não acabe nesse momento.

Tempo para ligar o PC, digitar e imprimir: no mínimo, 15 minutos.

…..

Atenção: este artigo faz parte do quadro “Erro 404″, publicado semanalmente no Baixaki e Tecmundo com o objetivo de trazer um texto divertido aos leitores do site. Algumas das informações publicadas aqui são fictícias, ou seja, não remetem à realidade.

Leia mais em: http://www.tecmundo.com.br/10821-erro-404-coisas-antigas-que-funcionavam-mais-rapido.htm#ixzz1PYyWT2YS

RELÓGIO JAPONÊS AVISA QUANDO O USUÁRIO ESTA EMBRIAGADO

A companhia japonesa Tokyoflash revelou um novo conceito de relógio que promete fazer sucesso entre aqueles que gostam de beber depois do expediente. O dispositivo possui uma função chamada “Alchohol Test Function” (Função de teste de álcool, em uma tradução livre), que promete medir o nível alcoólico no sangue do usuário.

A tela do dispositivo, feita em LED, é ligada através de toques, e mostra uma combinação de cores e gráficos que indicam o estado do usuário. O grau de embriagues é medido de forma semelhante ao feito por um bafômetro, tomando como base a respiração de cada pessoa para determinar se ela está apta a dirigir ou a operar máquinas pesadas.

Não há perspectivas de que a companhia comece a produzir o relógio em larga escala, ao menos em um futuro próximo. Porém, a Tokyoflash é conhecida por publicar imagens conceituais de novos produtos, para só começar a fabricá-los após o público demonstrar interesse pela novidade – assim, aqueles que gostam de abusar das bebidas ainda podem manter a esperança de carregar um acessório do tipo no futuro.

Isso realmente iria funcionar de verdade aqui no Brasil!!!

Leia mais em: http://www.tecmundo.com.br/10858-relogio-japones-avisa-quando-o-usuario-esta-embriagado.htm#ixzz1PYuyRpwo

CURIOSO MAIS REAL CELULAR MATA HOMEM DE 25 ANOS ELETROCUTADO


Produtos falsificados também podem causar morte
(Fonte da imagem: 
PRLog)

Todo mundo sabe que produtos falsificados podem causar danos aos seus usuários, tanto financeiros quanto físicos. Mas poucos esperam morrer por causa da baixa qualidade de construção de tablets e celulares popularmente conhecidos como “xinglings”.
Morador do distrito de Panchmahal, na Índia, o jovem Dhanji Damor morreu ao usar um celular chinês falsificado. Damor foi eletrocutado ao tentar realizar uma ligação enquanto o telefone estava sendo carregado. 

Essa não foi a primeira vez em que algo assim aconteceu na Índia. Em 2010, uma mulher sofreu um acidente similar: Andhra Pradesh recebeu um choque ao tentar carregar o seu celular e acabou também falecendo.
Os “xinglings” costumam ser famosos por apresentarem problemas sérios com a bateria, que não é construída e testada adequadamente. Muitas vezes, esses eletrônicos acabam até mesmo sendo confiscados pelo governo indiano devido à má qualidade. Vale lembrar que muitos desses produtos são comercializados também no Brasil.

Então vamos pensar duas vezes antes de comprar um aparelho falsificado isso, serve de exemplo para que tenhamos o bom senso de procurar compra produtos de qualidade. Valeu!!!

Leia mais em: http://www.tecmundo.com.br/10835-celular-mata-eletrocutado-homem-de-25-anos.htm#ixzz1PYs5Szl8

A EVOLUÇÃO DOS COMPUTADORES PESSOAIS

Até aqui, falei sobre os supercomputadores e sobre a evolução dos processadores, que evoluíram das válvulas para o transístor e depois para o circuito integrado. Vou agora falar um pouco sobre os primeiros computadores pessoais, que começaram a fazer sua história a partir da década de 70. Tempos difíceis aqueles :).
Como disse há pouco, o primeiro microchip, o 4004, foi lançado pela Intel em 1971. Era um projeto bastante primitivo, que processava instruções de 8 bits, através de um barramento rudimentar, que permitia transferir apenas 4 bits por ciclo, e operava a meros 740 kHz. Na verdade, o 4004 era tão lento que demorava 10 ciclos para processar cada instrução, ou seja, ele processava apenas 74 mil instruções por segundo (mesmo assim, ele era cerca de 15 vezes mais rápido que o ENIAC). Hoje em dia esses números parecem piada, mas na época era a última palavra em tecnologia. O 4004 permitiu o desenvolvimento das primeiras calculadoras eletrônicas portáteis.
Pouco tempo depois, a Intel lançou um novo processador, que fez sucesso durante muitos anos, o 8080. Ele já era um processador de 8 bits e operava a incríveis 2 MHz: “Ele é capaz de endereçar até 64 KB de memória e é rápido, muito rápido!” como dito num anúncio publicitário do Altair 8800 que, lançado em 1974, é considerado por muitos o primeiro computador pessoal da história.
O Altair era baseado no 8080 da Intel e vinha com apenas 256 bytes de memória, realmente bem pouco, mesmo para os padrões da época. Estava disponível também uma placa de expansão para 4 KB. Em teoria, seria possível instalar até 64 KB, mas o custo tornava o upgrade inviável.
No modelo básico, o Altair custava apenas 439 dólares, na forma de kit (onde você precisava soldar manualmente todos os componentes). Em valores corrigidos, isso equivale a quase 4.000 dólares, mas na época esse valor foi considerado uma pechincha, tanto que foram vendidas 4.000 unidades em 3 meses, depois de uma matéria da revista Popular Eletronics.
Esse “modelo básico” consistia nas placas, luzes, chips, gabinete, chaves e a fonte de alimentação, junto, claro, com um manual que ensinava como montar o aparelho. Existia a opção de comprá-lo já montado, mas custava 182 dólares (da época) a mais.
Em sua versão básica, o Altair não tinha muita utilidade prática, a não ser a de servir como fonte de aprendizado de eletrônica e programação. Entretanto, pouco tempo depois, começaram a surgir vários acessórios para o Altair: um teclado que substituía o conjunto de chaves que serviam para programar o aparelho, um terminal de vídeo (bem melhor que ver os resultados na forma de luzes :), um drive de disquetes (naquela época ainda se usavam disquetes de 8 polegadas), placas de expansão de memória e até um modelo de impressora. Até mesmo Bill Gates (antes mesmo da fundação da Microsoft) participou, desenvolvendo uma versão do Basic para o Altair.
Se você tivesse muito dinheiro, era possível chegar a algo que se parecia com um computador moderno, capaz de editar textos e criar planilhas rudimentares. Algumas empresas perceberam o nicho e passaram a vender versões “completas” do Altair, destinadas ao uso em empresas, como neste anúncio, publicado na revista Popular Eletronics, onde temos um Altair “turbinado”, com o terminal de vídeo, impressora, dois drives de disquete e 4 KB de memória:

O Altair serviu para demonstrar a grande paixão que a informática podia exercer e que, ao contrário do que diziam muitos analistas da época, existia sim um grande mercado para computadores pessoais.
Pouco depois, em 1976, foi fundada a Apple, tendo como sócios Steve Jobs (que continua ativo até os dias de hoje) e Steve Wozniak. Na verdade, a Apple só foi fundada porque o projeto do Apple I (desenvolvido pelos dois nas horas vagas) foi recusado pela Atari e pela HP. Uma frase de Steve Jobs descreve bem a história:
- Então fomos à Atari e dissemos: “Ei, nós desenvolvemos essa coisa incrível, pode ser construído com alguns dos seus componentes, o que acham de nos financiar?” Podemos até mesmo dar a vocês, nós só queremos ter a oportunidade de desenvolvê-lo, paguem-nos um salário e podemos trabalhar para vocês. Eles disseram não, fomos então à Hewlett-Packard e eles disseram “Nós não precisamos de vocês, vocês mal terminaram a faculdade”.
O Apple I não foi lá um grande sucesso de vendas, vendeu pouco mais de 200 unidades a 666 dólares (pouco mais de US$ 5000 em valores corrigidos) cada uma. Mesmo assim, os lucros sustentaram a Apple durante o primeiro ano, abrindo caminho para o lançamento de versões mais poderosas. Quem comprou um, acabou fazendo um bom negócio, pois hoje em dia um Apple I (em bom estado) chega a valer US$ 50.000.
Diferente do Altair, o Apple I era vendido já montado. A placa era vendida “pelada” dentro de uma caixa de papelão, sem nenhum tipo de gabinete, por isso era comum que os Apple I fossem instalados dentro de caixas de madeira feitas artesanalmente.
O Apple I era baseado no processador 6502, um clone do Motorola 6800, que era fabricado pela MOS Tecnology. Ele era um processador de 8 bits, que operava a apenas 1 MHz. Em termos de poder de processamento, o 6502 perdia para o 8080, mas isso era compensado pelos “espaçosos” 8 KB de memória, suficientes para carregar o interpretador BASIC (que ocupava 4 KB), deixando os outros 4 KB livres para escrever e rodar programas.
Uma das vantages é que o Apple I podia ser ligado diretamente a uma TV, dispensando a compra de um terminal de vídeo. Ele possuía também um conector para unidade de fita (o controlador era vendido separadamente por 75 dólares) e um conector proprietário reservado para expansões futuras:


Apple I

Naquela época, as fitas K7 eram o meio mais usado para guardar dados e programas. Os disquetes já existiam, mas eram muito caros.
Os grandes problemas das fitas K7 eram a lentidão e a baixa confiabilidade. No Apple I, os programas eram lidos a meros 1500 bits por segundo e em outros computadores o acesso era ainda mais lento, com de 250 a 300 bits. Era preciso ajustar cuidadosamente o volume no aparelho de som antes de carregar a fita e, conforme a fita se desgastava, era preciso tentar cada vez mais vezes antes de conseguir uma leitura sem erros.
Na época, existiam até programas de rádio que transmitiam softwares como parte da programação. O locutor avisava e em seguida “tocava” a fita com o programa. Os interessados precisavam ficar com o aparelho de som à mão para gravar a cópia. Esses programas de rádio foram a primeira rede de pirataria de softwares de que se tem notícia, décadas antes da popularização da internet. ;)

Fita K7 com o BASIC para o Apple I

O Apple I foi logo aperfeiçoado, surgindo então o Apple II, lançado em 1977. Esse sim fez sucesso, apesar do preço salgado para a época: US$ 1.298, que equivalem a quase 10.000 dólares em valores corrigidos.
O Apple II vinha com apenas 4 KB de memória, mas incluía mais 12 KB de memória ROM, que armazenava um interpretador BASIC e o software de bootstrap, lido no início do boot. Isso foi uma grande evolução, pois você ligava e já podia começar a programar ou a carregar programas. No Apple I, era preciso primeiro carregar a fita com o BASIC, para depois começar a fazer qualquer coisa.
O BASIC era a linguagem mais popular na época (e serviu como base para diversas linguagens modernas), pois tem uma sintaxe simples se comparado com o C ou o Assembly, utilizando comandos derivados de palavras do Inglês.
Este é um exemplo de programa em BASIC simples, que pede dois números e escreve o produto da multiplicação dos dois:
10 PRINT “MULTIPLICANDO”
20 PRINT “DIGITE O PRIMEIRO NUMERO:”
30 INPUT A
40 PRINT “DIGITE O SEGUNDO NUMERO:”
50 INPUT B
60 LETC=A*B
70 PRINT “RESPOSTA:”, C
Este pequeno programa precisaria de 121 bytes de memória para rodar (os espaços depois dos comandos são ignorados, por isso não contam). Ao desenvolver programas mais complexos você esbarrava rapidamente na barreira da memória disponível (principalmente se usasse um ZX80, que tinha apenas 1 KB ;), o que obrigava os programadores a otimizarem o código ao máximo. Aplicativos comerciais (e o próprio interpretador BASIC) eram escritos diretamente em linguagem de máquina, utilizando diretamente as instruções do processador e endereços de memória, de forma a extraírem o máximo do equipamento.
Voltando ao Apple II, a memória RAM podia ser expandida até 52 KB, pois o processador Motorola 6502 era capaz de endereçar apenas 64 KB de memória, e 12 KB já correspondiam à ROM embutida. Um dos “macetes” naquela época era uma placa de expansão, fabricada pela recém formada Microsoft, que permitia desabilitar a ROM e usar 64 KB completos de memória.
Além dos jogos, um dos programas mais populares para o Apple II foi o Visual Calc, ancestral dos programas de planilha atuais:

Foto de um manual antigo que mostra a interface do Visual Calc

O Apple II já era bem mais parecido com um computador atual. Vinha num gabinete plástico e tinha um teclado incorporado. A versão mais básica era ligada na TV e usava o famigerado controlador de fita K7, ligado a um aparelho de som para carregar programas. Gastando um pouco mais, era possível adquirir separadamente uma unidade de disquetes.


Apple II

A linha Apple II se tornou tão popular que sobreviveu até o início dos anos 90, quase uma década depois do lançamento do Macintosh. O último lançamento foi o Apple IIC Plus, que utilizava um processador de 4 MHz (ainda de 8 bits) e vinha com um drive de disquetes de 3.5″, já similar aos drives atuais.
Outra inovação dos Apple I e Apple II em relação ao Altair e outros computadores anteriores é o tipo de memória usada. O Apple I foi o primeiro a utilizar memórias DRAM, que é essencialmente a mesma tecnologia utilizada até hoje em pentes de memória.
Ao longo das primeiras décadas, a memória RAM passou por duas grandes evoluções. No ENIAC, não existia uma unidade de memória dedicada. Parte das válvulas eram reservadas para armazenar as informações que estavam sendo processadas. Não existia unidade de armazenamento, além dos cartões perfurados e as anotações feitas manualmente pelos operadores.
Na década de 50 surgiram as memórias core, um tipo antiquado de memória onde são usados anéis de ferrite, um material que pode ter seu campo magnético alterado através de impulsos elétricos, armazenando o equivalente a um bit 1 ou 0). Esses anéis de ferrite eram carinhosamente chamados de “donuts” (rosquinhas) e eram montados dentro de uma complexa rede de fios, que transportavam os impulsos elétricos usados para ler e escrever dados.
Cada anel armazenava apenas um bit, de forma que você precisava de 8.192 deles para cada KB de memória. Inicialmente a malha de fios era “tecida” manualmente, mas logo começaram a ser usadas máquinas, que permitiram miniaturizar bastante as estruturas.
Este é um exemplo de placa de memória core. Ela mede 11 x 11 cm (um pouco menor que um CD), mas armazena apenas 50 bytes:

Essas placas eram ligadas entre si, formando “pilhas” organizadas dentro de estruturas maiores. Imagine que, para atingir 1 MB de memória no início da década de 1960, você precisaria de quase 21 mil dessas plaquinhas.
Este é um exemplo de unidade de memória, construída usando placas de memória core, que está em exposição no museu no MIT. Apesar do tamanho, ela possui apenas 64 KB:

Por serem muito caras e precisarem de um grande número de circuitos de apoio, as memórias core ficaram restritas aos computadores de grande porte. O Altair já utilizava memórias “modernas” na forma de chips. Para ser exato, ele utilizava dois chips de 1024 bits (ou 128 bytes) cada um.
O Altair utilizava chips de memória SRAM (static RAM), que eram rápidos e confiáveis, porém muito caros. Na memória SRAM, são usados de 4 a 6 transístores para cada bit de dados (as do Altair usavam 4 transistores), o que multiplica o custo dos chips. Atualmente, as memórias SRAM são usadas nos caches L1 e L2 dos processadores, o tipo mais rápido e caro de memória que existe.
O Apple I inovou utilizando um “novo” tipo de memória, as DRAM (dynamic RAM), onde é usado um único transístor para cada bit de dados. Embora à primeira vista pareçam mais simples, os chips de memória DRAM são muito mais complicados de se trabalhar (principalmente se considerarmos as limitações da época), pois são capazes de armazenar os dados por apenas uma pequena fração de segundo. Para conservar os dados, eles precisam de um circuito de refresh, que lê e regrava os dados a cada 64 milissegundos (ou menos, de acordo com o projeto).
Apesar de todas as dificuldades, foi o uso de memórias DRAM no Apple I que permitiu que ele viesse com 8 KB de memória, custando pouco mais que um Altair, que vinha com meros 256 bytes. A partir daí, as memórias DRAM se tornaram norma, o que continua até os dias de hoje.
Voltando à história, em 1979 surgiu um outro modelo interessante, desta vez da Sinclair, o ZX80. Ele não era tão poderoso quanto o Apple II, mas tinha a vantagem de custar apenas 99 dólares (pouco mais de 400 em valores corrigidos). Ele foi o computador mais popular até então, com 100.000 unidades vendidas (entre 1979 e 1981), sem contar uma grande quantidade de clones, produzidos em diversos países ao longo da década de 80.
O ZX80 era baseado no NEC-780C, um clone do Z80, que operava a 3.25 MHz. Ele era relativamente poderoso para os padrões da época, mas aquecia bastante. Segundo as más línguas, ele foi o primeiro processador overclocado da história. :)
Para cortar custos, ele vinha de fábrica com apenas 1 KB de memória RAM, combinados com 4 KB de memória ROM que armazenavam o interpretador BASIC, usado pelo aparelho. Como em qualquer sistema popular da época, os programas eram armazenados em fitas K7 e ele era ligado diretamente na TV:

Considerando o preço, o ZX80 foi uma máquina surpreendente, mas claro, tinha pesadas limitações, mesmo se comparado com outras máquinas da época. Apesar de já vir com uma saída de vídeo, a resolução gráfica era de apenas 64×48, mesmo em modo monocromático, já que o adaptador de vídeo tinha apenas 386 bytes de memória. Existia também uma opção de modo texto (usada para programas em BASIC, por exemplo), com 32×24 caracteres.
O processador Z80 se tornou incrivelmente popular, superando as vendas de qualquer outro processador da história. Versões modernizadas do Z80 (que conservam o mesmo projeto básico, mas são produzidas com técnicas modernas de fabricação e trabalham a freqüências mais altas) fazem sucesso até hoje, sendo utilizadas em todo tipo de eletrônicos, incluindo impressoras, aparelhos de fax, controladores diversos, robôs de uso industrial, brinquedos, diversos tipos de calculadoras, videogames (incluindo o Game Boy e Game Boy color), diversos modelos populares de mp3players, entre inúmeros exemplos. Apesar de não ser nenhum campeão de velocidade, o Z80 é um chip extremamente barato e fácil de programar, já que todos os seus truques são bem conhecidos e documentados.
Aqui no Brasil tivemos os TK80 e os TK82 da Microdigital, além do NE-Z80 da Prológica, produzidos na época da reserva de mercado. Eles concorriam com os computadores compatíveis com os Apple, como o AP II, Exato, Craft II e Magnex M10. A linha CP (200, 300, 400 e 500) da Prológica era baseada em chips Z80 e havia também os clones da linha MSX, como os Expert 1.0 e Expert Plus.
A reserva de mercado estagnou o desenvolvimento tecnológico do país, de forma que clones de computadores de 8 bits, lançados há uma década atrás era tudo que nossa indústria conseguia produzir. Isso perdurou até 1992, quando a reserva de mercado foi abolida, permitindo a entrada de computadores importados. Em pouco tempo, todos esses computadores de 8 bits foram substituídos por PCs 386 e 486.
Concluindo nosso passeio pela década de 70, outro que não poderia deixar de ser citado é o Atari 800. Sim, apesar de ser mais vendido como um videogame, o Atari 800 também podia ser usado como um computador relativamente poderoso, chegando a ser adotado nos laboratórios de informática de algumas universidades. Ele foi o antecessor do Atari 2600, o videogame conhecido por aqui.
Ele vinha de fábrica com 16 KB de memória RAM, que podiam ser expandidos para até 48 KB, com mais 10 KB de memória ROM. O sistema operacional era o Atari-OS, uma versão do BASIC:

 


Atari 800

Originalmente, o sistema vinha apenas com a entrada para os cartuchos, com o sistema operacional ou jogos, mas era possível adquirir separadamente uma unidade de disquetes, que o transformavam num computador completo. Não existiram muitos programas para o Atari, já que o foco foram sempre os jogos. A principal função do Atari como computador era desenvolver programas em BASIC, por isso seu uso em escolas.

OS SUPERCOMPUTADORES

Nas décadas de 1940 e 1950, todos os computadores do mundo eram gigantescos e caros, agregando tudo o que havia de mais avançado em termos de conhecimento humano. Hoje, pode parecer ridículo que qualquer calculadora de mão de 3 reais possa ter um poder de processamento muito superior ao de um ENIAC, que só de manutenção consumia o equivalente a quase 200.000 dólares por dia (em valores corrigidos). Mas, os supercomputadores continuam existindo, tão grandes e caros quanto o ENIAC, porém incomparavelmente mais rápidos do que os PCs e notebooks domésticos.
Esses mastodontes estão por trás de muitos dos avanços da humanidade e, apesar de estarem escondidos em grandes salas refrigeradas, são alvo de grande curiosidade.
Enquanto escrevo, o supercomputador mais rápido do planeta (segundo o http://www.top500.org/) é o IBM Blue Gene/L, desenvolvido pela IBM. Ele é composto por nada menos do que 131.072 processadores PowerPC e possui 32 terabytes de memória RAM.
Para chegar a esses números, a IBM desenvolveu módulos relativamente simples, cada um contendo 2 processadores, 512 MB de RAM e uma interface de rede gigabit Ethernet, similares a um PC doméstico. Esses módulos foram agrupados em racks (chamados de nós), cada um com 128 deles. No final, chegaram a 512 racks, interligados por uma complexa malha de cabos de rede, rodando um software próprio de gerenciamento. Essa gigantesca estrutura funciona como um cluster, onde o processamento é dividido em pequenos pedaços e dividido entre os módulos. Veja uma foto mostrando parte das instalações:


IBM Blue Gene/L

Os primeiros supercomputadores começaram a surgir na década de 60, aliás uma década de muitos avanços, já que no final da década de 50 foi feita a transição das válvulas para os transístores. Cada transístor era centenas de vezes menor que uma válvula, era muito mais durável e tinha a vantagem de gerar pouco calor.
Todos os computadores da década de 60 já utilizavam transístores, o que permitiu o desenvolvimento dos primeiros minicomputadores. Naquela época, minicomputador era qualquer coisa do tamanho de um armário, com uma capacidade de processamento inferior ao de uma agenda eletrônica atual, das mais baratas.
Os computadores de grande porte, porém, continuaram a ser desenvolvidos, passando a ser chamados de supercomputadores. O primeiro supercomputador para fins comerciais foi o CDC 6600, que foi seguido pelos IBM 360/95 e 370/195.
Na década de 70 surgiu uma nova revolução: o microchip. Um microchip sozinho oferecia uma capacidade de processamento equivalente à de um minicomputador, mas em compensação era escandalosamente menor e mais barato. Surgiram então os primeiros microcomputadores.
Os supercomputadores da década de 70 já eram centenas de vezes mais poderosos do que os produzidos uma década antes. Os principais modelos foram o CDC 7600, o BSP, produzido pela Burroughs, e o ASC da Texas Instruments.
Esses sistemas atingiram a marca de 100 megaflops, ou seja, 100 milhões de cálculos de ponto flutuante por segundo. Essa é a mesma capacidade de processamento de um Pentium 60, porém atingida 20 anos antes. :)
No final da década de 70 surgiram os supercomputadores Cray, produzidos pela Seymour. O primeiro da linha, chamado de Cray 1, também processava 100 megaflops, porém o Cray-XMP atingiu a incrível marca de 1 gigaflop, ainda no início da década de 80, uma capacidade de processamento próxima à de um Pentium II 350.
Só para efeito de comparação, o Blue Gene/L, que citei há pouco, possui 360 teraflops de poder de processamento, ou seja, é 360 mil vezes mais rápido.
Apesar de mesmo um “PC de baixo custo” atualmente possuir um poder de processamento superior ao de um supercomputador, que custava 5 milhões de dólares há 15 anos atrás, a demanda por sistemas cada vez mais rápidos continua.
As aplicações são várias, englobando principalmente pesquisas científicas, aplicações militares e diversos tipos de aplicativos financeiros e relacionados à Internet; aplicativos que envolvem uma quantidade absurda de processamento, e claro, são necessários para instituições que podem pagar muito mais do que 5 ou 10 mil dólares por um computador o mais rápido possível. Existindo demanda, aparecem os fornecedores.
Atualmente, todos os supercomputadores são construídos com base em praticamente os mesmos componentes que temos em micros de mesa, memória, HDs e processadores, Intel, IBM ou AMD.
Ao invés de usar apenas um disco rígido IDE ou SATA, como num micro de mesa, um supercomputador utiliza um array de centenas de HDs, sistemas semelhantes ao RAID, mas numa escala maior, que permitem gravar dados de forma fragmentada em vários discos e ler os pedaços simultaneamente a partir de vários HDs, obtendo taxas de transferência muito altas.
Processadores e memória RAM geralmente são agrupados em nós, cada nó engloba de um a quatro processadores e uma certa quantidade de memória RAM e cache. Isso garante que os processadores tenham um acesso à memória tão rápido quanto um PC de mesa.
Os nós por sua vez são interligados através de interfaces de rede, o que os torna partes do mesmo sistema de processamento, assim como neurônios interligados para formar um cérebro. Um nó sozinho não tem uma capacidade de processamento tão surpreendente assim, mas ao interligar algumas centenas, ou milhares de nós, a coisa muda de figura.
Uma opção mais barata para instituições que precisam de um supercomputador, mas não possuem muito dinheiro disponível, é usar um sistema de processamento distribuído, ou cluster. Um cluster formado por vários PCs comuns ligados em rede.
O exemplo mais famoso de processamento distribuído foi o projeto Seti@Home, onde cada voluntário instalava um pequeno programa que utilizava os ciclos de processamento ociosos da máquina para processar as informações relacionadas ao projeto. Os pacotes de dados de 300 KB cada chegavam pela Internet e demoravam várias horas para serem processados. Isso permitiu que mais de 2 milhões de pessoas, muitas com conexão via modem, participassem do projeto. O sistema montado pela Seti@Home foi considerado por muitos o supercomputador mais poderoso do mundo, na época.
Esse tipo de sistema pode ser construído usando, por exemplo, a rede interna de uma empresa. Rodando o software adequado, todos os micros podem fazer parte do sistema, alcançando juntos um poder de processamento equivalente ao de um supercomputador. O mais interessante é que esses PCs poderiam ser usados normalmente pelos funcionários, já que o programa rodaria utilizando apenas os ciclos ociosos do processador.
A tecnologia de cluster mais usada atualmente são os clusters Beowulf, formados por vários computadores interligados em rede. Não é necessário nenhum hardware muito sofisticado: um grupo de PCs parrudos, ligados através de uma rede gigabit já é o suficiente para montar um cluster Beowulf capaz de rivalizar com muitos supercomputadores em poder de processamento. A idéia é criar um sistema de baixo custo, que possa ser utilizado por universidades e pesquisadores com poucos recursos.
O primeiro cluster Beowulf foi criado em 1994 na CESDIS, uma subsidiária da NASA. Ele era formado por 16 PCs 486 DX-100 ligados em rede. Para manter a independência do sistema e baixar os custos, os desenvolvedores optaram por utilizar o Linux.
Os clusters não servem para processar dados em tempo real (um game qualquer por exemplo), mas apenas para processar grandes quantidades de dados, que podem ser quebrados em pequenas partes e divididos entre os vários computadores. Uma área onde são populares é na aplicação de efeitos especiais e renderização de imagens para filmes de cinema. Há inclusive casos de filmes como o Shrek e o Final Fantasy, que foram renderizados inteiramente utilizando clusters Beowulf.

http://www.hardware.com.br

Seguir

Obtenha todo post novo entregue na sua caixa de entrada.

Junte-se a 382 outros seguidores