A Lei de Moore e a Economia Mundial
Eu tb, mesmo não sendo prêmio Nobel nem economista, ainda tenho um blog para escrever algumas palavras necessárias. Quem sabe um dia desses ainda faço economia numa Universidade Pública de EAD com acesso gratis por dsl ou 3G.
Vou me apoiar nos ombros de alguns blogueiros gigantes para explicar, na prática, como se desdobrou o setembro branco. Segundo o Prêmio Nobel de Economia, a Guerra do Iraque custou trilhões de dólares ao mundo e foi o chute no saco e o tiro no pé dos EUA. Dos EUA..Não do pessoal do Bush que sairam com os bolsos mais recheados. Não faz muito tempo estourou a bolha de tecnologia e novamente ela foi a atriz coadjuvante na recente Grande M, talvez maior que a Grande D do começo do século. Segundo os analistas, passado o frenesi high tech, a bola da vez eram os imóveis com custos irreais, sustentado por um emaranhado de complexos algoritmos e derivativos matémáticos que mantinham os preços dos imóveis próximos de zero dentro de algum video-game rodando nos data-centers mundo à fora. Os trilhões retirados da economia mundial e injetados na Guerra do Iraque fez disparar os preços do petróleo, alimentos e todo tipo de comodities. Até ai nenhum problema.... Que diferença faz o barril do petróleo custar 10 ou custar 100 dólares? No máximo o Hugo Chaves vai falar mais, ou menos mau dos EUA, mesmo sendo esse seu principal comprador de petróleo. Não é mesmo? A princípio é só mudar uma célula numa planilha eletrônica, um campo numa tabela sql no oracle, mysql ou db2 com os novos valores das variáveis em um servidor blade ou mainframe, que a poupança bamerindus continua numa boooooaaaa.... Mas a cobra vai fuma, como diria um adesivo num carro de mais de R$100 000,00: "Se ta ruim pra mim, imagina pra vc" Até 1965 não havia nenhuma previsão real sobre o futuro do hardware, quando o então presidente da Intel, Gordon E. Moore fez sua profecia, na qual o poder de processamento dos chips teria um aumento de 100% a cada período de 18 meses. Essa profecia tornou-se realidade e acabou ganhando o nome de Lei de Moore. Esta serve de parâmetro para uma elevada gama de dispositivos digitais alem dos CPUs, na verdade, qualquer chip está ligado a lei de Moore, até mesmo CCD de câmeras fotográficas digitais. Aparentemente, ela vem se mantendo valida até os dias atuais, mas a grande pergunta é “por quanto tempo perdurará a lei de Moore?”. Segundo o próprio Mr. Moore, numa palestra em setembro de 2007, exatamente um ano antes do setembro branco, no IDF ( Intel Developer Forum ), em quinze anos a "lei" perderá sua validade. E, pelo visto, desta vez é sério. Acontece que o processo litográfico, usado na confecção de dispositivos semicondutores, tem uma limitação física. Em breve, será impossível alinhar os átomos de silício de forma que seja possível controlar o fluxo eletrônico. O quê acontecerá, então? Há alternativas, mas nenhuma delas passa pelo "transistor", como o conhecemos hoje. Nanotubos de carbono, computação quântica e chips biológicos são boas apostas mas você não vai encontrar em nenhuma casas bahia ou site do tipo ebaya. Mas, e até lá?????? Vai perando... O primeiro a tratar a então profecia de Moore por Lei de Moore foi Caver Mead, então professor da Caltech, e pioneiro da VLSI Technology, no ano de 1970. Em 1975, Moore revisou a sua previsão para, a cada dois anos, um aumento de 100% na capacidade de processamento dos chips. Porém um colega de Moore previu que um chip tenderia a dobrar o seu desempenho a cada 18 meses, mantendo é claro o custo.
Mas que custo?????
Dobra-se a capacidade de transistores do processador a cada dois anos. Ok. Dobra-se o desempenho a cada dois anos, corrigido para 18 meses. OK.
Mantem-se o mesmo custo. OK.
Lindo, mas qual custo?
O custo de Produção. OK.
Tah, mas e o custo para o servidor/mainframe funcionar??
Ah, depende do custo do pretróleo... Hummm. Malditos aliados...
Calma, Calma. Não é só o Bush...Tem mais...
Como estão as coisas lá no Data-center que processa as informações que dão sustentação a bolha imobiliária e que agora terá que processar também a complexidade dos aumentos de custos das comodities mundo afora, a dificuldade em levantar fundos para tocar os malas norte-americanos, décadas com a conta pindurada no buteco e.....
Ai meu Deus. Alguém pagou a conta de luz do data-center??
Conta de luz??
Eh. O Moore não te falou que a dissipação de calor dobra a cada dois anos e que dobra tb a conta de luz a cada 18 meses por causa da refrigeração necessária para o chip não fundir????
Por conta desta surpresinha, os custos para manter os computadores funcionando será maior que o custo do próprio servidor entre 2004 e 2015....Mais rápido nos setores com uso intenso de TI. Dammmmmmmmmmmmmmmmmmmmmm!!!
Gartner Says 50 Percent of Data Centers Will Have Insufficient Power and Cooling Capacity by 2008 Gartner Analysts Examine Data Center Power and Cooling Challenges During Gartner's 25th Annual Data Center Conference, November 28 - December 1, 2006, in Las Vegas.
E a corda começou estourarando onde eram maiores a complexidade de processamento de algoritmos e derivativos que regem o mundo moderno, entre eles, o setor imobiliário dos EUA.
Éh, enquanto não reeinvertarmos os sistemas computacionais e de refrigeração, estaremos vulneráveis. Isso é, se os aliados não piorarem as coisas tentando tomar mais alguns poços de petróleo por ai.
Se lembram da Halliburton do Fahrenheit 9/11? A prestadora de serviços à Pretrobrás á a principal suspeita do roubo de informações sobre TuPi....
Ai Jisuis.....
Por Tutatis!!!
Esses romanos são uns neuróticos!!
Nenhum comentário:
Postar um comentário