segunda-feira, 18 de fevereiro de 2008

A decada perdida em TI

Se você já ouviu o bolero de Ravel não é novidade que...

Em 2003 a IBM mostrou um relatório onde a dissipação de calor dos processadores, entre 1950 e 2010, era uma exponencial de arrepiar os cabelos.

Três anos mais tarde, 2006, o Gartner avisava que em 2008 50% dos data-centers no mundo teriam insuficiência de energia e refrigeração. Estranho. Como pode, se TI é a principal indústria do primeiro mundo e movimenta mais de 15% do pib global?

Analisando o gráfico de eficiência de tecnologias de refrigeração aplicadas ao resfriamento de equipamentos de TI, não é de surpreender que os prognósticos do Gartner tenham se concretizado.

De uma hora pra outra o mundo de infraestrutura em TI, e mesmo sites de conteúdo web, que se autodenominavam de bits, e não de átomos, estejam sendo impulsionados por ações ecológicas, como a mais recente visita dos garotos de buxexas rosadas, em usinas de álcool no Brasl, em busca de alternativas sustentáveis para servidores embriagados por petróleo

Igualmente o IDC, apontou que apartir de 2010 os custos de refrigeração e energia para estas máquinas poderão ser mais altos que os equipamentos de TI. Neste mesmo ano estão previstos investimentos de US$ 65 bi em novos servidores, e outros US$ 40 bi em refrigeração e energia.

Regujitaçoes:

Em 1996 foram investidos os mesmos US$ 65 bi em servidores e apenas US$ 10 bi em refrigeração e energia. Isto demonstra um ganho sensivel de performance. O mesmo ja nao se pode dizer do consumo de energia o que leva a outra questao importante:

Nestes doze anos e mesmo com o burburinho na industria de TI e geraçao web, a maior parte do lucro foram para a industria de refrigeraçao e energia.

Velho ditado: Na corrida do ouro quem ganhou dinheiro foram os vendedores de pas e picaretas.


A internet com 1,2 bilhões de usuários já gasta 5,3% da energia do planeta.
Precisamos de uma nova inclusão digital, com clientes ativos na definição de padrões e soluções. Confiar em governos e na indústria não é o suficiente, como mostra o documentário uma empresa descente, onde empresas druckerinas são focadas exclusivamente no lucro e seu DNA não vai mudar se não fosse a intervenção de fundos com larguesa de visão por conta de core business de longo prazo:

Garantir a expansão do mercado e sua aposentadoria.


Não adianta mesmo chorar o leite derramado. Bush ignorou o PK e ja está saindo de fininho, enquanto que os norte-americanos estão anestesiados pela crise interna no mercado imobiliário

Gratidão.
Quem está socorrendo o Citai no Brasil é o BNDES, não o FED.

Da mesma forma, este e outros postings, não devem se limitar a passividade, repetindo o que todos ja sabem de forma imparcial e sem comprometimento com a apresentação de caminhos, uma vez que o problemas com refrigeração afeta toda a cadeia de TI.

Qual a competitividade de softwares, quando o hardware não é confiável?

Caminhos.

Desde 1995 a Big Blue não produz cpus resfriadas por água, em prol de tecnologia de refrigeração embarcada. Ou seja, um sistema de refrigeração completo acoplado ao mainframe. Este por sua vez transfere para dentro do data-center o calor da cpu mais o calor do próprio sistema de refrigeração.

Para simplificar.

Em um sistema de água gelada, o calor da cpu flui através através de canos até uma central de água gelada (um grande bebedouro) externa ao data-center e que resfria a água 12 graus celcius e devolve-a para o maiframe. Ocorre que o próprio sistema de água gelada também gera calor, Como ela se encontra fora do DC não impacta em nada, pois o calor é dissipado diretamente para o ambiente externo.

Em sistemas de refrigeração embarcado em mainframes, toda a central de resfriamento, embora não utilizando água, mas gás, esta dentro do mainframe, portanto, será necessário retirar de dentro do DC, o calor da cpu mais o calor que o próprio sistema de refrigeração gera, como o atrito dos pistões do compressor e o calor do embobinamento elétrico que que faz girar o compressor. Isto demanda mais energia em ar condicionado para levar o calor para fora do DC.
https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEiN9WgWpfH3xQGwtiAs2oJ0f1p4zSn22buq37RZbq2avBGqKdmRsPrLZFJG5IQ8N9yegEYt-Jjz5AwSF965GSkAOu8O3-e7Ew9vyI35ufwUN1fCRFqFfBV7fqjX9mYnmo6XBPuMD9iWdnKD/s1600-h/unidadez991.png

Down-grade

Embora 85% dos dados no mundo passem por mainframes, a indústria precisa retomar a fabricação de cpus resfriadas a água, ou, substitui-los por servidores blades com cpus resfriadas à água

Nota importante. Substituir mainframe por servidor blade resfriado à ar por ventoinhas, mesmo que estes estejam em rack refrigerado á água, implica em maior custo energético, pois a água que chega no rack não é usada para troca de calor água/silício, mas ar/silício onde a eficiência é substancialmente menor.

Um exemplo.
Digamos que a temperatura ambiente em SP esteja em 25 oC. Entre numa piscina cheia de ar à 25 oC. Depois em outra cheia de água á 25 oC.
Na primeira experiência, embora o corpo esteja em 35 oC, você não sentirá nenhuma mudança. Já no segundo experimento você certamente sentirá frio, pois a área de contato da água com o corpo é maior e retira calor com mais rapidez e eficiência puxando a temperatura do seu corpo para 25 oC e dando a sensação de frio.

Up-grade.

Considerando a eficiência de sistemas de refrigeração no tempo, as soluções estado da arte conhecidas hoje e lançadas ano passado, estarão obsoletas em 2010.
Para que as tecnologias baseadas em resfriamento liquido ganhe sobre-vida, será necessário redesenhar toda a arquitetura física de computadores.
Um caminho a ser seguido é a combinação de soluções SOC com os SSDs, numa solução que poderíamos chamar de PCSS. Computador profissional de estado sólido. Uma única peça que condense todos os componentes de um pc ou servidor tradicional, incluindo a fonte, a maior dissipadora de calor.
Este PCSS possui entrada e saída de água gelada à 12 C, como ocorre hoje para evitar condensação. Ou a temperaturas negativas de -12 oC ou mais fria, utilizando uma solução de mono etileno glicol em proporção determinada pela temperatura que se quer obter.
Neste caso não teríamos as limitações atuais de condensação ou eletricidade estática.

Caso a capacidade do data-center aumente, este poderá ser atendido pois a refrigeração terá escalabilidade, algo impensável nos moldes atuais, o fator surpresa em TI, pois, capacidade real de resfriamento pode ser fornecido pela indústria de refrigeração, mas a indústria de TI não esta apta a aproveita-la de forma eficaz.

Up grade II.

Em 2010 poderemos ter uma solução muito interessante caso os processadores óticos em laboratórios sejam comercializáveis, isto requer um trabalho mais minucioso e detalhado da Info e do próprio Gartner, até para justificar suas previsões e estimular o mercado.

Legislação.

O ultimo edital do governo Lula para a inclusão digital de banda larga até 2010, prevê pontos de acesso à 256 Kbps. Sabemos que as Teles oferecem serviços de banda larga, mas se comprometem a entregar 20% de banda e cobram como se garantissem 100%. Falo como usuário do speedy business em 2001 em 512 Kbps, mais rápido que um link de 2 mbps hoje.

Os back bones de fibra no mundo estão apagados. Todo trafego de dados e voz sobre ip do planeta trafega por 5% das fibras instaladas. Este índice permanece o mesmo a mais de 10 anos.
Desde então, o que teles chamam de banda larga hoje, é um link de 2 mbps com taxas de transferências oscilando entre 30 e 265 Kbps, suficiente para um Youtube slow motion.

No japão 8 milhões ja navegam a 100 mpbs e em SP, a Telefônica pretende alcançar 40 000 mil clientes com taxas de 30 mbps em 2008.

E as outras empresas, o que estão fazendo?

O Presidente Lula deve rever os 256 Kbps para 100 mbps a exemplo do japão e pode ter todo apoio em fibra como esta tendo em TV digital.

Esta atitude tem duas vertentes fundamentais. Poder oferecer TV digital de verdade através da fibra também, mas, principalmente, romper com um ciclo de desenvolvimento equivocado.

Toda a indústria de hardware é puxada por novos lançamentos do sistema operacional da Microsoft, fortemente atrelada à processadores de alto e crescente custos de energia, que da forma que limitará a inclusão digital.

Adotar fibra ótica na ultima milha, é o estimulo que falta para o desenvolvimento acelerado de processamento ótico com níveis de performance e custos energéticos impensados.
O universo expande-se à velocidade da Luz, o que significa dizer que a cada segundo, ele está 300.000 km maior.

Ti pode se expandir-se nesta velocidade e com sustentabilidade. Hoje ela se expande lérdamente e de forma insustentável.

Frases bilionárias dos garotos de buxexas rosadas:

"Identificamos os problemas que os usuários enfrentam em diversas áreas e trabalhamos para resolve-las. A internet oferece muitas oportunidades e tentamos aproveita-las criando e melhorando serviços"

Através de contratos de locação o Google ja controla as fibras nos back bones e a velocidade e, a velocidade com que constroem novos data-centers super dimensionados, vai exigir teles mais ágeis.
Pensado assim é simplista demais, mas, vale lembras que as teles estiveram sobre pressão da telefonia via satélite e o que as salvou foi a união em torno do roaming, ou seja, compartilhamento de infra-estrutura.

Mas elas se negaram por mais de 10 a construir a última milha, porque fariam agora?

Por dois motivos:

O primeiro, é que os custos para isso são marginais.
Não é novidade que o Google, Yahoo e varias empresas oferecem serviços de armazenamento acima de 1 Gb ou ilimitado, pois 1 Gb custa na casa dos centésimos de centavos, o mesmo custo da fibra.
Em 1997, um minuto de voz custava 1 centésimo de centavo de dólar sobre fibra, e 1 milésimo de centavo de dólar via satélite. Ta la na revista Exame de 17 dez 1997.

O segundo, é que caso as teles não fizerem, o Google fará e dominará, também a ultima milha. Por dez anos as agencias regulamentadoras demonstraram que as necessidades do usuários não era prioridade. Não vão mudar agora.

Ainda é muito comum a Info Exame fazer testes com servidores blades resfriados à ar sem mencionar ou apresentar opções de adoção de solução de resfriamento liquido no futuro, através de adaptação de block resfriado à água ou mesmo testes de racks resfriados à água da Knurr, APC, IBM, HP Dell entre outros.

A julgar por esta inércia, é de se esperar que em 2010 ainda tenhamos problemas de refrigeração, e a última milha ainda estará patinando em conexões lérdas.
Que venha o Google!

Compus um relatório em pdf de 600 paginas para nortear tomadores de decisão na cadeia de valor em TI.

Caso tenha interesse contate-me

Nenhum comentário: