Buscando...
28 agosto 2007
15:55

Para qué sirve High Performance Computing

http://www.microsoft.com/latam/technet/articulos/tn/2007/ago-03.mspx

El mercado de la computación de alta performance, o supercomputación, se dinamizó a partir del release, en junio del 2006, de Windows Compute Cluster Server 2003 (llamado así por estar basado en Windows Server 2003 pero, por lo demás, totalmente nuevo).

En ese momento, Bill Gates había declarado que la supercomputación “es crucial para muchos de los descubrimientos que impactan en nuestra calidad de vida, desde fabricar autos y aviones más seguros y eficientes, hasta resolver asuntos de salud globales y cambios en el medio ambiente”.

A partir de ese momento, la consolidación de estos sistemas vino de la mano de los procesadores multi-core, interconexiones de alta velocidad basadas en estándares y la cada vez más extendida plataforma X64 (o sea, x86 de 64 bits). Asimismo, la interfase conocida, la gran integración con el entorno de desarrollo de Visual Studio y los bajos costos, comparados con soluciones alternativas, contribuyeron a que en poco tiempo, Windows Compute Cluster Server de Microsoft sea visto como un serio contendiente en el mercado de la supercomputación.

Microsoft invirtió en diez institutos de investigación en computación de alta performance para llevar a cabo proyectos conjuntos que ayuden a realizar investigación en software e innovación de productos a fin de resolver los desafíos tecnológicos que presenta la supercomputación. Estos institutos se encuentran en universidades como la de Cornell, en USA, Nizhni Novgorod en Rusia, Tokyo Institute of Technology en Japón y Stuttgart, en Alemania.

Algunos de los socios tecnológicos de Microsoft en el despliegue de HPC incluyen a Dell, IBM, SGI y NEC. Muchos están llevando a cabo implementaciones altamente sofisticadas, como el caso de un cluster Dell en el National Center for Supercomputing Applications (NCSA), que posee 2500 servidores y alcanzó en poco tiempo el puesto 27 en la lista Top500 de supercomputadoras.

De acuerdo con observadores del mercado, cuando Microsoft lanzó oficialmente CCS en agosto del año pasado, se esperaba que pudiese acercarse un poco a Linux en un buen número de benchmarks y que se pudiese alcanzar, por lo menos, la cifra de 128 procesadores por sistema. Sin embargo, algunos socios como HP fueron capaces de afinar sus sistemas y vencer a Linux en varias de las pruebas. Y más de la mitad de los clusters vendidos, que corren Windows Compute Cluster Server (CCS) 2003, tienen más de mil procesadores.

Recientemente, Hewlett Packard firmó un acuerdo multimillonario con Microsoft para llevar HPC al mercado masivo y está vendiendo CCS 2003 como parte de su HP Unified Cluster Portfolio. Por su parte, Fujitsu Computer Products of America acaba de publicar un documento con las mejores prácticas para el despliegue de HPC usando Windows.

Incluso IBM, que tradicionalmente ha ofrecido Linux para sus propuestas de HPC, ya había suscripto un acuerdo de partnership con Microsoft para ofrecer CSS 2003 con sus sistemas.

Es importante destacar que el concepto de High Performance Computing, comúnmente asociado a la supercomputación, fue variando con el tiempo. Por un lado, se había comenzado con mainframes monolíticos que, poco a poco, fueron dejando paso a la arquitectura de clusters, utilizando equipos estándar. Por el otro, había nacido inicialmente para resolver temas de investigación científica o problemas de ingeniería.

Sin embargo, más recientemente se empezó a utilizar este concepto en funciones de negocios, tales como data mining en grandes datawarehouses o en el procesamiento de transacciones. Sistemas operativos como Windows Compute Cluster Server 2003 son un paso más para lograr la masificación de estas funciones de computación de alta performance.

1 comentarios:

Unknown dijo...

Si estan interesado publique mi proyecto de grado con gran cantidad de informacion sobre HPC, evalaucion de distintas arquitecturas y el proceso de instalacion en www.technetworld.info

 
Back to top!