Vídeo: Why I Chose the University of Minnesota (my grades, test score, acceptance) (De novembre 2024)
Com que examino els anuncis i els tràmits de la conferència Supercomputing 15 (SC15) del mes passat a Austin, sembla que, tot i que la informàtica d’alt rendiment pot resultar una mica apassionada, és un mercat propiciat per a alguns canvis importants durant l’any. vine.
Si ens fixem en els líders de la llista top500, el llistat de dues vegades anual dels ordinadors més ràpids del món, el líder per sisena vegada consecutiva és el Tianhe-2, un supercomputador construït per la Universitat Nacional de Tecnologia de Defensa de la Xina. Segons la llista top500, aquesta màquina ofereix 33, 86 petaflop / s (quadrillions de càlculs per segon) de rendiment sostingut a la referència de Linpack i 54, 9 petaflop / s de màxim rendiment teòric. Aquesta es basa en els processadors Intel Xeon i Xeon Phi.
El segon lloc continua a Titan, un sistema Cray XK7 basat en CPU AMD Opteron i GPU Nvidia K20x instal·lades al Laboratori Nacional Oak Ridge de DOE, amb 17, 59 petaflop / s de rendiment sostingut en la referència de Linpack.
Dues noves màquines van trencar les 10 primeres parts. L’ordinador Trinity del laboratori nacional de Lawrence Livermore (LLNL) és el sisè lloc amb 8, 1 petaflop / s, mentre que el sistema Hazel-Hen del Höchstleistungsrechenzentrum Stuttgart (HLRS) va arribar al vuitè lloc amb 5, 6 petaflop / s. Totes dues són màquines Cray XC, basades en processadors Intel Xeon amb la interconnexió Aries.
Els canvis més grans es produeixen més enllà de la llista, particularment amb un gran augment del nombre de sistemes xinesos, que va créixer fins als 109, enfront dels només 37 de la llista anterior. En part, sembla que prové de més sistemes xinesos que utilitzen els punts de referència i envien resultats per a la llista. Com a resultat, el nombre de sistemes nord-americans va baixar de 231 a 200, que és el nombre més baix des que es va iniciar la llista el 1993; i el nombre de sistemes europeus va baixar de 141 a 108.
Una gran tendència és l'augment del nombre de sistemes que utilitzen acceleradors o coprocessadors, que es va situar fins als 104 sistemes de la llista actual, fins als 90 al juliol. La majoria d'aquests sistemes utilitzen GPU Nvidia Tesla, seguits pels coprocessadors Xeon Phi d'Intel, amb alguns que utilitzen una combinació. Nvidia va assenyalar que es trobava a 70 d'aquests sistemes, inclosos 23 dels 24 nous sistemes de la llista.
A la fira, Nvidia va destacar el creixement dels acceleradors, i especialment el nombre d'aplicacions que ja estan disponibles optimitzades per a l'arquitectura CUDA de la firma. La companyia diu que el 90 per cent de les 10 principals aplicacions informàtiques d’alt rendiment i el 70% de les 50 millors ara s’accelera. Un ús intrigant és per a sistemes que executin simulacions meteorològiques, una aplicació important per a informàtica d’alt rendiment, ja que les previsions meteorològiques són produïdes per tot tipus de governs. Cray havia assenyalat abans l'ús d'aquests acceleradors a l'Oficina de Meteorologia de Suïssa (MeteoSwiss) i ha parlat de com funciona amb investigadors de Suïssa per reescriure moltes de les seves aplicacions. Nvidia ara apunta a l’ús d’acceleradors per part de l’Administració Nacional Oceànica i Atmosfèrica (NOAA) per a algunes de les seves previsions meteorològiques.
Entre altres aplicacions, Cray va oferir aplicacions de petroli i gas, com l'ús de geofísica 3D per simular un dipòsit, així com serveis financers, com ara l'avaluació de riscos. Aquestes aplicacions rarament constitueixen els sistemes més ràpids del món, però són una indicació que la computació d’alt rendiment té un paper més ampli en aplicacions més corporatives. Cray ha parlat d'una progressió constant cap a l'execució de models més grans i detallats en totes les disciplines científiques i d'enginyeria, i de combinar les càrregues de treball tradicionals amb les analítiques.
També em va interessar l’anunci de la fundació Linux d’un nou esforç anomenat OpenHPC, dissenyat per crear estàndards més oberts al món HPC. És una idea interessant, i sembla que tinguin molts dels grans jugadors inscrits.
En les obres hi ha diversos sistemes nous. IBM està construint una nova màquina anomenada Summit als Oak Ridge National Laboratories (ORNL) i una altra anomenada Sierra al Lawrence Livermore National Laboratory (LLNL), ambdues basades en CPU d'arquitectura IBM Power, GPUs Nvidia Tesla i interconnexions Mellanox. La cimera preveu entre 150 i 300 petaflop / s màxims, i Sierra més de 100 petaflop / s.
A més, Intel i Cray estan construint una nova màquina anomenada Aurora, basada en els propers processadors Intel Xeon Phi de Knights Hill per The Argonne Leadership Computing Facility (part dels Argonne National Labs), que té com a objectiu 150 petaflops el 2018. Tots aquests formen part d’un programa del Departament d’Energia conegut com a Col·laboració de laboratoris nacionals Oak Ridge, Argonne i Lawrence Livermore (CORAL), orientat a accelerar el desenvolupament d’informàtica d’alt rendiment, i concretament al projecte FastForward 2.
Tot i així, encara ens queda un llarg camí per recórrer el camí cap a la "informàtica exascal".
Mentrestant, hi va haver diversos anuncis de processador que podrien presentar-se bé per al futur. En particular, Nvidia va empènyer l’ús de supercomputadors per a aplicacions web d’hipercala, en particular l’aprenentatge automàtic. Va anunciar uns quants productes d'una mica més baixos: la placa Tesla M40 amb 3072 nuclis de CUDA, que segons va dir que era capaç de realitzar fins a 7 teraflop / s de sola precisió, destinats principalment a formació "d'aprenentatge profund", i la M4, una placa de potència inferior amb 1024 nuclis i 2.2 teraflop / s de precisió única, que es pot utilitzar per a inferències d’aprenentatge profund, així com per a coses com processar imatges i vídeos. A més, la companyia va anunciar una nova "suite d'hipercala" amb aplicacions dirigides als llocs de computació més grans. Els dos nous productes de maquinari es basen en la tecnologia de processos de 28nm i l'arquitectura Maxwell de l'empresa.
La companyia ha anunciat dues arquitectures de seguiment, conegudes com Pascal, previstes l'any que ve, i Volta, que la seguiran. Intel es va centrar en com HPC afecta la ciència i em va resultar intrigat la seva descripció de com utilitza el seu propi supercomputador (actualment ocupat el 99 lloc de la llista dels 500 primers) per ajudar a dissenyar els seus propis processadors. En concret, la companyia va dir que utilitza un milió d’hores de CPU només per dissenyar els fotomasques per als processadors de propera generació.
Bona part de l’activitat d’Intel es va centrar en Knights Landing, la següent versió del seu xip Xeon Phi, que es pot utilitzar com a accelerador però també d’arrencada; i el seu teixit Omni-Path. Tot i que ara Intel diu que la disponibilitat general serà a la primera meitat del 2016, pocs clients tenen accés anticipat a Knights Landing. Actualment, Cray està posant a prova un gran sistema Knights Landing per preparar el lliurament d’un nou supercomputador anomenat Cori per al Centre Nacional d’Informàtica Científica per a la Recerca Energètica (NERSC), i el Laboratori Nacional de Los Alamos i els Sandia National Laboratories, l’any que ve. Bull, una unitat d’integradors de sistemes francesos Atos, també ha rebut versions primeres de Knights Landing per preparar-se per al sistema Tera 1000 que està construint per a la Comissió francesa d’energies alternatives i energia energètica atòmica. La instal·lació informàtica de lideratge Argonne està treballant en un sistema anomenat Theta, que es preveu lliurar l'any que ve, i els laboratoris nacionals Sandia estan treballant amb Penguin Computing per actualitzar diversos sistemes que utilitzen generacions anteriors de coprocessadors Xeon Phi.
Intel ha dit anteriorment que hi haurà tres versions diferents de Knights Landing: un processador d’amfitrió de línia base (capaç d’iniciar-se), un processador host amb un teixit integrat Omni-Path i una targeta d’accelerador PCIe. El xip constarà de 36 rajoles cadascuna amb dos nuclis de CPU (un total de 72 nuclis), quatre unitats de processament vectorial (dues per nucli), 1 MB de memòria cau L2 compartida i un agent de caché per mantenir la coherència; i Intel ha dit que hauria de proporcionar tres vegades el rendiment escalar de la CPU Knights Corner, amb 3 teraflop / s de doble precisió i 6 teraflop / s de màxima precisió. També utilitza un nou sistema de memòria anomenat MCDRAM, la memòria del paquet amb més de 3x ample de banda disponible en comparació amb la sortida a DDR4 que sembla ser una variant de l’arquitectura Hybrid Memory Cube de la qual Intel i Micron n’han parlat. A la fira, Cray tenia un prototip de sistemes que comptava amb un desplegable Knights Landing, i diversos venedors mostraven sistemes dissenyats per a Knights Landing. Aquesta versió de Xeon Phi és seguida per una versió anomenada Knights Hill, que es construirà en el proper procés de 10nm.
A més, Fujitsu va parlar una mica més del seu projecte Flagship 2020, basat en un nou xip conegut com el FX100 amb 32 nuclis. Es preveu que el rendiment de coma flotant aproximadament quàdruple respecte la FX10 actual, i, com Knights Landing, la FX100 de Fujitsu també utilitzarà una versió de l’arquitectura Hybrid Memory Cube. A més, NEC té un projecte amb el nom d’Aurora (sense relació amb el projecte CORAL), basat en el seu seguiment del xip SX-ACE però amb una amplada de banda de memòria més gran. Aquest objectiu està dirigit al 2017.