Vídeo: Els grans canvis (De novembre 2024)
Si ens fixem en la conferència de supercomputació ISC d'aquesta setmana, sembla que el món de la supercomputació veurà algunes grans actualitzacions en els propers dos anys, però l'actualització a la llista de 500 vegades més gran dels superordenadors més ràpids del món no era gaire diferent de la la versió anterior
Els ordinadors més ràpids del món continuen sent les dues masses màquines xineses que han estat a la llista d’uns quants anys: l’ordinador Sunway TaihuLight del Centre Nacional de Supercomputació de la Xina a Wuxi, amb un rendiment sostingut de Linpack de més de 93 petaflops (93 mil trilions de punts flotants operacions per segon); i l'ordinador Tianhe-2 del Centre Superordinador Nacional de Xina de Guangzhou, amb un rendiment sostingut de més de 33, 8 petaflops. Aquestes són les màquines més ràpides amb un enorme marge.
El nou número tres és el sistema Piz Daint del Swiss National Supercomputing Center, un sistema Cray que utilitza Intel
Això abaixa el sistema més alt dels Estats Units -el sistema Titan del laboratori nacional Oak Ridge- fins al quart lloc, cosa que fa que per primera vegada en vint anys no hi hagi cap sistema nord-americà entre els tres primers. La resta de la llista es manté invariable, els Estats Units continuen cinc dels deu primers classificats, i el Japó per a dos.
Tot i que la llista d’ordinadors més ràpida no ha canviat gaire, hi ha grans canvis en altres llocs. A la llista Green 500 dels sistemes més eficients energèticament, nou dels deu primers van canviar. A la part superior hi ha el sistema Tsubame 3.0, un sistema HPE ICE XA modificat al Tokyo Institute of Technology basat en un nucli Xeon E5-2680v4 14, interconnexió Omni-Path i Tesla P100 de Nvidia, que permet 14, 1 gigaflops per watt. Es tracta d’un gran salt del DGX Saturn V de Nvidia, basat en la plataforma DGX-1 i els xips P100 de la firma, que va ser el número u de la llista de novembre, però el número deu aquesta vegada, amb 9, 5 gigaflops / watt. El P100 es troba en nou dels deu primers sistemes Green500.
Fer un trencament de 10 gigaflops / watt és una cosa important perquè significa que un hipotètic sistema exaflop construït mitjançant la tecnologia actual consumiria menys de 100 megavatios (MW). Això encara és massa, l'objectiu és de 20-30 MW per a un sistema exaflop, que els investigadors esperen veure durant els propers cinc anys, però és un gran pas endavant.
Igual que la llista Top 500, només es van produir canvis menors en llistes similars amb diferents punts de referència, com ara el punt de referència dels rendiments elevats de conjugats (HPCG), on les màquines solen veure només un 1-10 per cent del seu màxim rendiment teòric i on la part superior sistema, en aquest cas, la màquina Riken K encara proporciona menys d'1 petaflop. Tant els sistemes de TaihuLight com els de Piz Daint van ascendir a aquesta llista. Quan els investigadors parlen d’una màquina exaflop, acostumen a significar la referència de Linpack, però pot ser que HPCG sigui més realista pel que fa al rendiment real.
L’aparició de la computació de GPU com a accelerador, gairebé sempre utilitzant processadors GPU Nvidia com el P100, ha estat el canvi més visible d’aquestes llistes en els darrers anys, seguit de la introducció del propi accelerador d’Intel, el Xeon Phi de molts nuclis (inclòs la versió més recent de Knights Landing). La llista Top 500 actual inclou 91 sistemes que utilitzen acceleradors o coprocessadors, inclosos 74 amb GPU Nvidia i 17 amb Xeon Phi (amb altres tres que utilitzen tots dos); un amb una AMD Radeon GPU com a accelerador, i dos que utilitzen un processador de molts nuclis de PEZY Computing, un proveïdor japonès. Ara hi ha 13 sistemes addicionals que utilitzen Xeon Phi (Knights Landing) com a unitat principal de processament.
Però molts dels canvis més importants dels supercomputadors encara estan a l’horitzó, ja que comencem a veure sistemes més grans dissenyats amb aquests conceptes. Un exemple és el nou MareNostrum 4 del Barcelona Supercomputing Center, que va entrar a la llista Top 500 al número 13. Instal·lat fins ara, es tracta d’un sistema Lenovo basat en la propera versió Skylake-SP de Xeon (oficialment el Xeon Platinum 8160 24 processador -core). El que és interessant aquí són els tres nous clústers de "tecnologia emergent" previstos per als propers dos anys, incloent un clúster amb processadors IBM Power 9 i GPU Nvidia, dissenyats per tenir una capacitat de processament màxima de més de 1, 5 Petaflops; un segon basat en la versió de Xeon Phi de Knights Hill; i un tercer basat en processadors ARMv8 de 64 bits dissenyats per Fujitsu.
Aquests conceptes s’estan utilitzant en diversos altres grans projectes de supercomputació, especialment alguns patrocinats pel Departament d’Energia dels Estats Units com a part de la seva col·laboració CORAL al Oak Ridge, Argonne i als Laboratoris Nacionals de Lawrence Livermore. En primer lloc, hauria de ser Summit a Oak Ridge, que utilitzarà els processadors IBM Power 9 i les GPU Nvidia Volta i que inclourà entre 150 i 300 petaflops màxims; seguit de Sierra a Lawrence Livermore, programat per a lliurar més de 100 petaflops.
Aleshores hauríem de veure el supercomputador Aurora al laboratori nacional Argonne, basat en la versió de Xeon Phi de Knights Hill i construït per Cray, programat per oferir 180 petaflops. Els sistemes CORAL haurien d’estar en funcionament i
Mentrestant, els grups xinesos i japonesos també han planificat actualitzacions, utilitzant principalment arquitectures úniques. Hauria de ser interessant de veure.
Un canvi encara més gran sembla ser un poc més llunyà: el canvi cap a l'aprenentatge automàtic, normalment en unitats de processament massivament paral·leles del mateix processador. Si bé el nombre de Linpack es refereix a un rendiment de 64 bits o de doble precisió, hi ha classes d'aplicacions (incloses moltes aplicacions basades en xarxes neuronals profundes), que funcionen millor amb càlculs d'una o fins i tot de mitja precisió. Els nous processadors estan aprofitant això, com el recent anunci de Nvidia Volta V100 i la propera versió de Xeon Phi Knights Mill. A la fira, Intel va dir que la versió, que es produirà al quart trimestre, comptarà amb nous conjunts d'instruccions per a "informàtica de baixa precisió" anomenades Quad Fused Multiply Add (QFMA) i Quad Virtual Neural Network Instruction (QVNNI)..
Suposo que aquests conceptes també es podrien aplicar a altres arquitectures, com ara les TPU de Google o les FPGA d'Intel i els xips Nervana.
Tot i que aquest any no veiem grans canvis, l’any que ve caldria esperar més. El concepte d'una màquina exascal (1000 teraflops) encara està a la vista, tot i que probablement comportarà canvis encara més grans.