Vídeo: Versión Completa: David Bueno explica cómo cambia nuestro cerebro al aprender. (De novembre 2024)
PRINEVILLE, Ore. - Hi ha moltes maneres d’assegurar-vos que disposeu d’Internet ràpid. Podeu desplaçar-vos a una ciutat de Google Fiber. Podeu seleccionar un dels nostres ISP més ràpids. O bé, podríeu construir la vostra casa al costat d’un centre de dades de Facebook.
Agafeu el primer centre de dades de Facebook, per exemple. Inaugurat a Prineville, Ore., El 2011, ha servit de model per a tots els centres de dades que el gegant de mitjans socials ha construït des de llavors, des de Suècia fins a Iowa. Consumeix tant d'ample de banda que requereix múltiples ISPs que serveixen la zona per enfortir les seves xarxes, portant els residents locals durant el viatge.
Podríeu pensar en el centre de dades de Prineville, juntament amb les altres instal·lacions de Facebook, com el cor col·lectiu de la xarxa social més gran del món: reben un diluvi de sol·licituds de fotos, actualitzacions d’estat i actualització de notícies dels 1.65 mil milions d’usuaris actius i respon el més ràpid possible, similar a un cor que bombeja oxigen al torrent sanguini.
La instal·lació de Prineville s’acosta al cinquè aniversari i gestiona les sol·licituds de dades sobre coses que Mark Zuckerberg probablement no tenia ni idea de que faria Facebook quan va somiar la idea de la companyia a la seva cambra de dormitori de Harvard.
Aquesta setmana, PCMag ha parat per fer una gira.
Prineville encara emmagatzema fotografies i actualitzacions d’estat, per descomptat, però ara també compta amb milers de GPU Nvidia que donen suport a la investigació d’intel·ligència artificial de Facebook, a més de 2.000 telèfons iOS i Android amb proves 24 hores al dia. Això ajuda als enginyers de la companyia a augmentar l'eficiència energètica de les seves aplicacions, que inclouen Instagram, Messenger i WhatsApp, a més de Facebook.
Les dades de Facebook són "resistents i no redundants"
El primer que es nota sobre la instal·lació de Prineville és la seva magnitud. Sortir de l’alt arbre del desert del centre d’Oregon, a tres hores de cotxe de Portland no es tracta d’un edifici únic, sinó de quatre (i això no inclou un altre centre de dades enorme construït recentment a l’altra banda del carrer, anomenat Connect Way). Un dels edificis de Facebook pot incloure dos Walmarts a l'interior i té aproximadament 100 metres més que un portaavions de la classe Nimitz.
A l'interior hi ha servidors que contenen diversos petabytes d'emmagatzematge i que els enginyers de Facebook actualitzen constantment substituint components. De les 165 persones que treballen a temps complet al centre de dades, 30 per edifici tenen assignades només el servei o la substitució d’alimentacions, processadors, memòria i altres components d’alimentació.
El distintiu de gairebé qualsevol empresa que opera a Internet, des d’Amazon fins a Charles Schwab, és la redundància: diversos servidors emmagatzemant diverses còpies de dades. Això és menys el cas de Prineville, on Ken Patchett, el director de les operacions de dades occidentals de Facebook, es centra en la resiliència, es defineix aproximadament com la capacitat d’estar a punt sempre i en qualsevol part del món algú inicia sessió a Facebook.
Com centrar-se en la "resiliència, no la redundància", com afirma Patchett, és possible perquè Facebook té el luxe d'emmagatzemar diverses còpies de dades a les seves altres ubicacions del món, des de Lulea, Suècia, fins a Altoona, Iowa. Així, en comptes de tenir dos o més de tot, pot centrar-se en la compra d’equips estratègics a cada lloc, com tenir un generador d’energia de còpia de seguretat per cada sis generadors principals.
"Heu de ser fiscalment responsables si sou resistents", va explicar Patchett. És un dels pares fundadors de centres de dades d'alta tecnologia a l'elevat desert d'Oregon. Abans d’arribar a Facebook, va ajudar a posar en marxa un centre de dades a The Dalles, Ore., Per a Google, una de les primeres empreses d’Internet que va capitalitzar l’energia hidroelèctrica barata i el clima fresc i sec que caracteritza la gran part oriental de la novena major d’Amèrica. estat.
Per descomptat, un poder important és, bàsicament, el funcionament de Facebook. La temperatura del servidor està regulada per una combinació de refrigerador d'aigua i grans ventiladors que tiren a l'aire sec del desert (a sota) en comptes de les unitats de climatització que guarden energia i diners. L'interval de la temperatura objectiu és d'entre 60 i 82 graus Fahrenheit. L’equip de Patchett s’ha fet tan bo en assolir aquest objectiu que Prineville ara té una relació d’eficiència d’energia d’1, 07, cosa que significa que els equips de refrigeració, llums i escalfadors, tot allò que no sigui un dispositiu informàtic, consumeixin només el 7 per cent del consum d’energia total de la instal·lació..
32 iPones en caixa
La major part del sistema de refrigeració i potència es dirigeix a satisfer les exigències dels servidors, però alguns es desvien cap a una sala de proves d'aplicacions relativament petita amb implicacions per reduir l'ús d'energia no només a Prineville, sinó a tots els telèfons amb una aplicació de Facebook.
No és cap secret que l’aplicació de Facebook hagi lluitat amb la gestió d’energia. The Guardian va afirmar a principis d’aquest any que l’aplicació reduïa la vida de la bateria als iPhones un 15 per cent. Per racionalitzar l’aplicació i disminuir el consum de bateria, la companyia va portar aproximadament 2.000 telèfons iOS i Android a Prineville, on s’instal·len dins de caixes en grups de 32.
Cada caixa té la seva pròpia xarxa Wi-Fi, integrada per parets aïllades i cinta de coure, que els enginyers de la seu central de Silicon Valley utilitzen per lliurar una bateria de proves. Busquen "regressions" en l'ús de la bateria i el rendiment causat per les actualitzacions de les aplicacions Facebook, Instagram, Messenger i WhatsApp. Si en troben un al codi propi de Facebook, ho arreglen. Si un desenvolupador va introduir la ineficiència, el seu sistema notifica automàticament l'infractor mitjançant correu electrònic.
Les caixes no contenen només l'últim iPhone 6s o Galaxy S7. Al costat d’iOS, inclouen molts models d’iPhone 4s i posteriors. Al costat d’Android, qui sap? N’hi ha prou de dir que hi ha un tipus que té la feina de trobar dispositius Android obscurs i portar-los a Prineville.
"Hem de fer servir telèfons de tot arreu", va dir Antoine Reversat, un enginyer que va ajudar a desenvolupar la infraestructura i el programari de proves. El seu objectiu final és duplicar la capacitat dels bastidors per a fins a 62 telèfons cadascun, i esbrinar una manera de reduir els procediments manuals de 20 passos necessaris per configurar el telèfon per provar-los a un sol pas. Això hauria de reconfortar a qui mai hagi mort el telèfon mentre actualitzava les seves notícies.
Big Sur: cervell AI de Facebook
A la nostra gira es van situar els servidors d’intel·ligència artificial Big Sur, que, com la línia de costa de Califòrnia per la qual s’anomenen, constitueixen possiblement la part més escènica del centre de dades. No parlem de vistes impressionants del Pacífic, per descomptat, sinó d’una pantalla d’ordinador que mostrava el que semblava un grup de pintures, tripulat per Ian Buck, el vicepresident de la informàtica accelerada de Nvidia.
"Vam entrenar una xarxa neuronal per reconèixer les pintures", va explicar Buck. "Després d'una mitja hora aproximadament de mirar els quadres, és capaç de començar a generar el seu propi."
Els que es mostraven s’assemblaven a l’impressionisme francès del segle XIX, però amb un gir. Si voleu combinar una natura morta de fruita i un paisatge fluvial, Big Sur la pintarà per a vosaltres flexionant els seus 40 petaflops de potència de processament per servidor. És un dels diversos sistemes AI que utilitzen GPU Nvidia -en aquest cas, processadors Tesla M40 basats en PCI.e- per resoldre problemes complexos d’aprenentatge automàtic. El projecte sanitari DeepMind de Google també utilitza els processadors de Nvidia.
Facebook utilitza Big Sur per llegir històries, identificar cares a les fotos, respondre preguntes sobre escenes, jugar a jocs i aprendre rutines, entre altres tasques. També ofereix l'aplicació de programari obert, oferint a altres desenvolupadors un model per configurar la seva pròpia infraestructura específica d'AI. El maquinari inclou vuit plaques GPU Tesla M40 de fins a 33 watts cadascuna. Tots els components són fàcilment accessibles dins d'un calaix del servidor per augmentar la facilitat de les actualitzacions, que segur que arribaran, ja que Nvidia llança noves versions PCI.e de les seves GPU Tesla, inclosa la p100 flagship.
Emmagatzematge en fred de fotografies oblidades
Atès que Prineville és el primer centre de dades de Facebook, sol ser allà on els enginyers proven les idees per fer els servidors de Facebook més eficients. Una de les últimes idees és l’emmagatzematge en fred o servidors dedicats que emmagatzemen qualsevol cosa a Facebook que no tingui gaires visualitzacions, per exemple, les vostres fotos promocionals de l’institut, o aquelles desenes d’actualitzacions d’estat que vau publicar quan Michael Jackson va morir el 2009..
El secret de l’èxit de l’emmagatzematge en fred és els seus múltiples nivells. El primer nivell està format per maquinari empresarial d’alt rendiment, mentre que els nivells inferiors utilitzen components més barats i, en alguns casos, potser per a aquelles fotos de vostès amb claudàtors que esperem que ningú no vegi mai, les biblioteques de cintes de seguretat. El resultat final és que cada rack del servidor d’emmagatzematge en fred pot contenir 2 petabytes d’emmagatzematge, o l’equivalent a 4.000 piles de centaus que arriben fins a la Lluna.
Construint per al futur
Tot i que Facebook ha aportat Internet i altres avantatges més ràpids a Prineville, incloent-hi més d'1 milió de dòlars en donacions a escoles locals i organitzacions de beneficència, la seva presència no està exempta de controvèrsies. Oregon renuncia a guanyar molts diners en la reducció d’impostos a l’empresa en un moment en què l’economia local, que encara continua rebentant-se a partir de la bombolla d’habitatges del 2008, va superar la mitjana nacional.
Tot i així, 1.65 mil milions de persones no tindrien accés a Facebook sense aquest avançat del desert i els seus centres de dades germans. I, fins i tot, quan posa el punt final al seu quart edifici Prineville, la companyia està en marxa fins a completar un cinquè centre a Texas. Però si això et fa sentir culpable de l'energia que consumeix la navegació de Facebook, no ho hauria de fer. Segons Patchett, un sol usuari que navega per Facebook durant tot un any consumeix menys energia de la que es necessita per fer un llet. En altres paraules, podeu renunciar a un sol viatge a Starbucks i desplaçar-vos pel contingut de notícies fins al contingut del vostre cor.