Cum revistă clusterul "computer" №46 din 15 decembrie 2018

Cum este organizat grupul?

Istoricul dezvoltării sistemelor de clustere este indisolubil legat de dezvoltarea tehnologiilor de rețea. Faptul este că mai multe elemente din cluster și modul în care acestea sunt mai rapide (și, prin urmare, cea mai mare viteza întregului cluster-ului), cerințele mai stricte pentru ratele de interconectare. Puteți colecta sistemul de cluster de cel puțin 10.000 de unități, dar dacă nu oferă suficient schimb de date de viteză, performanța computerului încă lasă mult de dorit. Și, la fel ca în clustere de calcul de înaltă performanță - este supercomputere aproape întotdeauna [programare pentru Cluster - o sarcină foarte consumatoare de timp, si daca se poate face de obicei SMP-arhitectura cu serverul de performanță echivalent, și preferă să facă. Prin urmare, clusterele sunt utilizate numai în cazul în care SMP este prea scump, dar pentru toate punctele de vedere practic care necesită atât de multe resurse de mașini - este supercalculatoare], iar apoi interconecta le-ar trebui să fie foarte rapid, în caz contrar realizarea clusterului lor potențial nu va fi capabil. Ca rezultat, tehnologii de rețea aproape toate bine-cunoscute utilizate cel puțin o dată pentru a crea grupuri [am auzit chiar și despre încercările de a utiliza ca un port USB standard de interconectare], iar dezvoltatorii sunt de multe ori nu se limitează la soluțiile standard și inventate „ferme“ cu dispersie, cum ar fi de interconectare, pe baza pe mai multe linii Ethernet conectate în paralel între o pereche de calculatoare. Din fericire, cu proliferarea pe scară largă de carduri Gigabit Ethernet, situația a devenit mai ușoară [Aproape jumătate din lista Top 500 de supercalculatoare de clustere construite pe Gigabit Ethernet-based] - acestea sunt destul de ieftine, și, în cele mai multe cazuri, rata dat de ei este de ajuns.







În general, interconectare de lățime de bandă de aproape a ajuns la o limită rezonabilă: de exemplu, apare treptat pe piață pentru adaptoare Ethernet 10-Gigabit se ajunge la aproape de viteza de autobuze interne de calculator, iar dacă creați o ipotetică de 100 Gigabit Ethernet, atunci nu va fi nici un computer care poate sări peste prin el însuși un astfel de flux imens de date. Dar, în practică desyatigigabitnaya LAN, în ciuda perspectivele sale, este rar - tehnologia Ethernet permite utilizarea numai topologia „stea“, și într-un astfel de sistem, un comutator central, care se conectează la toate celelalte elemente, este sigur de a fi o strangulare. În plus, Ethernet-rețele este destul de mare de latență [timp între trimiterea unei solicitări de către un nod și primirea acestei cereri un alt nod], care, de asemenea le face dificil de utilizat în sarcinile „strâns legate“, în cazul în care nodurile de calcul individuale ar trebui să schimbe în mod activ informații. de rețea Prin urmare, în ciuda lățimii de bandă aproape maximă Ethernet de luare în clusterele sunt utilizate pe scară largă cu o anumită topologie. - Bună Myrinet vechi, dragă elita Quadrics, brand nou InfiniBand, etc Toate aceste tehnologii „închis“ pentru aplicații distribuite și asigură latență minimă de execuție comandă și performanțe maxime . În loc de „stelele“ tradiționale sunt de calcul elemente sunt construite cu zăbrele Hipercub multidimensionale plane și spațiale, precum și suprafața celorlalte tor obiecte tridimensionale „topologică inteligent“. Această abordare vă permite să transmiteți simultan o mulțime de date prin rețea, asigurându-vă că nu există blocaje și crește cantitatea totală de transferuri.







Pe măsură ce dezvoltarea ideilor de nota de interconectare rapidă, de exemplu, adaptoare de rețea InfiniBand care se conectează printr-o fantă specială HyperTransport HTX la magistrala procesorului. De fapt, adaptorul este conectat direct la procesorul [Reamintim că, în sistemele de multiprocesare bazate pe interacțiunea interprocessor AMD Opteron apare pentru acest autobuz]! Cele mai bune exemple de astfel de soluții oferă o performanță atât de înaltă încât grupurile construite pe baza lor să se apropie de caracteristicile sistemelor SMP clasice și chiar să le depășească. Deci, în următoarele câteva luni de pe piață ar trebui să vadă un cip interesant numit Chorus, care, în patru autobuze HyperTransport este conectat la patru sau două procesoare AMD Opteron, situat pe una cu el placa de baza, si cu ajutorul a trei link-uri InfiniBand pot fi conectate înapoi la celelalte trei "Horusam", care controlează celelalte quadruples (sau perechi) de procesoare. One Chorus este o placă de bază și un nod relativ independent cu mai multe procesoare, conectate prin cabluri standard InfiniBand la celelalte noduri. În exterior, pare să fie un cluster, dar - numai extern: memoria de operare a tuturor plăcilor de bază este comună. În total, versiunea curentă pot fi combinate pentru până la opt „Horus“ (și, prin urmare, până la 32 de procesoare), toate procesoarele vor lucra nu ca un cluster, și ca un singur sistem de SUMA, menținând, cu toate acestea, principalul avantaj al clusterului - costul redus și capacitatea de a crește capacitatea . Acesta este rezultatul "super-clustering", estomparea limitelor dintre clustere și SMP-uri.







Articole similare

Trimiteți-le prietenilor: