Se on laskennallinen totuus, että kun halutaan tuottaa mahdollisimman nopeita nopeuksia korkean suorituskyvyn tietojenkäsittelyllä (HPC), sinun on käytettävä alkuperäistä tietojenkäsittelyä virtualisoinnin sijaan. Viimeaikaiset tutkimukset ovat osoittaneet, että joissakin kokoonpanoissa VMwaren vSphere voi itse asiassa tarjota nopeamman suorituskyvyn kuin alkuperäinen tietojenkäsittely.
Usko tai älä, oikealla virityksellä, arkkitehtuurilla ja työkuormilla jotkin työt suorittavat VMware vSphere -virtualisaatiota nopeammin kuin alkuperäiset järjestelmät.Yhdessä tuoreessa tutkimuksessa, jota kuvataan yksityiskohtaisesti VMWorldissä San Franciscossa elokuun lopulla, Edmond DeMattia, vanhempi virtualisointiarkkitehti Johns Hopkinsin yliopiston Applied Physics Laboratorysta, näyttää kuinka vSphere-toteutus tuotti parempia tuloksia kuin natiivilla laitteistolla ajaminen.
DeMattia havaitsi suorittaessaan laajamittaisia Monte-Carlo-simulaatioita [eräänlainen matemaattinen riskianalyysi], että itsenäisten Linuxin ja Windowsin HPC-gridien resurssit, kun ne yhdistettiin 2 720 ytimeen, täysin virtualisoituun HPC-alustaan, pienenivät. ajoajat suuruusluokkaa ja yhdessä tietyssä käyttötapauksessa saavutti 2,2 prosentin suorituskyvyn kasvun alkuperäiseen laitteistokokoonpanoonsa verrattuna.
Tämä ei ole ensimmäinen tällainen tutkimus. Vuonna 2009 HP suoritti joitain vertailuarvoja, joissa vSphere-virtualisointi osoittautui natiivilaitteistoa (PDF-linkki) nopeammaksi DayTrader-suorituskykyvertailussa WebSpheren kanssa. DayTrader, joka on osa Apache Geronimoa, avoimen lähdekoodin Java Enterprise Edition (EE) 6 -sovelluspalvelinta, on vertailusovellus, joka simuloi online-osakekaupankäyntijärjestelmää.
HP:n vertailu osoitti, että oikealla suorittimen ytimien kokoonpanolla virtualisoitu ympäristö ylitti fyysisen ympäristön suorituskyvyn 2 ytimen ja 4 ytimen kokoonpanoissa noin 4 prosentilla ja 6 prosentilla. Muissa kokoonpanoissa virtuaalinen suorituskyky 1 ytimellä, 6 ytimellä ja 8 ytimellä osoittautui vastaavasti 5 prosenttia, 5 prosenttia ja 10 prosenttia hitaammaksi.
Lyhyesti sanottuna, vaikka virtualisointi voi nopeuttaa käsittelyä, se ei vain tee asioita maagisesti paremmin. Ilman oikeaa arkkitehtuuria ja viritystä virtualisointi ei tuota suorituskykyetuja.
Uudemmassa tutkimuksessa, vaikkakin VMwaren tekemässä tutkimuksessa, yritys havaitsi, että vSphere 5.1 32-järjestelmän Linux-klusterissa, joka käytti avoimen lähdekoodin suurdataohjelmaa Hadoop yhdellä virtuaalikoneella (VM) palvelinta kohti, osoitti suorituskykyä, joka oli lähellä alkuperäiseen suorituskykyyn. Lähellä, mutta ei sikaria.
Kuitenkin osioiden jokainen isäntä kahdeksi tai neljäksi virtuaalikoneeksi, ne pystyivät saamaan huomattavasti paremman suorituskyvyn. Kahdella virtuaalikoneella VMware havaitsi, että 8 teratavun tietojoukon yleiset vertailutulokset olivat lähes yhtä nopeita alkuperäisillä laitteistoilla, ja neljällä virtuaalikoneella virtualisoitu lähestymistapa oli itse asiassa 2 prosenttia nopeampi (PDF-linkki).
Se ei ehkä kuulosta paljolta, mutta kun työskentelet Big Datan kanssa, se lisää huomattavasti nopeutta. Mikä parasta, se voi myös tarkoittaa, että sinun ei tarvitse maksaa niin monesta fyysisestä palvelimesta saavuttaaksesi parhaat mahdolliset tulokset.
Tämä kaikki tarkoittaa sinulle ja yrityksellesi, että sen sijaan, että olettaisit, että HPC-sovellustarpeesi voidaan parhaiten palvella alkuperäisillä laitteistoilla, sinun on arvioitava muita virtualisointiin perustuvia ratkaisuja löytääksesi paras suorituskyvyn ja kustannusten vastine. , ja tekniikka.
Aiheeseen liittyviä tarinoita:
PREV: Destiny-palvelin ja päivityksen tila
NEXT: sys.servers (Transact-SQL) - SQL Server | Microsoft Docs