Ve světě, kde se Moorův zákon zpomaluje a hardware musí být stále více navrhován společně se zásobníkem systémového softwaru a aplikacemi, které nad ním běží, se matice možných kombinací hardwaru rozšiřuje a prohlubuje. To více než cokoli jiného ukazuje, že éra univerzálních CPU počítání se chýlí ke konci. Ale také to dělá práci s výběrem správného hardwaru pro vaše konkrétní pracovní zatížení mnohem těžší, než řekněme před dvěma desetiletími nebo dokonce před deseti lety, kdy byl server X86 pro obecné použití nejbezpečnější sázkou a téměř všichni jej přijali, a proto jsme viděli vzestup. společnosti Intel v datovém centru.
V druhé dekádě 21. století je zde jemně zrnitá kapacita dimenzovaná speciálně pro pracovní zátěž a účtovaná po hodině, plus specializace výpočtů napříč širokou škálou CPU, GPU, FPGA a vlastních ASIC pro spouštění úloh AI v zvláště, je stále více pravidlem. Veřejný cloud umožňuje společnostem otestovat, který mix kapacit a schopností je pro ně vhodný, než přijmou velké kapitálové závazky, a proto jsme svědky rozmachu výpočetní techniky mezi hyperscalery a tvůrci cloudu. Potřebují tento hojnost výpočetní techniky řídit jejich vlastní pracovní zátěž a oni nás nechají pronajmout za naši. A to znamená, že můžeme přenést výčitky kupujícího a výpočetní matici na hyperscalery, které jsou také tvůrci cloudu.
Nic to nedokazuje více než oznámení společnosti Google o nových typech instancí Tau v Google Cloud.
Tau, které většina z vás zná, je řecký symbol označující zlatý poměr, a jak Urs Hölzle, senior viceprezident pro technickou infrastrukturu společnosti Google, vysvětluje pro The Next Platform, tento název má sdělit, že společnost je snaží se dosáhnout rovnováhy mezi výpočetní technikou, pamětí a I/O „tak akorát“ pro konkrétní škálovatelné pracovní zátěže, které běžně spouští vyhledávač a aplikační gigant a jednoznačný uchazeč v závodě veřejného cloudu. A abychom byli přesní, druh pracovní zátěže, o které mluvíme, když se prodej Google „rozsahuje“, je vyhledávač, webové služby a další podobné pracovní zátěže.
Tau t2d je první instancí z rodiny instancí, která bude velmi pravděpodobně zahrnovat další procesory, které jsou také vyladěny tak, aby poskytovaly lepší výkon za peníze na velmi specifické pracovní zátěže. Instance t2d je založena na jednosocketové implementaci procesoru „Milan“ Epyc 7003 od AMD, který má v tomto případě aktivovaných maximálně 60 jader a odtud je lze rozřezat na menší kousky. Speciální čip Milán má celkem 64 jader, takže čtyři z těchto jader se používají ke správě hypervizoru KVM a dalších funkcí úložiště a sítě. Pokud víme, Google nemá plnohodnotné, domácí DPU, které by tuto práci zvládlo – čímž uvolňuje všechna jádra od provozu hypervizoru a jeho I/O, jak to dělá Amazon Web Services se svým domácím „Nitro“ DPU a jeho upravený hypervizor KVM. Ale máme silné podezření, že Google má v určitém smyslu SmartNICs, které mohou snížit některé funkce úložiště a sítě, aniž by se dostaly až k DPU. To je důvod, proč má instance Tau t2d k dispozici 60 jader ze 64 pro provozování skutečné práce; jinak by se až 30 procent jader na CPU spálilo na hypervizoru, úložišti a režii I/O.
Google ani AMD nejsou konkrétní ohledně zdrojů a rychlostí tohoto speciálního čipu Milan Epyc 7003, což je nepříjemné, ale očekávané. Nakonec bude t2d viditelný, až bude k dispozici v cloudu Google, tak proč nám Google neřekne, jak získává o 56 procent vyšší výkon a o 42 procent lepší poměr cena/výkon s instancí Tau oproti instancím Arm Graviton2 na webu Amazon Služby a ještě větší rozpětí oproti instancím Xeon SP „Cascade Lake“ v Microsoft Azure, které provádějí celočíselný benchmarkový test SPECrate2017_int_base.
Zde jsou rozdíly ve výkonu, které Google zaznamenává u svých vlastních testů SPEC:
A zde jsou rozdíly mezi cenou a výkonem:
Jak můžete vidět, Google normalizoval tato data pro instanci Graviton2 m6g.8xlarge, která má 32 vCPU a 128 GB paměti a připojení k síti rychlostí 12 Gb/s; pronájem stojí 1,232 $ za hodinu na vyžádání. Pronájem instance Tau s 32 vCPU a 128 GB paměti bude stát 1,352 $ za hodinu na vyžádání, takže je o něco dražší, ale přináší mnohem vyšší výkon. Otázkou je, co Google platí AMD, aby získalo tento 64jádrový milánský díl pro instanci t2d, a Hölzle to nechtěl říct, ale důrazně naznačil, když řekl, že způsob, jak zlepšit cenu/výkon, je mít „větší rychlost a nižší náklady.”
Výše uvedená instance Microsoft Azure, která je v tomto dokumentu konkrétně uvedena, byla instance D32s_v4, která má 32 vCPU a 128 GB paměti a 16 Gb/s v síti; stojí 1,536 $ za hodinu.
Instance Microsoft Azure D32s_v4 nepoužívá novější „Ice Lake“ Xeon SP, který by poněkud zacelil rozdíl ve výkonu oproti Milánu a Graviton2 a možná i rozdíl mezi cenou a výkonem, ale možná ne v závislosti na tom, co si za ně Microsoft účtuje. Instance Azure DS_v5 založené na Ice Lake Xeon SP jsou ve veřejném náhledu od konce dubna a instance D32s_v5 s 32 vCPU a 128 GB paměti stojí pouze 0,768 $ za hodinu a poskytla by zhruba o 20 procent více nezpracovaného celočíselného výkonu na jádro a asi poloviční cenu. Když to spočítáme, vypadá to takto:
Vypadalo to, že Microsoftu se podařilo získat pekelnou slevu na Ice Lake Xeon SP, protože máme silné podezření, že Microsoft v případech neztrácí peníze, a byli jsme nadšeni. Společnost Microsoft však drobným písmem tohoto spuštění instance Ice Lake varovala, že se jedná o speciální cenu náhledu. Při této speciální ceně je zde Ice Lake vítězem poměru cena/výkon, pokud se celočíselný výkon mění tak, jak očekáváme od Cascade Lake po Ice Lake. Ano, to je překvapivé a ne, není překvapivé, proč Google neprovedl své testy na instancích Azure Ice Lake, které zatím nejsou běžně dostupné. Google však nepochybně provedl stejnou matematiku jako my a snaží se zjistit, co bude Microsoft muset účtovat, aby odpovídal jeho ceně/výkonu. Odpověď zní: Někde těsně pod 1,00 $ za hodinu. Uvidíme, jestli Microsoft udělá cloudovou instanci lambady, aby dostal nos pod to koště.
Vše, co víme, je, že konkurence je dobrá a nutí všechny cloudové dodavatele tvrdě soutěžit o dolar.
Instance AWS a Azure lze škálovat až na 48 a 64 vCPU a je divu, že Google nezvýšil výkon na maximum, aby se ještě více předvedl. Možná by se zde mohl hodit DPU?
Mimochodem, tento 56procentní nárůst výkonu pochází z použití kompilátoru AMD Optimizing C/C++ (AOCC), který je vysoce vyladěný pro architekturu Epyc, stejně jako jsou kompilátory Intelu vysoce vyladěny pro jeho čipy Xeon SP, a Google byl naprosto upřímný. když poukázal na to, že dosáhl pouze 25procentního nárůstu výkonu oproti Graviton2 při použití open source kompilátorů GCC 11. Polovina nárůstu výkonu tedy přišla z kompilátoru a polovina z čipu a cena klesla, protože instance Tau nemají maximální paměť a pravděpodobně se poněkud snížily další funkce. (Google tedy může za čip zaplatit méně a za peníze to vydělá.)
Takto si tři různé virtuální počítače stojí v benchmarkovém testu CoreMark, což je oblíbený způsob měření výkonu CPU, a z nějakého důvodu zde Google mluví pouze o ceně/výkonu:
Instance Tau t2d bude k dispozici ve třetím čtvrtletí jako instance na Google Compute Engine (ekvivalent AWS EC2 a Microsoft Azure VM) a také jako základní výpočetní typ na Google Kubernetes Engine, což je služba kontejnerové platformy. ve veřejném cloudu Google Cloud.
Mimochodem, můžeme očekávat, že Google bude mít instance Tau založené na jiných procesorech.
„Pro nás je to první případ v rodině Tau,“ říká Hölzle The Next Platform. „Postupem času budeme v této rodině pokračovat s dalšími čipovými sadami, doufejme od AMD, možná od jiných, a skutečně jde o vytvoření konfigurace, která bude pro tento druh uživatelů velmi dobře fungovat. Myslím, že je opravdu skvělé, že jsme schopni vytvořit tuto mezeru ve světě X86 bez kompromisů a bez nucení zákazníků překompilovat a možná přelicencovat svůj software na jinou architekturu. Ale, víte, vidíme Arm jako konkurenci také na silnici a jsme otevřeni jakémukoli řešení, které funguje pro zákazníka. Chci však říci, že AMD je právě teď, jak ukazují naše čísla, v této kategorii zátěže o krok napřed, a to i s Arm Graviton2.
Všechny cíle v datovém centru se neustále pohybují. Je úžasné, že někdo trefí cokoliv. Předpokládáme, že stačí zapálit cíl, který přichází na vaši hlavu, a pokračovat ve střelbě.
PREV: INTEL ZPOŽDUJE ČIPY SERVERU „SAPPHIRE RAPIDS“, POTVRZUJE MOŽNOST PAMĚTI HBM