Казахме това преди много време и ще го кажем отново сега. Една голяма причина, поради която Intel плати 16,7 милиарда долара, за да купи производителя на FPGA Altera, беше, че хеджираше бъдещето на изчисленията в центъра за данни и че можеше да види как хипермащаберите и създателите на облаци могат да разтоварят много функции за мрежа, съхранение и сигурност от неговите процесорни ядра Xeon към устройства като FPGA. Като се има предвид това, беше важно да има FPGA, за да се улови този бизнес, дори и при намалени приходи и печалби.
Изминаха шест години, откакто тази сделка се сключи, и нашият анализ защо Intel може да купи Altera все още стои на основанията си, което направихме преди сделката. Вероятно е отнело повече време на единицата за обработка на данни или DPU, за да се развие от SmartNIC, която е мрежова интерфейсна карта с малко мозък за справяне със специфични задачи, разтоварени от скъпите процесорни ядра. Просто за да бъде различно, Intel сега нарича тези усъвършенствани SmartNICs Infrastructure Processing Units, или IPU, и те се различават от CPU, GPU и други XPU, като ускорители за машинно обучение или други клиентски ASIC.
В крайна сметка IPU може да имат комбинация от CPU, XPU и други персонализирани ASIC, всъщност въз основа на презентацията, направена днес от Navin Shenoy, който е генерален мениджър на Data Platforms Group в производителя на чипове, в онлайн срещата на върха на Six Five, организирана от Moor Insights и Futurum.
Нека бъдем откровени за секунда. Още в зората на времето, когато транзисторите бяха много по-оскъдни, отколкото днес – но може би толкова оскъдни, колкото скоро ще станат – централният процесор беше точно това: едно от много голям брой устройства, управляващи поток за обработка на данни през взаимосвързан хардуер. Нарича се основна рамка с причина и това е, защото имаше много други рамки, изпълняващи специални задачи, които бяха разтоварени от този много скъп процесор в тази основна рамка. Само с икономическите ползи от десетилетия напредък на Закона на Мур от 1960-те до 2000-те години най-накрая бихме могли да превърнем това, което все още наричаме CPU, в нещо, което по-точно може да се смята за бебешки сървър-върху-чип. Почти всичко, с изключение на основната памет и спомагателната памет, вече е в гнездото на процесора на сървъра. Но тъй като напредъкът на Закона на Мур се забавя и ядрата на процесора са скъпи и не могат да бъдат губени, дойде времето да върнем часовника назад и да разтоварим възможно най-голяма част от грубите режийни разходи от виртуализирани, контейнеризирани, секюритизирани натоварвания от тези ядра на процесора. DPU не е нов, но представлява връщане към недостига, нов обрат на старите идеи. (Които са най-добрият вид.)
Шеной не разочарова твърде много картите на Intel, когато говори за неговата стратегия за DPU – ние не ги наричаме IPU, докато няма консенсус между всички прославени производители на SmartNIC за това – но той даде известна представа за мисленето на Intel и как , в дългосрочен план DPU, който получава разтоварена работа, би трябвало, ако парадоксът на Jevon е в сила, да доведе до увеличаване на търсенето на процесора в дългосрочен план, дори ако това причини удар в краткосрочен план.
Още през 1865 г. в Англия Уилям Стенли Джевънс забеляза, че със създаването на машини, които по-ефективно изгарят въглища за различни промишлени цели, търсенето на въглища не спада, а по-скоро се увеличава – и което е важно, нараства нелинейно. Това е контраинтуитивно за мнозина, но това, което наистина показа, е, че имаше търсене на евтина енергия и енергия с висока плътност, която можеше да направи това, което мускулната сила или водната сила не можеха. Имаме някои противоположни мисли относно приложимостта на парадокса на Jevon към центъра за данни, който повдигнахме преди шест години, когато Intel за първи път започна да прилага този парадокс към дългосрочните нужди от капацитет на изчисленията в центъра за данни. Има само толкова много хора на Земята, има само толкова часове в деня и следователно само толкова обработка на данни, която някога може да се наложи да се извърши. Все още не сме там за изчисленията като цяло, но определени класове обработка на онлайн транзакции растат само с темповете на БВП вече две десетилетия.
Но определено има някакъв вид еластичност на търсенето в изчисленията досега и Shenoy всъщност даде някои данни, които показват, че с намаляването на разходите търсенето се повишава, с някои изключения, при които ефективността причинява намаляване на търсенето. Примерът, който Shenoy даде, беше въвеждането на сървърна виртуализация на VMware платформи в началото на 2000-те години и в комбинация с дот-ком срива, доставките на сървъри определено останаха без промяна за две години:
Има толкова много фактори, които причиниха спада на продажбите на сървъри по това време, че е трудно да се спори, че виртуализацията на платформата X86, която беше в началото на времето, когато VMware току-що започна със сървърни продукти, беше основната причина, много по-малко единственият. Виртуализацията определено беше голям фактор през 2008 г. и 2009 г., когато Голямата рецесия удари и към сървърните процесори бяха добавени функции за ускоряване на виртуализационните хипервайзори и радикално намаляване на разходите им. Но това само защото вградено предположение от този момент нататък, докато контейнерите не се появиха сериозно преди около пет години. Смятаме, че появата на контейнери и DPU ще изтласка много натоварвания обратно към голи метални сървъри и извън виртуални машини.
Въпреки че преброяването на сървърните процесори е интересно, опитът да се пресметне капацитетът на сървъра е по-интересен и ние направихме това, както показахме в история миналата седмица, обсъждаща продажбите на сървъри през Q1 2021:
Добре известно е, че Intel е доставчикът на FPGA за SmartNIC на Microsoft и Shenoy напомни на всички за това и също намекна, че ще доставя SmartNIC, които имат процесори Xeon D, точно както Amazon Web Services има многоядрени Включете CPU на неговите „Nitro“ DPU, които виртуализират цялата мрежа и съхранение за AWS сървърни възли, както и изпълняват почти всички функции на KVM хипервайзора, като по същество преобразуват CPU в сериен процесор на голо метално устройство за споделени приложения.
Шеной не предостави никаква представа за това какви компоненти и капацитет биха имали тези бъдещи Intel DPU, но премина през обичайния сценарий, който сме чували от Mellanox/Nvidia, Fungible, Pensando, Xilinx и други през последните години.
„Ние наричаме това силициево решение нова изчислителна единица, единица за обработка на инфраструктурата или IPU“, обясни Шеной. „Това е еволюция на нашата продуктова линия SmartNIC, която, съчетана с микропроцесор Xeon, ще осигури изключително интелигентно ускоряване на инфраструктурата. И позволява нови нива на изолация на контрола на сигурността на системата да бъдат доставени по по-предвидим начин. FPGA могат да се използват за свързване за персонализиране на работното натоварване и с течение на времето тези решения стават все по-тясно свързани. Така че смесването на тази способност на IPU с продължаващата тенденция в микроуслугите е уникална възможност за функционално базирана инфраструктура за постигане на по-оптимален хардуер и софтуер. За справяне с данъка върху режийните разходи и по-ефективно оркестриране на софтуерния пейзаж в сложна инфраструктура на центъра за данни.“
Новото е, че китайските хиперскалери Baidu и JD Cloud очевидно работят върху DPU с Intel и фактът, че Intel работи с VMware, както и Nvidia, изобщо не е изненада. Това, което е изненадващо е, че това не се случи преди сделката с Nvidia, честно казано, и силно подозираме, че това е нещо, което Пат Гелсингер, бившият главен изпълнителен директор на VMware и настоящият главен изпълнителен директор на Intel, поправи малко след като пое новата си работа . Nvidia работи чрез Project Monterrey, за да пренесе хипервайзора ESXi към базираната на Arm BlueField-2 линия DPU от Nvidia, която също ще има GPU ускорение за AI и функции за хеширане, наред с други неща. Няма да се изненадаме, както казахме, ако Intel купи VMware директно, след като Dell се откаже от него по-късно този месец.
Каквото и да прави Intel с DPU, ще разберем повече през октомври на събитието Intel On, известно преди като Intel Developer Forum, което Гелсингер възроди, когато се върна при производителя на чипове.
PREV: Институциите на САЩ изпробват Fujitsu A64FX
NEXT: Много други високи разходи, които потребителите на облака плащат