Рассказ о семействе Intel® Xeon® E5-2600 для серверов, центров обработки данных (ЦОД) и суперкомпьютеров я начал с того направления презентации, проходившей 15 марта 2012 года, где говорилось о контексте использования новых процессоров. Я действительно считаю эти вопросы важными и первоочередными, а ответы на них не столь очевидными, как они представляются на первый взгляд. Но пора рассказать и о самом процессоре.
В первую очередь хочется отметить поддержку до 768 ГБ оперативной памяти. Связано это с повышением производительности процессора и виртуализацией. Поскольку на одном процессоре теперь можно будет запускать большее количество виртуальных машин, а каждая из них требует выделения оперативной памяти, то и общее количество адресуемой памяти требуется увеличить.
Следует напомнить, что для процессора Intel Xeon 5600 в большинстве стандартных серверных решениях объем памяти составляет до 192 ГБ, для некоторых типов систем (например, системы для HPC сегмента, которые представляют из себя 2 вычислительных узла в одном корпусе) валидированный и протестированный объём на существующих модулях памяти составляет до 288 ГБ. Однако компании Cisco с помощью собственных решений удалось для процессора Intel Xeon 5600 увеличить объём адресуемой памяти до 384 ГБ, что в значительной мере способствовало тому, что Cisco Unified Computing System (UCS) взорвала серверный рынок и вышла по поставкам на третье место в мире, и на второе – в США. Понятное дело, что разработчику процессоров доступно большее, и вот теперь уже все производители серверного оборудования смогут в штатном режиме использовать вдвое больше памяти, чем Cisco в своих проприетарных решениях. Как видите, этот параметр напрямую не связан с повышением производительности процессора (это не гигагерцы или нанометры), однако на работу законченных решений влияет весьма значительно.
Первую демонстрацию фактически проводил технический директор R-Style Computers Юрий Мигаль. Он представил два сервера, одинаковых по своей конфигурации: на архитектуре Intel Westmere (Xeon 5600) и Intel Sandy Bridge (Xeon E5). Сервер на E5 показал 317 Гфлопс, на 5600 - 144 Гфлопс. В этом случае уже напрямую сыграли архитектурные особенности платформы. Здесь следует отметить, что часть прироста была получена за счёт использования технологии Intel® Turbo Boost 2.0, позволяющей процессору делать как спринтерские рывки, так и наращивать крейсерскую скорость в зависимости от эффективности работы системы охлаждения. В этом тесте частота была поднята на 400 МГц против штатной. Юрий Мигаль добавил, что это ещё не предел оптимизации, поработав над ней неделю, можно было бы достичь производительности 330 Гфлопс.
И здесь самое время рассказать о системе охлаждения «Торнадо», представленной компанией РСК. Как и в предыдущих решениях, водяной теплообменник накрывает всю блейд-плату, контактируя с процессорами и другими элементами, выделяющими тепло. Это система является рекордсменом по энергоэффективности: система охлаждения расходует всего 6% от общей потребляемой мощности. Однако если раньше гидравлические разъёмы на плате и в корпусе были жёстко фиксированы, что вызывало повышенные требования к их соосности, теперь они соединяются гибкими рукавами (шлангами). Установить или вынуть плату «лёгким движением руки» не получится, зрелищность уже не та, зато система стала проще и надёжнее.
Небольшой подарок производителям серверов: при увеличении вычислительной производительности в среднем на 50%, энергопотребление (а, следовательно, и тепловыделение) процессора Intel E5 осталось таким же, как и его предшественника, так что специально перерабатывать систему охлаждения под него не придётся.
Также в процессор Intel Xeon E5 включена система команд, позволяющая обрабатывать большие массивы данных: Intel® Advanced Vector Extensions (Intel® AVX) до 2 раз увеличивает скорость работы ресурсоёмких приложений на операциях с плавающей запятой. Интересно, что Intel® AVX ранее уже была использована в десктопных и мобильных процессорах. Такая последовательность применения на первый взгляд выглядит не совсем логичной, однако я уже давно заметил такую закономерность: некоторые свои решения Intel сначала реализует на клиентских устройствах (как это было, к примеру, с архитектурой Nehalem и Sandy Brdge) и только потом переносит их на серверы.
Следующий пункт – перемещение концентратора PCI Express на один кристалл с процессором. Поддерживается 40 линий PCI Express, что составляет 80 линий на двухпроцессорную систему. Благодаря интеграции в процессор, латентность подсистемы снизилась на 30%, к тому же переход на использование PCI Express версии 3.0 повысил скорость передачи данных с 5 GT/s (Гигатранзакций/с) до 8 GT/s. Снизились и накладные расходы на избыточное кодирование: если в PCI Express 2.0 избыточность составляет около 20%, то здесь – только 1,5% (128 бит данных пересылаемых по шине кодируются 130 битами). Всё вместе позволяет до трёх раз увеличить скорость перемещения данных.
Ещё одно новшество: Intel® Data Direct I/O (Intel® DDIO). Intel® DDIO позволяет Ethernet-контроллерам и адаптерам Intel направлять трафик подсистемы ввода-вывода, минуя оперативную память непосредственно в кэш-память процессора, сокращая объём передачи данных в системную память и уменьшая объём энергопотребления и задержку подсистемы ввода-вывода. Intel DDIO является, как аппаратно-независимой, так и программно-независимой технологией, поэтому не требует установки или обновления драйверов, ОС, гипервизоров и приложений. Преимущества Intel DDIO проявляются во всех видах соединений: Ethernet, InfiniBand, Fibre Channel и RAID.
Количество каналов памяти выросло с 3-х до 4-х, при этом память теперь работает на более высоких частотах.
Ну, и «по-мелочи»: набор инструкций Intel® Advanced Encryption Standard New Instructions (Intel® AES-NI) позволяет оперативно зашифровывать и расшифровывать данные различных приложений и транзакций, а технология Intel® Trusted Execution Technology (Intel® TXT) помогает более надёжно бороться с вредоносными атаками. На самом деле это, конечно, не мелочи: когда важные функции системы переходят с программного на аппаратный уровень, реальное ускорение работы бывает очень большим.
Кроме этого, в процессор заложены новые сервисные функции. Например, поддерживаются инструменты для контроля энергопотребления, включая приложения Intel® Node Manager и Intel® Data Center Manager, которые в режиме реального времени и с высокой точностью передают на консоли управления информацию об энергопотреблении систем. Традиционно системы электроснабжения выбирают с запасом на случай, если вдруг все процессоры будут нагружены в полную силу. На самом же деле чаще всего выгоднее принудительно ограничить максимальное энергопотребление ЦОДа: лучше в какой-то момент на короткое время притормозить его работу, чем переплачивать за запас подведённой мощности. Другой вариант: при той же подведённой мощности можно установить большее количество серверов, и не бояться при этом, что у нас «выбьёт пробки». Подобные решения ранее представляла компания HP, но тогда это, как и в описанной выше ситуации с Cisco, было проприетарным решением, теперь же – промышленный стандарт.
Участвующие в презентации компании Aquarius, Arbyte, DEPO Computers, Etegro, HP, IBM, iRU, Kraftway, R-Style Computers, Selected, Svet Computers, Team Computers и РСК представили свои решения на новой платформе. Представители всех вендоров отмечали значительный прирост мощности своих серверов, обусловленный в первую очередь использованием процессора Intel Xeon E5.