Любой персональный компьютер неминуемо нагревается во время работы. Бывает, что в жаркие летние дни его вентилятор просто не справляется с охлаждением агрегата. Помещения, где установлены несколько ПК, приходится оборудовать кондиционерами. Что же тогда говорить о суперкомпьютерах — высокопроизводительных вычислительных системах. Супер ЭВМ мощностью в десятки петафлопс* требуют огромных площадей, «чистых» — свободных от пыли — помещений, мощной и дорогой системы охлаждения, включающей в том числе дополнительные кондиционеры, а вместе с ними — системы осушения и очистки воздуха. Словом, требований больше, чем к музейным залам, где хранятся художественные шедевры.
Чтобы упростить эти требования (а вместе с ними снизить трудовые, финансовые, энергетические затраты), разработчики одновременно с повышением производительности и энергоэффективности суперкомпьютеров работают над совершенствованием систем их охлаждения. Одну из последних и весьма любопытных разработок представили на Третьем национальном суперкомпьютерном форуме Институт программных систем (ИПС) им. А. К. Айламазяна РАН, расположенный в Переславле-Залесском, и компания ИММЕРС. Они предложили (и реализовали!) весьма смелое решение — охлаждать суперкомпьютер непосредственно в жидкости. Базовое шасси такой суперЭВМ с установленными на ней вычислительными модулями заполняется специально разработанной диэлектрической (то есть непроводящей) жидкостью. Система охлаждения герметична и работает по принципу замкнутого цикла. Маслянистая жидкость, забирая на себя тепло погружённых в неё электронных компонент, нагревается и поступает во внешний охладитель. Там она охлаждается за счёт теплообмена с окружающей средой до нужной температуры и вновь возвращается в шасси. Циркуляция жидкости происходит как за счёт конвекции, так и благодаря работе насосов, управляемых интеллектуальной системой.
«Первые эксперименты с охлаждающей жидкостью мы начали в 2011 году. Сначала для этого использовали обыкновенное трансформаторное масло, но мы не учли его горючесть, и во время одного из экспериментов произошло возгорание», — рассказал директор ИПС член-корреспондент РАН Сергей Абрамов.
После неудачных экспериментов авторы идеи поняли, что для решения поставленной задачи необходимо заняться разработкой жидкого теплоносителя, который бы удовлетворял целому набору требований. Он должен не только проявлять диэлектрические свойства, но и обладать определённой теплоёмкостью и текучестью, быть не агрессивным по отношению к электронным материалам и материалам конструкции. Так что разработкой этой «умной» жидкости занялись сразу три независимые команды. Но предстояло решить ещё одну сложную задачу — рассчитать оптимальное расположение охлаждаемых электронных устройств внутри системы, то есть организовать потоки охлаждающей жидкости таким образом, чтобы в системе не образовывались области перегрева или переохлаждения.
По словам разработчиков, благодаря новой технологии охлаждения в созданной линейке суперкомпьютеров плотность размещения вычислительных ресурсов (плотность вычислений) достигает 100—150 терафлопс/м3, то есть более чем в два раза выше, чем у суперЭВМ с внешними системами жидкостного охлаждения. В отличие от систем с воздушным охлаждением новые суперкомпьютеры не требуют кондиционирования воздуха, компактны и потребляют рекордно мало энергии. Предусмотренная система автоматического управления системой охлаждения обеспечивает стабильность температуры процессоров, так что суперкомпьютеры работают в широком диапазоне температуры окружающей среды — и в жару и в мороз. Это означает, что на этих суперЭВМ можно обсчитывать сложные процессы в полевых условиях, будь то Арктика или астраханские степи.
Отметим, что Институт программных систем в Переславле-Залесском, где в конце ноября 2014 года состоялся Третий национальный суперкомпьютерный форум, в прошлом году отметил своё тридцатилетие. Как рассказал Сергей Абрамов, институт был создан в 1984 году в числе других двенадцати организаций в ответ на объявление США программы «звёздных войн». Позже институт возглавил суперкомпьютерные проекты СКИФ и СКИФ-Грид Союзного государства Россия — Беларусь (см. «Наука и жизнь» № 6, 2008 г.; № 6, 2011 г.), результаты которых радикально поменяли ситуацию с развитием отечественной суперкомпьютерной отрасли.
Сергей Абрамов напомнил, что в разное время в список 500 самых мощных суперкомпьютеров мира попали 14 отечественных систем, из них шесть были построены в Переславле-Залесском.
«Форум прошёл под знаком доступности суперЭВМ для широкого круга пользователей. Эволюционируя, суперкомпьютеры и суперкомпьютерные вычисления следуют по дороге, проторённой их младшими собратьями — персональными компьютерами, и не исключено, что уже скоро они станут почти такими же обыденными и … незаметными», — сказал директор института.
На форуме было объявлено об учреждении национальной отраслевой премии, которая будет присуждаться ежегодно за особые заслуги в деле развития суперкомпьютерной отрасли.
СКИФЫ — рекордсмены
Пять суперкомпьютеров семейства СКИФ вошли в мировой рейтинг Тор500 — пятисот самых мощных суперЭВМ мира.
СКИФ К-500. Вошёл в рейтинг Тор500 в ноябре 2003 года, заняв 405-е место с производительностью 0,423 Tflops.
СКИФ К-1000 вошёл в рейтинг Тор500 в ноябре 2004 года, заняв 98-е место с производительностью 2 Tflops.
СКИФ Cyberia. Вошёл в рейтинг Тор500 в июне 2007 года, заняв 105-е место с производительностью 9,013 Tflops.
СКИФ Урал. Вошёл в рейтинг Тор500 в июне 2008 года, заняв 282-е место с производительностью 12,2 Tflops.
СКИФ МГУ. Вошёл в рейтинг Тор500 в июне 2008 года, заняв 36-е место с производительностью 47,1 Tflops.
Комментарии к статье
* Петафлопс — единица измерения вычислительной мощности 1Pflops = 1015 flops — FLoating-point Operations Per Second — число операций с плавающей запятой в секунду. Рекорд — 33,86 петафлопс — принадлежит суперкомпьютеру Tianhe-2, разработанному в Китайском национальном университете технологий безопасности.