стань автором. присоединяйся к сообществу!
Лого Сделано у нас
179

«Росэлектроника» начала поставки на гражданский рынок коммуникационных адаптеров

Объединенный холдинг «Росэлектроника» (входит в Госкорпорацию Ростех) начал поставки на гражданский рынок коммуникационных адаптеров, способных объединять тысячи компьютеров в высокоскоростные сети для решения суперкомпьютерных задач в области аналитики, прогнозирования и проектирования.

Коммуникационная сеть с кодовым названием «Ангара» позволяет взаимодействовать вычислительным машинам, находящимся как в одном здании, так и на расстоянии в несколько тысяч километров друг от друга. При этом возможности «Ангары» практически безграничны — адаптеры позволяют концентрировать в единой сети мощности до 32 тысяч компьютеров (узлов), в том числе разных производителей и с разной архитектурой центральных процессоров.

Одним из первых гражданских заказчиков новой разработки стал Объединенный институт высоких температур (ОИВТ) РАН — ведущий научный центр России в области современной энергетики и теплофизики. Созданный для института 32-узловой вычислительный кластер с сетью «Ангара» направлен на решение задач в области молекулярной динамики.

«Разработка решает проблему дефицита вычислительных мощностей в отечественной промышленности и науке, — комментирует заместитель генерального директора объединенного холдинга „Росэлектроника“ Арсений Брыкин. — Создаваемые сети способны решать множество задач — от прогноза метеорологической обстановки до моделирования запуска космических аппаратов. Что важно, это делается без огромных вложений в строительство новых суперкомпьютерных объектов, на базе уже существующих мощностей».

Основой сети является сетевой адаптер (плата) на базе сверхбольшой интегральной схемы (СБИС) ЕС8430. По функциональности, производительности и надёжности «Ангара» сопоставима с современными разработками мировых лидеров в этой области — Cray, IBM, Mellanox. В составе «Росэлектроники» разработку и производство «Ангары» ведет московский «Научно-исследовательский центр электронной вычислительной техники» (НИЦЭВТ).

Хочешь всегда знать и никогда не пропускать лучшие новости о развитии России? У проекта «Сделано у нас» есть Телеграм-канал @sdelanounas_ru. Подпишись, и у тебя всегда будет повод для гордости за Россию.


  • 0
    ksey
    25.04.1712:33:10

    Интересно, это уже вторая версия адаптера?

  • Комментарий удален
    • 1
      Сергей Турчин Сергей Турчин
      25.04.1714:01:33

      Скорее к организации кластеров, причем тут ИБ?

      • 6
        Настя Вилкова Настя Вилкова
        25.04.1714:26:06

        Да, в заголовке было бы лучше написать, что это для суперкомпьютеров. Иначе далекие от IT люди по описанию вообще ничего не поймут.

        Отредактировано: Настя Вилкова~14:44 25.04.17
        • 5
          Dmitrij Nemirskij Dmitrij Nemirskij
          25.04.1722:00:54

          Десять раз прочитал, так и не понял что это за чудо железка, которая передает на тысячи км, готовит и убирает)

        • 0
          Сергей Пышненко
          26.04.1713:43:00

          Скорее, распределенные вычисления, при помощи объединения, персональных компьютеров в одну сеть, для решения одной задачи.

      • 1
        Нет аватара Maggey
        25.04.1715:41:15

        Согласен. Удалил глупый комментарий.

  • 0
    krotozer krotozer
    25.04.1713:32:25

    Это — порты 1000BASE-T какой-то хитрой формы или SFP Combo порты? Или вообще оптопары? Просто понять, какая пропускная способность у портов.

    • 5
      Настя Вилкова Настя Вилкова
      25.04.1713:58:49

      Вот тут годный мини-обзорчик данного интерконнекта: servernews.ru/931123. В частности, там это порты показаны крупным планом, это HDLSP, 6 штучек (двумя слоями).

      Отредактировано: Настя Вилкова~13:58 25.04.17
    • 0
      Сергей Турчин Сергей Турчин
      25.04.1714:00:13

      Наберите в Гугле Ангара сетевой адаптер. Говорят 75 Гбитс. Видимо что-то Infinibandоподобное.

      • 3
        lowly cook lowly cook
        25.04.1715:48:41

        По скорости больше похоже на PCIe Gen2:

        96 links / 6 ports = 16 links / port

        75 Gbps / 16 links = 4.68Gbps / link

        По идеологии — да — это альтернатива Infiniband. У него специально 6 портов чтоб в 4D тор собираться.

        Upd:

        нашел уточненные данные:

         http://www.ospcon.ru/files/media/Simonov.pdf 

        3.125 — 6.25 ГБит/с на лэйн.

        Отредактировано: Антон Смоленский~16:08 25.04.17
        • 1
          Нет аватара segfault
          25.04.1718:41:09

          Антон, там на чипе на самом деле 8 портов по 12 лэйнов, просто 8 разъемов на стандартную PCIe плату физически не влезают     Реальная (не теоретическая) пропускная способность порта — на уровне FDR Infiniband.

          Отредактировано: segfault~18:44 25.04.17
          • 0
            lowly cook lowly cook
            25.04.1718:47:00

            Ну из второй части моего поста это как раз и следует — 75/12 как раз 6.25.

            IB FDR — это 14 Гбит/лэйн. В два раза больше. Это скорее IB DDR.

            Там по моей ссылке есть более менее детальная информация именно по СБИС.

            То есть Ангаре нужно в два раза больше физических линий для того чтобы сравниться с IB по пропускной способности.

            Но на самом деле это не так важно — потому что пользователя в итоге интересует ширина канала, а не то сколько там линий в нем (в разумных пределах). Это разработчикам важно — потому что развести по плате 24 пары или 12 на порт — это две большие разницы.

            Ну или чтобы ты лучше масштаб представлял — 192 пары против 96 на full chip.

            Хотя то что тут HBA c количеством портов как у небольшого коммутатора по сути в одном чипе — это конечно вин.

            Какого-то отторжения оно у меня не вызывает на самом деле в общем.

            Отредактировано: Антон Смоленский~19:05 25.04.17
            • 0
              Нет аватара segfault
              25.04.1720:51:58

              Ты пиши в личку, я тебе все про них расскажу    

              • 1
                lowly cook lowly cook
                25.04.1721:59:10

                Да я в принципе-то в теме немного на самом деле. Мы смотрели года три назад на них как на альтернативу IB. Но тогда там сыро было все — не готово как конечный продукт.

                А сейчас мне не особо и нужно — у меня контекст поменялся.

                Но за предложение — спасибо.

                Отредактировано: Антон Смоленский~22:09 25.04.17
              • 0
                Виктор Гюго Виктор Гюго
                26.04.1700:30:43

                пишите сюда, что с софтом?    

  • 2
    K W K W
    25.04.1720:16:23

    Класс! Просто рад за наших.

    Главное не останавливайтесь на полпути, а то деффективные менеджеры что любят бабло «экономить», легко могут заоптимизировать любой проект в ноль.

    • 0
      Виктор Гюго Виктор Гюго
      26.04.1700:29:56

      скорее раскочегарить цены выше разумных пределов, уронить в пол продажи и побежать к следующему проекту.

  • 0
    Нет аватара romix79
    25.04.1722:11:12

    Приукрасили слегка новость тысячью километров между узлами

    • 0
      lowly cook lowly cook
      25.04.1722:17:37

      Ну это просто вопрос используемых коннекторов на адаптерах.

      Вы же понимаете что основной интерес представляет чип и софт для него?

      А адаптер — постольку поскольку.

      Если кто-то захочет поставить это в суперкомпьютер — то с очень большой вероятностью этот кто-то захочет не адаптер, а кастом. Например поставить этот чип прямо в блейд и таскать все это по бакплэйну. Вообще в целом формат PCIe адаптера — это как бы не про суперкомпьютеры.

      Отредактировано: Антон Смоленский~22:45 25.04.17
      • 0
        Нет аватара romix79
        25.04.1723:07:55

        я к тому что о пинге в микросекунду придется забыть на расстоянии в тыс км

        PS. PCIe — коммутируемая шина вполне себе про суперкомпьютеры

        Отредактировано: romix79~23:13 25.04.17
        • 0
          lowly cook lowly cook
          25.04.1723:15:08

          Да — пинг будет на целых 7 миллисекунд дольше, чем на расстоянии 0 км.

          Ну это как бы физика — тут выше головы не прыгнешь.

          Отредактировано: Антон Смоленский~23:19 25.04.17
        • 0
          lowly cook lowly cook
          25.04.1723:25:01

          Про PCIe.

          Во первых я имел в виду форм-фактор, а не интерфейс.

          но раз Вы его помянули:

          Во вторых — в PCIe нативно нет маршрутизации. Нельзя просто взять и одним Root комплексом отправить данные другому — надо городить огород из NT-мостов как Не надо путать свичевание интерфейса типа мастер-слэйв с сетевой маршрутизацией — это две большие разницы.

          Да сейчас есть PCIe Fabric свичи — но из из-за ограничений на Bus Number Space — говорить о ней как об альтернативе Infiniband — весьма преждевременно. Да и вообще менеджмент PCIe фабрики своими руками — судя по всему адский ад.

          Ну и еще есть определенные проблемы с сайдбэндом PCIe при кабельном подключении.

          Отредактировано: Антон Смоленский~08:38 26.04.17
      • 0
        Виктор Гюго Виктор Гюго
        26.04.1700:30:19

        а кстати и что с софтом?

        • 1
          Нет аватара segfault
          26.04.1707:23:02

          Из софта были OpenMPI и openshmem. Вроде собирались еще драйвер для Lustre сделать, но не знаю, закончили или нет. TCP/IP к моменту, когда я держал их карточку в руках в последний раз, не было.

Написать комментарий
Отмена
Для комментирования вам необходимо зарегистрироваться и войти на сайт,