MAX
Подпишись
стань автором. присоединяйся к сообществу!
06 июля 17
89

Дальневосточное отделение РАН запустило компьютер мощностью 55 трлн операций в секунду

В Вычислительном центре ДВО РАН (г. Хабаровск) в Центре коллективного пользования «Центр данных ДВО РАН» (ЦКП) при поддержке Федерального агентства научных организаций (ФАНО России) введен в эксплуатацию новый суперкомпьютер — вычислительный кластер, созданный на базе новейшей гибридной архитектуры с пиковой производительностью 55 триллионов операций в секунду (Тфлопс).

Это первая специализированная вычислительная система такого уровня в секторе науки и образования России, ориентированная на решение задач в области искусственного интеллекта и машинного обучения.

В основе кластера используются аппаратные решения производства российской компании Ситоника, реализованные на открытых технологиях и стандартах участников международного консорциума OpenPOWER. Их особенностью является применение передовой гибридной архитектуры вычислителей, где основная производительность обеспечивается графическими ускорителями NVIDIA Tesla P100 на архитектуре Pascal, а обмен данными между центральным процессором POWER8 и графическим процессором осуществляется через высокоскоростной интерфейс NVLink с пропускной способностью до 80 Гбайт в секунду.

Партнерами по реализации проекта выступают мировые технологические лидеры, активные участники и основоположники альянса OpenPOWER — корпорация IBM и компания NVIDIA.

[читать статью полностью...]

Кстати, а вы знали, что на «Сделано у нас» статьи публикуют посетители, такие же как и вы? И никакой премодерации, согласований и разрешений! Любой может добавить новость. А лучшие попадут в наш Телеграм @sdelanounas_ru. Подробнее о том как работает наш сайт здесь👈

Источник: tass.ru

Комментарии 0

Для комментирования необходимо войти на сайт

  • 3
    shigorin shigorin06.07.17 22:16:19

    Меня больше удивило «открытые» и «NVIDIA» рядом.

    Ну да вдруг сейчас заглянет segfault и расскажет чего интересного…

    • Комментарий удалён
    • 0
      Нет аватара guest06.07.17 23:02:29

      Меня больше удивило «открытые» и «NVIDIA» рядом.

      А NVidia лицензирует противоположную от GPU сторону NVLink. То есть ты можешь поставить контроллер NVLink в свой процессор, или FPGA — лишь бы с другой стороны NVidia стояла.

      Отредактировано: Антон Смоленский~23:06 06.07.17
    • 0
      Нет аватара guest06.07.17 23:11:17

      Я тук понимаю они вот таких вот штук купили под забавным названием «Minsky»:

      И собрали сервачки.

      Отредактировано: Антон Смоленский~23:19 06.07.17
      • 0
        Нет аватара guest06.07.17 23:54:51

        Судя по снимкам, там всё сделано на лезвиях. Не могу вставить изображение (у меня ссылки отключены), но желающий посмотреть может набрать в гугле «ДВО РАН OpenPower суперкомпьютер архитектура» и кликнуть первую же ссылку с сервера ДВО РАН ([ссылки отключены]). Там есть более-менее крупные планы шкафов.

        Вообще NVLink (до 80 Гбайт в секунду) это очень неплохо. PCI Express такой пропускной способности не даёт. Такая быстрая линка между процессором и ускорителем может дать новое качество. Вобщем, действительно, интересная архитектура, впервые у нас в стране.

        Отредактировано: Алекс Разработчик~00:08 07.07.17
        • 0
          Нет аватара guest07.07.17 00:44:13

          Эта картинка?

          Если да — это не блэйды, а типовые 3U IBM морды.

          Посмотрите на правом снимке в правой части шкафа — сверху вниз: кружочек, синяя штучка и белый лейбл. А теперь на мой пост выше.

          Минский и есть по-моему. Я не знаю других серверов с POWER8+.

          А касательно NVLink — дык бытует мнение что просто всем надоело ждать PCIe Gen4 от Intel и NVidia замутила свою шину. На самом деле это в общем-то модифицированный PCIe и есть на более шустрых сердесах.

          Сейчас вообще все дружат против Intel.

          Отредактировано: Антон Смоленский~00:57 07.07.17
          • 0
            Нет аватара guest07.07.17 02:55:25

            По фото, действительно, судить сложно (хотя фото нашёл другое).

            Новые данные: технические характеристики (на один узел)

            2 десятиядерных процессора IBM POWER8 (2,86 ГГц) [всего 160 потоков?];

            память ECC, 256 ГБ;

            2 х 1 ТБ 2.5″ 7K RPM SATA HDD;

            2 x NVIDIA Tesla P100 GPU, NVLink.

            Cети передачи данных: EDR InfiniBand.

            Управляющая сеть: Gigabit Ethernet

            У Minsky, как я нашёл, 4 P100 на узел. Так что, видимо, это что-то другое.

            Отредактировано: Алекс Разработчик~02:58 07.07.17
            • 0
              Нет аватара fluger07.07.17 06:01:01

              Алекс Разработчик, это действительно IBM s822LC for HPC или как его называют Minsky. В этот сервер можно поставить как 2 так и 4 GPU. У ДВО сейчас пять таких серверов и 100Gbit — EDR коммутатор. Систему не зря называют гибридной, так эти сервера просто расширили ранее существующие мощности на базе x86.

              • 0
                Нет аватара guest07.07.17 09:27:26

                Систему не зря называют гибридной, так эти сервера просто расширили ранее существующие мощности на базе x86.

                Вообще, если я не ошибаюсь, «гибридная» обычно значит — просто CPU(s) + GPU(s).

                Отредактировано: Антон Смоленский~09:28 07.07.17
            • 0
              Нет аватара guest07.07.17 09:30:55

              У Minsky, как я нашёл, 4 P100 на узел. Так что, видимо, это что-то другое.

              Как Вам выше написали — количество GPU можно менять. А я вот поясняющую картиночку принес.

              GPU, вид снизу:

              Отредактировано: Антон Смоленский~09:40 07.07.17
          • 0
            Нет аватара guest09.07.17 14:14:31

            На фото сверху — последние три шкаф, это ИБП. APC Symmetra PX 48 кВА с двумя внешними батарейными модулями. Нетрудно спутать модули батарей и силовых блоков с серверами