Информационно-образовательная среда в системе педагогического образования

Общие сведения

Центр коллективного пользования (ЦКП) «Суперкомпьютерный Центр ОИВТ РАН» был создан в 2016 году на базе информационно-вычислительного центра ОИВТ РАН. Руководителем ЦКП является Левашов Павел Ремирович, специалист в области вычислительной физики. Основной целью ЦКП является предоставление высокопроизводительных вычислительных ресурсов учреждениям, подведомственным ФАНО России и иным организациям, для проведения фундаментальных и прикладных научных исследований. ЦКП предназначен для решения следующих задач: 

  1. Обеспечение непрерывного функционирования вычислительных ресурсов коллективного пользования, включая организацию сервисного обслуживания, восстановления и ремонта оборудования вычислительной и инженерной инфраструктуры, регулярное обновление программного обеспечения. 
  2. Обеспечение круглосуточного удаленного доступа зарегистрированных пользователей к вычислительным ресурсам СКЦ ОИВТ.
  3. Информационная и методическая поддержка пользователей посредством электронной почты scc@jiht.ru и сайта.
  4. Консультативная помощь пользователям по установке и настройке программного обеспечения, компиляции и запуску задач.
  5. Разработка и реализация программы развития материально-технической базы, включая подготовку заявок на приобретение оборудования, разработку конкурсной документации и т.п
  6. Внедрение новых аппаратных и программных средств параллельных и распределенных вычислений.

В 2018 году Cуперкомпьютер ОИВТ РАН «Десмос» вошел в топ-50 суперкомпьютеров России и стран СНГ

Перечень оборудования

Суперкомпьютер «Десмос»


Суперкомпьютер «Десмос» (вид сбоку и сзади)

Суперкомпьютер состоит из 32 вычислительных узлов и одного головного. Конфигурация вычислительного узла:

  • Шасси Supermicro SuperServer 1018GR-T;
  • CPU Intel Xeon E5-1650v3 (6 cores, 3.5 GHz);
  • GPU AMD FirePro S9150 (16 GB GDDR5);
  • DRAM DDR4 32 GB;
  • SSD 240 GB.

Узлы соединены с помощью интерконнекта Ангара и Gigabit Ethernet. Текущей топологией суперкомпьютера является 4D-тор 4 х 2 х 2 х 2 (X х Y х Z х K), но каждый узел по осям Y, Z, K соединен с другим лишь одним линком. Также в составе суперкомпьютера имеется идентичный по конфигурации головной узел, соединенный с остальными узлами с помощью Gigabit Ethernet.

Суперкомпьютер работает под управлением ОС SLES 11 SP4 с библиотекой Angara MPI, которая базируется на MPICH 3.0.4.

Интерконнект Ангара — это спроектированная в России коммуникационная сеть тороидальной топологии. СБИС адаптеров был разработан в АО “НИЦЭВТ” и произведен компанией TSMC по технологическому процессу 65 нм.

Архитектура Ангары использует принципы, аналогичные тороидальным интерконнектам IBM Blue Gene L/P и Cray Seastar2/Seastar2+. Тороидальный интерконнект, созданный EXTOLL, также имеет общие черты с Ангарой. Чип Ангары поддерживает deadlockfree адаптивную маршрутизацию, направленно-упорядоченную маршрутизацию, а также методы для повышения отказоустойчивости.

Каждый узел имеет выделенную область в памяти, доступную для удаленного доступа с других узлов (поддерживаются атомарные и read/write операции), что обеспечивает поддержку языков OpenSHMEM и PGAS. Для MPP-программной модели имеется поддержка MPI и OpenMP.

Сетевой адаптер представляет собой плату PCI Express, которая может быть использована для соединения с соседними узлами с возможностью подключения 6 кабелей (или 8 кабелей при использовании платы расширения). Поддерживаемыми топологиями в данном случае являются кольцо, двумерный, трехмерный и четырехмерный торы.

Суперкомпьютер «Фишер»

Вычислительный кластер состоит из 18 узлов и одного головного.
Суперкомпьютер работает под управлением ОС SLES12 SP3.

17 узлов имеют конфигурацию:

  • Шасси Supermicro 1023US-TR4
  • Процессор 2xАМD Epyc7301 (16 cores, 2.7 GHz)
  • Память 256 GB

16 подобных узлов объединены Infiniband FDR.

1 узел имеет конфигурацию:

  • Шасси Supermicro 1023US-TR4
  • Процессор 2xАМD Epyc7551 (32 cores, 3 GHz)
  • Память 256 GB

Сокет процессора AMD Epyc

Вычислительный кластер NWO5

Кластер NWO5 был поставлен в ОИВТ РАН в 2005 году на средства РФФИ. На кластере проводились расчеты по атомистическому моделированию методом Монте-Карло и молекулярной динамики, а также континуальному моделированию гидродинамических и магнитно-гидродинамических задач. Кроме того, на кластере настроено программное обеспечение для проведения расчетов в GRID-системах. Кластер состоит из 13 вычислительных узлов, имеющих следующие характеристики: 2 процессора Intel Xeon 3.0 ГГц, 2 Гб оперативной памяти на узел, жесткий диск на 160 Гб, сетевые интерфейсы Fast Ethernet и Gigabit Ethernet. Производительность кластера на тесте LINPACK составляет 108 Гфлопс.

Регламент доступа к оборудованию

  1. Коллективный доступ к вычислительным комплексам СКЦ ОИВТ осуществляется по защищенному протоколу SSH.
  2. Для получения доступа необходимо заполнить заявление на сайте СКЦ ОИВТ и регистрационную форму. Скан-копию заявления, подписанного и заверенного печатью учреждения, следует прислать в СКЦ ОИВТ по электронной почте. Заявления на предоставление доступа рассматриваются в течение трех рабочих дней.
  3. Для поддержания базы пользователей в актуальном состоянии предусмотрена процедура перерегистрации, о необходимости которой пользователи информируются через рассылку по электронной почте.
  4. Пользователям запрещено передавать данные своей учетной записи другим лицам. В целях безопасности рекомендуется менять пароль после первого входа и не реже одного раза в год.
  5. Предоставленные вычислительные ресурсы могут использоваться исключительно для решения задач, указанных в заявлении. В случае изменения (дополнения) перечня решаемых задач пользователь обязан подать новое заявление.
  6. При опубликовании в открытой печати результатов, полученных с использованием вычислительных комплексов СКЦ ОИВТ, авторы обязаны информировать читателей об использовании вычислительных ресурсов СКЦ ОИВТ.
  7. Пользователи несут полную ответственность за лицензионную чистоту устанавливаемых ими программных продуктов и соответствие их использования действующему законодательству Российской Федерации.
  8. При проведении профилактических и ремонтных работ доступ к вычислительным комплексам может быть частично или полностью приостановлен, очереди задач блокированы, а активные задачи прекращены. По окончании работ перезапуск задач осуществляется пользователями самостоятельно. Информирование пользователей о проведении профилактических и ремонтных работ осуществляется через рассылку по электронной почте.

Обзор документа

Утверждена Целевая модель цифровой образовательной среды.

Модель касается школ и ссузов и регулирует отношения, связанные с созданием и развитием условий для реализации образовательных программ с применением электронного обучения, дистанционных образовательных технологий с учетом функционирования электронной информационно-образовательной среды. Последняя включает в себя электронные информационные и образовательные ресурсы, совокупность информационных и телекоммуникационных технологий, соответствующих технических средств, обеспечивающих освоение образовательных программ обучающимися независимо от места их нахождения.

Предусмотрены обеспечение высокоскоростным интернетом, оснащение компьютерами, ПО и презентационным оборудованием, создание и (или) модернизация структурированных кабельных систем, локальных вычислительных сетей, систем контроля и управления доступом, видеонаблюдения.

Согласно федеральному проекту «Цифровая образовательная среда» модель должна быть внедрена во всех регионах к 2024 г.

Для просмотра актуального текста документа и получения полной информации о вступлении в силу, изменениях и порядке применения документа, воспользуйтесь поиском в Интернет-версии системы ГАРАНТ:

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *

Adblock
detector