Информационно-образовательная среда в системе педагогического образования
Общие сведения
Центр коллективного пользования (ЦКП) «Суперкомпьютерный Центр ОИВТ РАН» был создан в 2016 году на базе информационно-вычислительного центра ОИВТ РАН. Руководителем ЦКП является Левашов Павел Ремирович, специалист в области вычислительной физики. Основной целью ЦКП является предоставление высокопроизводительных вычислительных ресурсов учреждениям, подведомственным ФАНО России и иным организациям, для проведения фундаментальных и прикладных научных исследований. ЦКП предназначен для решения следующих задач:
- Обеспечение непрерывного функционирования вычислительных ресурсов коллективного пользования, включая организацию сервисного обслуживания, восстановления и ремонта оборудования вычислительной и инженерной инфраструктуры, регулярное обновление программного обеспечения.
- Обеспечение круглосуточного удаленного доступа зарегистрированных пользователей к вычислительным ресурсам СКЦ ОИВТ.
- Информационная и методическая поддержка пользователей посредством электронной почты scc@jiht.ru и сайта.
- Консультативная помощь пользователям по установке и настройке программного обеспечения, компиляции и запуску задач.
- Разработка и реализация программы развития материально-технической базы, включая подготовку заявок на приобретение оборудования, разработку конкурсной документации и т.п
- Внедрение новых аппаратных и программных средств параллельных и распределенных вычислений.
В 2018 году Cуперкомпьютер ОИВТ РАН «Десмос» вошел в топ-50 суперкомпьютеров России и стран СНГ
Перечень оборудования
Суперкомпьютер «Десмос»
Суперкомпьютер «Десмос» (вид сбоку и сзади)
Суперкомпьютер состоит из 32 вычислительных узлов и одного головного. Конфигурация вычислительного узла:
- Шасси Supermicro SuperServer 1018GR-T;
- CPU Intel Xeon E5-1650v3 (6 cores, 3.5 GHz);
- GPU AMD FirePro S9150 (16 GB GDDR5);
- DRAM DDR4 32 GB;
- SSD 240 GB.
Узлы соединены с помощью интерконнекта Ангара и Gigabit Ethernet. Текущей топологией суперкомпьютера является 4D-тор 4 х 2 х 2 х 2 (X х Y х Z х K), но каждый узел по осям Y, Z, K соединен с другим лишь одним линком. Также в составе суперкомпьютера имеется идентичный по конфигурации головной узел, соединенный с остальными узлами с помощью Gigabit Ethernet.
Суперкомпьютер работает под управлением ОС SLES 11 SP4 с библиотекой Angara MPI, которая базируется на MPICH 3.0.4.
Интерконнект Ангара — это спроектированная в России коммуникационная сеть тороидальной топологии. СБИС адаптеров был разработан в АО “НИЦЭВТ” и произведен компанией TSMC по технологическому процессу 65 нм.
Архитектура Ангары использует принципы, аналогичные тороидальным интерконнектам IBM Blue Gene L/P и Cray Seastar2/Seastar2+. Тороидальный интерконнект, созданный EXTOLL, также имеет общие черты с Ангарой. Чип Ангары поддерживает deadlockfree адаптивную маршрутизацию, направленно-упорядоченную маршрутизацию, а также методы для повышения отказоустойчивости.
Каждый узел имеет выделенную область в памяти, доступную для удаленного доступа с других узлов (поддерживаются атомарные и read/write операции), что обеспечивает поддержку языков OpenSHMEM и PGAS. Для MPP-программной модели имеется поддержка MPI и OpenMP.
Сетевой адаптер представляет собой плату PCI Express, которая может быть использована для соединения с соседними узлами с возможностью подключения 6 кабелей (или 8 кабелей при использовании платы расширения). Поддерживаемыми топологиями в данном случае являются кольцо, двумерный, трехмерный и четырехмерный торы.
Суперкомпьютер «Фишер»
Вычислительный кластер состоит из 18 узлов и одного головного.
Суперкомпьютер работает под управлением ОС SLES12 SP3.
17 узлов имеют конфигурацию:
- Шасси Supermicro 1023US-TR4
- Процессор 2xАМD Epyc7301 (16 cores, 2.7 GHz)
- Память 256 GB
16 подобных узлов объединены Infiniband FDR.
1 узел имеет конфигурацию:
- Шасси Supermicro 1023US-TR4
- Процессор 2xАМD Epyc7551 (32 cores, 3 GHz)
- Память 256 GB
Сокет процессора AMD Epyc
Вычислительный кластер NWO5
Кластер NWO5 был поставлен в ОИВТ РАН в 2005 году на средства РФФИ. На кластере проводились расчеты по атомистическому моделированию методом Монте-Карло и молекулярной динамики, а также континуальному моделированию гидродинамических и магнитно-гидродинамических задач. Кроме того, на кластере настроено программное обеспечение для проведения расчетов в GRID-системах. Кластер состоит из 13 вычислительных узлов, имеющих следующие характеристики: 2 процессора Intel Xeon 3.0 ГГц, 2 Гб оперативной памяти на узел, жесткий диск на 160 Гб, сетевые интерфейсы Fast Ethernet и Gigabit Ethernet. Производительность кластера на тесте LINPACK составляет 108 Гфлопс.
Регламент доступа к оборудованию
- Коллективный доступ к вычислительным комплексам СКЦ ОИВТ осуществляется по защищенному протоколу SSH.
- Для получения доступа необходимо заполнить заявление на сайте СКЦ ОИВТ и регистрационную форму. Скан-копию заявления, подписанного и заверенного печатью учреждения, следует прислать в СКЦ ОИВТ по электронной почте. Заявления на предоставление доступа рассматриваются в течение трех рабочих дней.
- Для поддержания базы пользователей в актуальном состоянии предусмотрена процедура перерегистрации, о необходимости которой пользователи информируются через рассылку по электронной почте.
- Пользователям запрещено передавать данные своей учетной записи другим лицам. В целях безопасности рекомендуется менять пароль после первого входа и не реже одного раза в год.
- Предоставленные вычислительные ресурсы могут использоваться исключительно для решения задач, указанных в заявлении. В случае изменения (дополнения) перечня решаемых задач пользователь обязан подать новое заявление.
- При опубликовании в открытой печати результатов, полученных с использованием вычислительных комплексов СКЦ ОИВТ, авторы обязаны информировать читателей об использовании вычислительных ресурсов СКЦ ОИВТ.
- Пользователи несут полную ответственность за лицензионную чистоту устанавливаемых ими программных продуктов и соответствие их использования действующему законодательству Российской Федерации.
- При проведении профилактических и ремонтных работ доступ к вычислительным комплексам может быть частично или полностью приостановлен, очереди задач блокированы, а активные задачи прекращены. По окончании работ перезапуск задач осуществляется пользователями самостоятельно. Информирование пользователей о проведении профилактических и ремонтных работ осуществляется через рассылку по электронной почте.
Обзор документа
Утверждена Целевая модель цифровой образовательной среды.
Модель касается школ и ссузов и регулирует отношения, связанные с созданием и развитием условий для реализации образовательных программ с применением электронного обучения, дистанционных образовательных технологий с учетом функционирования электронной информационно-образовательной среды. Последняя включает в себя электронные информационные и образовательные ресурсы, совокупность информационных и телекоммуникационных технологий, соответствующих технических средств, обеспечивающих освоение образовательных программ обучающимися независимо от места их нахождения.
Предусмотрены обеспечение высокоскоростным интернетом, оснащение компьютерами, ПО и презентационным оборудованием, создание и (или) модернизация структурированных кабельных систем, локальных вычислительных сетей, систем контроля и управления доступом, видеонаблюдения.
Согласно федеральному проекту «Цифровая образовательная среда» модель должна быть внедрена во всех регионах к 2024 г.
Для просмотра актуального текста документа и получения полной информации о вступлении в силу, изменениях и порядке применения документа, воспользуйтесь поиском в Интернет-версии системы ГАРАНТ: