Геометрическая база данных для эксперимента CBM
Акишина E.П.1, Александров E.И.1, Александров И.Н.1, Иванов В.В.1,3,
Филозова И.A.1, Фризе В.3
aleksand@jinr.ru
1 ОИЯИ, Дубна, Россия
2 Национальный исследовательский ядерный университет «МИФИ», Москва, Россия
3 GSI, Дармштадт, Германия
В документе описывается база данных геометрии (Geometry DB) для эксперимента CBM. Geometry DB поддерживает геометрию CBM, описывающую экспериментальную установку CBM, на уровне детализации, необходимой для моделирования транспортировки частиц через установку с использованием GEANT3.
Основная цель этой базы данных – предоставить удобный инструментарий для:
1) управления геометрическими модулями (MVD, STS, RICH, TRD, RPC, ECAL, PSD, Magnet, Beam Pipe);
2) сборки различных версий установки CBM в виде комбинации геометрических модулей и дополнительных файлов (поле, материалы);
3) обеспечения поддержки различных версий установки CBM.
Для работы с Geometry DB члены коллаборации CBM могут использовать как GUI (Graphical User Interface), так и API (Application Programming Interface).
Модель фазового перехода, имитирующая смешанную фазу типа «паста», и устойчивость явления третьего семейства компактных звезд
Александр Айриян
ayriyan@jinr.ru
ОИЯИ, Дубна, Россия
Предложена простая модель смешанной фазы, имитирующая фазу типа «паста» в кварк-адронном фазовом переходе. Модель получила применение к релятивистским конфигурациям нейтронных звезд. Модель параметризуется дополнительным давлением, соответствующего влиянию структурных эффектов в смешанной фазе в критической точке конструкции Максвелла. Исследована устойчивость третьего семейства компактных звезд, где ядро кваркового вещества соответствует появлению сверхмассивных близнецов, против смягчения фазового перехода путем имитации структурных эффектов в смешанной фазе. Сравнение результатов с ограничениями, полученными в результате слияния нейтронных звезд GW170817, показало, что по крайней мере более тяжелая нейтронная звезда может быть членом третьего семейства гибридных звезд.
Облачные сервисы ОИЯИ
Балашов Н.А., Баранов А.В., Кутовский Н.А., Мажитова Е.М., Семенов Р.Н.
balashov@jinr.ru
ОИЯИ, Дубна, Россия
В работе рассматриваются основные нововведения и направления развития облачных сервисов ОИЯИ: cloud.jinr.ru и git.jinr.ru. В рамках развития первого сервиса представлена его новая архитектура, включающая изменения в сетевой конфигурации и системе хранения данных, а также переход на другую высоконадёжную конфигурацию головных машин облака. Перечисленные нововведения позволят значительно улучшить пользовательский опыт как в плане существенного сокращения времени создания виртуальных машин и их миграции, так и повышения надёжности их работы и хранения данных. Также рассматриваются вопросы оптимизации распределения вычислительной нагрузки в облаке ОИЯИ и приводится обзор работ по интеграции облаков из организаций стран-участниц ОИЯИ. В рамках работ по сервису git.jinr.ru рассматриваются три основных нововведения: система хранения больших файлов (Git Large File Storage, LFS), сервис GitLab Pages и система мониторинга на базе Prometheus и Grafana.
РФФ-анализ структуры везикулярных систем: MPI-реализация процедуры фитирования и численные результаты
Башашин М.В.1,2, Земляная Е.В.1,2, Сапожникова Т.П.1, Киселев М.А.2,3
bashashinmv@jinr.ru
1 ЛИТ, ОИЯИ, Дубна, Россия
2 Государственный университет «Дубна», Дубна, Россия
3 ЛНФ, ОИЯИ, Дубна, Россия
Метод разделенных формфакторов (РФФ) является эффективным методом исследования структуры полидисперсных систем фосфолипидных везикул на основе анализа данных малоуглового рассеяния. В этом подходе базовые параметры везикулярной системы определяются путем минимизации невязки между экспериментальными данными интенсивности малоуглового рассеяния и результатами РФФ-расчетов. Процедура минимизации основана на обобщенном методе наименьших квадратов, реализованном в программе FUMILI библиотеки JINRLIB. В этой работе мы используем параллельную MPI-версию этой программы – PFUMILI. Эффективность параллельной реализации тестируется на кластере HybriLIT. Приведены результаты численного анализа данных малоуглового рассеяния нейтронов, полученных на малоугловом спектрометре ЮМО в Лаборатории нейтронной физики им. И.М.Франка.
Работа поддержана Российским научным фондом (проект № 14-12-00516).
На пути к созданию J/ψ→e+e– триггера с помощью детектора TRD в эксперименте CBM
Дереновская O.1, Aблязимов T.1,2, Иванов В.1,3
odenisova@jinr.ru
1 ОИЯИ, Дубна, Россия
2 Центр по изучению тяжёлых ионов им. Гельмгольца, Дармштадт, Германия
3 НИЯУ «МИФИ», Москва, Россия
Представлены первые результаты на пути к созданию J/ψ→e+e– триггера в эксперименте CBM. Наиболее подходящим детектором для решения данной задачи является детектор переходного излучения TRD. TRD должен обеспечить надежную идентификацию электронов, высокий коэффициент подавления пионов и реконструкцию траекторий заряженных частиц.
Сбор и анализ данных о загрузке облачной инфраструктуры ЛИТ ОИЯИ
Кадочников И.
kadivas@jinr.ru
ОИЯИ, Дубна, Россия
Для предоставления вычислительных ресурсов локальным пользователям, а также участия в международных проектах с применением облачных вычислений и грид-технологий в ОИЯИ создано и развивается облако класса «инфраструктура как сервис» на базе платформы OpenNebula. Многие из решаемых с помощью облачной инфраструктуры задач генерируют непредсказуемую неравномерную нагрузку. Проблема оптимального использования вычислительных ресурсов неизбежно возникает и в ситуации с физическими компьютерами, и с виртуальными машинами. Дополнительная гибкость облачной инфраструктуры по сравнению с традиционной позволяет повысить эффективность за счёт т.н. механизма “overcommitment” (перерасхода), то есть выделения большего количества виртуальных ресурсов, чем обладает физический сервер.
В рамках проекта по созданию диспетчера облачных ресурсов была создана система мониторинга нагрузки на облако, состоящая из мониторинговых агентов на всех облачных узлах, центрального сервера для сбора и хранения данных, запасного сервера для хранения данных, и веб-интерфейса для визуализации истории загрузки облака. Для сбора информации о загрузке виртуальных машин были разработаны агенты для мониторинга гипервизоров KVM и OpenVZ с помощью SNMP, а также модули для сбора данной информации для Nagios/Icinga2.
Собранные данные помогут выбрать оптимальный подход к управлению нагрузкой на облако. Анализ нагрузки на физические узлы показывает, насколько полезной может быть внедрение механизма перерасхода и автоматической миграции виртуальных машин. На основе анализа нагрузки на виртуальные машины, в качестве одной из перспективных стратегий предлагается разделить виртуальные машины на классы по ожидаемой средней нагрузке, и выделить под каждый класс множество узлов облака с соответствующим уровнем перегрузки.
Моделирование межпроцессорного взаимодействия при выполнении MPI-приложений в облаке
Нечаевский А.В., Пряхина Д.И.
pry-darya@yandex.ru
ЛИТ, ОИЯИ, Дубна, Россия
В Лаборатории информационных технологий (ЛИТ) Объединённого института ядерных исследований (ОИЯИ) планируется создание облачного центр параллельных вычислений, что позволит существенно повысить эффективность выполнения численных расчетов и ускорить получение новых физически значимых результатов за счёт более рационального использования вычислительных ресурсов. Для оптимизации схемы параллельных вычислений в облачной среде эту схему необходимо протестировать при различных сочетаниях параметров оборудования (количества и частоты процессоров, уровней распараллеливания, пропускной способности коммуникационной сети и её латентности). В качестве тестовой была выбрана весьма актуальная задача параллельных вычислений длинных джозефсоновских переходов (ДДП) с использованием технологии MPI. Проблемы оценки влияния вышеуказанных факторов вычислительной среды на скорость параллельных вычислений тестовой задачи было предложено решать методом имитационного моделирования с использованием разработанной в ЛИТ моделирующей программы SyMSim.
Работы, выполненные по имитационному моделированию расчетов ДДП в облачной среде с учетом межпроцессорных соединений, позволяют пользователям без проведения серии тестовых запусков в реальной компьютерной обстановке подобрать оптимальное количество процессоров при известном типе сети, характеризуемой пропускной способностью и латентностью. Это может существенно сэкономить вычислительное время на счетных ресурсах, высвободив его для решения реальных задач. Основные параметры модели были получены по результатам вычислительного эксперимента, проведенного на специальном облачном полигоне для MPI-задач из 10 виртуальных машин, взаимодействующих между собой через Ethernet сеть с пропускной способностью 10 Гбит/с. Вычислительные эксперименты, показали, что чистое время вычислений спадает обратно пропорционально числу процессоров, но существенно зависит от пропускной способности сети. Сравнение результатов, полученных эмпирическим путем с результатами имитационного моделирования, показало, что имитационная модель корректно моделирует параллельные расчеты, выполненные с использованием технологии MPI и подтвердило нашу рекомендацию, что для быстрого счета задач такого класса надо одновременно с увеличением числа процессоров увеличивать пропускную способность сети. По результатам моделирования удалось вывести эмпирическую аналитическую формулу, выражающую зависимость времени расчета от числа процессоров при фиксированной конфигурации системы. Полученная формула может применяться и для других подобных исследований, но требует дополнительных тестов по определению значений переменных.
Мониторинг сервисов Tier-1 в ОИЯИ
Пелеванюк И.С.
pelevanyuk@jinr.ru
ЛИТ, ОИЯИ, Дубна, Россия
В 2015 году в ОИЯИ был официально запущен в эксплуатацию центр обработки данных уровня Tier-1 для эксперимента CMS на LHC. Большая и постоянно развивающаяся инфраструктура, требования к качеству работы сервисов и сложная архитектура требуют постоянного труда для поддержания работоспособного состояния инфраструктуры. Крайне важным является своевременное обнаружение неполадок с сервисами и получение детальной информации для их устранения. Отдельно от мониторинга инфраструктуры, который построен на базе системы Nagios, появилась необходимость в использовании системы мониторинга более высокого уровня. Сервисы самого высокого уровня, которые принимают задачи и данные из грид полагаются на сервисы хранения и обработки более низкого уровня, которые, в свою очередь, полагаются на инфраструктуру. Информация о состоянии и активности Tier-1 сервисов предоставляется разнообразными и независящами друг от друга источниками. Инструменты HappyFace и Nagios были выбраны как кандидаты для использования в целях мониторинга сервисов. Однако, в связи с высокими требованиями и недостаточной гибкостью изученых систем, было принято решение разработать новую систему мониторинга. В задачи новой системы мониторинга входит сбор данных из разнообразных источников, переработка сырых данных в события и статусы, и реакция в соответствии с набором правил, например, оповещение администраторов. На данный момент система мониторинга собирает данные из разных источников и может определять состояние и визуализировать полученную информацию.
HLIT-VDI – новый сервис экосистемы гетерогенного кластера HybriLIT для работы с пакета прикладных программ
Матвеев М., Подгайный Д., Стрельцова О., Торосян Ш., Зрелов П., Зуев М.
shushanik@jinr.ru
ОИЯИ, Дубна, Россия
В программно-инфрмационную среду кластера HybriLIT введен новый сервис – HLIT-VDI, который нацелен на работу с прикладным программным обеспечением. С помощью данного сервиса пользователи могут работать с пакетами прикладных программ, таких как Wolfram Mathematica, Maple, Matlab, GEANT4 и др. (некоторые пакеты также доступны с поддержкой графического интерфейса) через удаленный доступ на виртуальные машины на базе кластера HybriLIT.
Система управления данными программы Комиссии ООН по воздуху Европы ICP Vegetation
Ужинский А.
zalexandr@list.ru
ОИЯИ, Дубна, Россия
Задачей проекта Комиссии ООН по воздуху Европы ICP ICP Vegetation является определение наиболее загрязненных областей, создание региональных карт и дальнейшее развитие понимания долгосрочных трансграничных загрязнений. Система управления данными (DMS) программы ICP Vegetation состоит из набора взаимосвязанных сервисов и инструментов, развернутых в облачной инфраструктуре ОИЯИ. DMS призвана предоставить участникам программы современные и удобные механизмы сбора, хранения, анализа и обработки данных биологического мониторинга. Будут представлены основные сведения о DMS и ее возможностях.
Восстановление импульса пучка Нуклотрона в эксперименте BM@N
Войтишин Н.Н.
voitishinn@gmail.com
ЛИТ, ОИЯИ, Дубна, Россия
Эксперимент BM@N является первым шагом реализации проекта NICA. На Нуклотроне можно получать пучки различных ионов с кинетической энергией от 1 до 6 ГэВ на нуклон. Экспериментальная установка BM@N представляет собой комплексную систему детекторов, которая должна стать точным инструментом для изучения отношения выходов странных гиперонов и гиперядер. Оценка точности работы основных систем детекторов является главной на данный момент. Приведены результаты восстановления импульса пучка Нуклотрона с использованием двух трековых систем: Многопроволочных Пропорциональных Камер и Дрейфовых Камер.