Все выпуски
- 2024 Том 16
- 2023 Том 15
- 2022 Том 14
- 2021 Том 13
- 2020 Том 12
- 2019 Том 11
- 2018 Том 10
- 2017 Том 9
- 2016 Том 8
- 2015 Том 7
- 2014 Том 6
- 2013 Том 5
- 2012 Том 4
- 2011 Том 3
- 2010 Том 2
- 2009 Том 1
-
RDMS CMS компьютинг: текущий статус и планы
Компьютерные исследования и моделирование, 2015, т. 7, № 3, с. 395-398Компактный мюонный соленоид (CMS) — высокоточный детектор общего назначения на Большом адронном коллайдере (LHC) в ЦЕРН. Более двадцати институтов из России и стран-участниц ОИЯИ вовлечены в коллаборацию RDMS (Россия и страны-участницы) как составной части коллаборации CMS. Для полноценного участия RDMS CMS в действующей фазе эксперимента, в институтах RDMS была создана необходимая компьютерная грид-инфрастуктура. В статье представлены текущий статус компьютинга коллаборации RDMS CMS и планы его развития в контексте следующего старта LHC в 2015 году.
RDMS CMS computing: current status and plans
Computer Research and Modeling, 2015, v. 7, no. 3, pp. 395-398Просмотров за год: 2.The Compact Muon Solenoid (CMS) is a high-performance general-purpose detector at the Large Hadron Collider (LHC) at CERN. More than twenty institutes from Russia and Joint Institute for Nuclear Research (JINR) are involved in Russia and Dubna Member States (RDMS) CMS Collaboration. A proper computing grid-infrastructure has been constructed at the RDMS institutes for the participation in the running phase of the CMS experiment. Current status of RDMS CMS computing and plans of its development to the next LHC start in 2015 are presented.
-
ARC-CE: новости и перспективы
Компьютерные исследования и моделирование, 2015, т. 7, № 3, с. 407-414Вычислительный элемент ARC приобретает всё большую популярность в инфраструктурах WLCG и EGI, и используется не только в контексте систем Грид, но и как интерфейс к суперкомпьютерам и облачным ресурсам. Развитие и поддержка ARC опирается на вклады членов пользовательского сообщества, что помогает идти в ногу со всеми изменениями в сфере распределённых вычислений. Перспективы развития ARC тесно связаны с требованиями обработки данных БАК, в любых их проявлениях. ARC также используется и для нужд небольших научных сообществ, благодаря государственным вычислительным инфраструктурам в различных странах. Таким образом, ARC представляет собой эффективное решение для создания распределённых вычислительных инфраструктур, использующих разнообразные ресурсы.
ARC Compute Element is becoming more popular in WLCG and EGI infrastructures, being used not only in the Grid context, but also as an interface to HPC and Cloud resources. It strongly relies on community contributions, which helps keeping up with the changes in the distributed computing landscape. Future ARC plans are closely linked to the needs of the LHC computing, whichever shape it may take. There are also numerous examples of ARC usage for smaller research communities through national computing infrastructure projects in different countries. As such, ARC is a viable solution for building uniform distributed computing infrastructures using a variety of resources.
-
Обновления аппаратно-программной базы ALICE перед вторым запуском Большого адронного коллайдера
Компьютерные исследования и моделирование, 2015, т. 7, № 3, с. 415-419В докладе представлен ряд новостей и обновлений ALICE computing к RUN2 и RUN3.
В их числе:
– ввод в работу новой системы EOS;
– переход к файловой системе CVMFS для хранения ПО;
– план решения проблемы Long Term Data Preservation;
– обзор концепции “O square”, совмещающей офлайн- и онлайн-обработку данных;
– обзор существующих моделей использования виртуальных облаков для обработки данных ALICE.
Ряд нововведений показан на примере российских сайтов.
ALICE computing update before start of RUN2
Computer Research and Modeling, 2015, v. 7, no. 3, pp. 415-419Просмотров за год: 2.The report presents a number of news and updates of the ALICE computing for RUN2 and RUN3.
This includes:
– implementation in production of a new system EOS;
– migration to the file system CVMFS to be used for storage of the software;
– the plan for solving the problem of “Long-Term Data Preservation”;
– overview of the concept of “O square”, combining offline and online data processing;
– overview of the existing models to use the virtual clouds for ALICE data processing. Innovations are shown on the example of the Russian sites.
-
Статус и перспективы вычислительного центра ОИЯИ 1-го уровня (TIER-1) для эксперимента CMS на большом адронном коллайдере
Компьютерные исследования и моделирование, 2015, т. 7, № 3, с. 455-462Компактный мюонный соленоид (CMS) — высокоточная детекторная установка на Большом адронном коллайдере (LHC) в ЦЕРН. Для осуществления обработки и анализа данных в CMS была разработана система распределенного анализа данных, предполагающая обязательное использование современных грид-технологий. Модель компьютинга для CMS — иерархическая (в смысле создания вычислительных центров разного уровня). Объединенный институт ядерных исследований (ОИЯИ) принимает активное участие в эксперименте CMS. В ОИЯИ создается центр 1-го уровня (Tier1) для CMS c целью обеспечения необходимой компьютерной инфраструктурой ОИЯИ и российских институтов, участвующих в эксперименте CMS. В работе описаны основные задачи и сервисы центра Tier1 для CMS в ОИЯИ и представлены статус и перспективы его развития.
JINR TIER-1-level computing system for the CMS experiment at LHC: status and perspectives
Computer Research and Modeling, 2015, v. 7, no. 3, pp. 455-462Просмотров за год: 3. Цитирований: 2 (РИНЦ).The Compact Muon Solenoid (CMS) is a high-performance general-purpose detector at the Large Hadron Collider (LHC) at CERN. A distributed data analysis system for processing and further analysis of CMS experimental data has been developed and this model foresees the obligatory usage of modern grid-technologies. The CMS Computing Model makes use of the hierarchy of computing centers (Tiers). The Joint Institute for Nuclear Research (JINR) takes an active part in the CMS experiment. In order to provide a proper computing infrastructure for the CMS experiment at JINR and for Russian institutes collaborating in CMS, Tier-1 center for the CMS experiment is constructing at JINR. The main tasks and services of the CMS Tier-1 at JINR are described. The status and perspectives of the Tier1 center for the CMS experiment at JINR are presented.
-
Поддержка протокола GridFTP с возможностью перенаправления соединений в DMLite Title
Компьютерные исследования и моделирование, 2015, т. 7, № 3, с. 543-547Одним из наиболее широко используемых решений для хранения данных в WLCG является Disk Pool Manager (DPM), разрабатываемый и поддерживаемый группой SDC/ID в ЦЕРНе. Недавно старый код DPM был практически переписан с нуля для решения накопившихся проблем с масштабируемостью и расширением функциональности.
Новая система была названа DMLite. В отличие от DPM, который был реализован в виде нескольких демонов, DMLite выполнена в виде программной библиотеки, которая может быть непосредственно загружена приложением. Такой подход значительно повышает общую производительность и скорость обработки транзакций, избегая ненужного межпроцессного взаимодействия через сеть, а также узких мест в многопоточной обработке.
DMLite имеет модульную архитектуру, при которой основная библиотека обеспечивает только несколько базовых функций. Системы хранения данных, а также протоколы доступа к ним реализованы в виде подключаемых модулей (plug-ins). Конечно, DMLite не смогла бы полностью заменить DPM без поддержки протокола GridFTP, наиболее широко используемого для передачи данных в WLCG.
В DPM поддержка протокола GridFTP была реализована в виде модуля Data Storage Interface (DSI) для GridFTP сервера Globus. В DMLite было решено переписать модуль GridFTP с нуля, чтобы, во-первых, воспользоваться новыми возможностями DMLite, а во-вторых, добавить недостающую функциональность. Наиболее важным отличием по сравнению со старой версией является возможность перенаправления соединений.
При использовании старого интерфейса GridFTP клиенту было необходимо предварительно связаться со службой SRM на головном узле хранилища, чтобы получить Transfer URL (TURL), необходимый для обращения к файлу. С новым интерфейсом GridFTP делать этот промежуточный шаг не требуется: клиент может сразу подключиться к службе GridFTP на головном узле хранилища и выполнять чтение-запись используя логические имена файлов (LFNs). Канал передачи данных при этом будет автоматически перенаправлен на соответствующий дисковый узел.
Такая схема работы делает одну из наиболее часто используемых функций SRM ненужной, упрощает доступ к файлам и повышает производительность. Это также делает DMLite более привлекательным выбором для виртуальных организаций, не относящихся к БАК, поскольку они никогда не были особо заинтересованы в SRM.
Новый интерфейс GridFTP также открывает возможности для хранения данных на множестве альтернативных систем, поддерживаемых DMLite, таких как HDFS, S3 и существующие пулы DPM.
GridFTP frontend with redirection for DMlite
Computer Research and Modeling, 2015, v. 7, no. 3, pp. 543-547Просмотров за год: 1.One of the most widely used storage solutions in WLCG is a Disk Pool Manager (DPM) developed and supported by SDC/ID group at CERN. Recently DPM went through a massive overhaul to address scalability and extensibility issues of the old code.
New system was called DMLite. Unlike the old DPM that was based on daemons, DMLite is arranged as a library that can be loaded directly by an application. This approach greatly improves performance and transaction rate by avoiding unnecessary inter-process communication via network as well as threading bottlenecks.
DMLite has a modular architecture with its core library providing only the very basic functionality. Backends (storage engines) and frontends (data access protocols) are implemented as plug-in modules. Doubtlessly DMLite wouldn't be able to completely replace DPM without GridFTP as it is used for most of the data transfers in WLCG.
In DPM GridFTP support was implemented in a Data Storage Interface (DSI) module for Globus’ GridFTP server. In DMLite an effort was made to rewrite a GridFTP module from scratch in order to take advantage of new DMLite features and also implement new functionality. The most important improvement over the old version is a redirection capability.
With old GridFTP frontend a client needed to contact SRM on the head node in order to obtain a transfer URL (TURL) before reading or writing a file. With new GridFTP frontend this is no longer necessary: a client may connect directly to the GridFTP server on the head node and perform file I/O using only logical file names (LFNs). Data channel is then automatically redirected to a proper disk node.
This renders the most often used part of SRM unnecessary, simplifies file access and improves performance. It also makes DMLite a more appealing choice for non-LHC VOs that were never much interested in SRM.
With new GridFTP frontend it's also possible to access data on various DMLite-supported backends like HDFS, S3 and legacy DPM.
-
Ресурсный центр обработки данных уровня Tier-1 в национальном исследовательском центре «Курчатовский институт» для экспериментов ALICE, ATLAS и LHCb на Большом адронном коллайдере (БАК)
Компьютерные исследования и моделирование, 2015, т. 7, № 3, с. 621-630Представлен обзор распределенной вычислительной инфраструктуры ресурсных центров коллаборации WLCG для экспериментов БАК. Особое внимание уделено описанию решаемых задач и основным сервисам нового ресурсного центра уровня Tier-1, созданного в Национальном исследовательском центре «Курчатовский институт» для обслуживания ALICE, ATLAS и LHCb экспериментов (г. Москва).
Ключевые слова: высокопроизводительные вычислительные системы, системы распределенного массового хранения данных, системы распределенной обработки данных, грид.
The Tier-1 resource center at the National Research Centre “Kurchatov Institute” for the experiments, ALICE, ATLAS and LHCb at the Large Hadron Collider (LHC)
Computer Research and Modeling, 2015, v. 7, no. 3, pp. 621-630Просмотров за год: 2.The review of the distributed computing infrastructure of the Tier-1 sites for the Alice, ATLAS, LHCb experiments at the LHC is given. The special emphasis is placed on the main tasks and services of the Tier-1 site, which operates in the Kurchatov Institute in Moscow.
Журнал индексируется в Scopus
Полнотекстовая версия журнала доступна также на сайте научной электронной библиотеки eLIBRARY.RU
Журнал входит в систему Российского индекса научного цитирования.
Журнал включен в базу данных Russian Science Citation Index (RSCI) на платформе Web of Science
Международная Междисциплинарная Конференция "Математика. Компьютер. Образование"