Текущий выпуск Номер 1, 2024 Том 16

Все выпуски

Результаты поиска по 'CERN':
Найдено статей: 6
  1. Гаврилов В.Б., Голутвин И.А., Кодолова О.Л., Кореньков В.В., Левчук Л.Г., Шматов С.В., Тихоненко Е.А., Жильцов В.Е.
    RDMS CMS компьютинг: текущий статус и планы
    Компьютерные исследования и моделирование, 2015, т. 7, № 3, с. 395-398

    Компактный мюонный соленоид (CMS) — высокоточный детектор общего назначения на Большом адронном коллайдере (LHC) в ЦЕРН. Более двадцати институтов из России и стран-участниц ОИЯИ вовлечены в коллаборацию RDMS (Россия и страны-участницы) как составной части коллаборации CMS. Для полноценного участия RDMS CMS в действующей фазе эксперимента, в институтах RDMS была создана необходимая компьютерная грид-инфрастуктура. В статье представлены текущий статус компьютинга коллаборации RDMS CMS и планы его развития в контексте следующего старта LHC в 2015 году.

    Gavrilov V.B., Golutvin I.A., Kodolova O.L., Korenkov V.V., Levchuk L.G., Shmatov S.V., Tikhonenko E.A., Zhiltsov V.E.
    RDMS CMS computing: current status and plans
    Computer Research and Modeling, 2015, v. 7, no. 3, pp. 395-398

    The Compact Muon Solenoid (CMS) is a high-performance general-purpose detector at the Large Hadron Collider (LHC) at CERN. More than twenty institutes from Russia and Joint Institute for Nuclear Research (JINR) are involved in Russia and Dubna Member States (RDMS) CMS Collaboration. A proper computing grid-infrastructure has been constructed at the RDMS institutes for the participation in the running phase of the CMS experiment. Current status of RDMS CMS computing and plans of its development to the next LHC start in 2015 are presented.

    Просмотров за год: 2.
  2. Зароченцев А.К., Стифоров Г.Г.
    Обновления аппаратно-программной базы ALICE перед вторым запуском Большого адронного коллайдера
    Компьютерные исследования и моделирование, 2015, т. 7, № 3, с. 415-419

    В докладе представлен ряд новостей и обновлений ALICE computing к RUN2 и RUN3.

    В их числе:

    – ввод в работу новой системы EOS;

    – переход к файловой системе CVMFS для хранения ПО;

    – план решения проблемы Long Term Data Preservation;

    – обзор концепции “O square”, совмещающей офлайн- и онлайн-обработку данных;

    – обзор существующих моделей использования виртуальных облаков для обработки данных ALICE.

    Ряд нововведений показан на примере российских сайтов.

    Ключевые слова: GRID, ALICE, CERN, LHC, WLCG, CVMFS, виртуализация.
    Zarochentsev A.K., Stiforov G.G.
    ALICE computing update before start of RUN2
    Computer Research and Modeling, 2015, v. 7, no. 3, pp. 415-419

    The report presents a number of news and updates of the ALICE computing for RUN2 and RUN3.

    This includes:

    – implementation in production of a new system EOS;

    – migration to the file system CVMFS to be used for storage of the software;

    – the plan for solving the problem of “Long-Term Data Preservation”;

    – overview of the concept of “O square”, combining offline and online data processing;

    – overview of the existing models to use the virtual clouds for ALICE data processing. Innovations are shown on the example of the Russian sites.

    Просмотров за год: 2.
  3. Астахов Н.С., Багинян А.С., Белов С.Д., Долбилов А.Г., Голунов А.О., Горбунов И.Н., Громова Н.И., Кашунин И.А., Кореньков В.В., Мицын В.В., Шматов С.В., Стриж Т.А., Тихоненко Е.А., Трофимов В.В., Войтишин Н.Н., Жильцов В.Е.
    Статус и перспективы вычислительного центра ОИЯИ 1-го уровня (TIER-1) для эксперимента CMS на большом адронном коллайдере
    Компьютерные исследования и моделирование, 2015, т. 7, № 3, с. 455-462

    Компактный мюонный соленоид (CMS) — высокоточная детекторная установка на Большом адронном коллайдере (LHC) в ЦЕРН. Для осуществления обработки и анализа данных в CMS была разработана система распределенного анализа данных, предполагающая обязательное использование современных грид-технологий. Модель компьютинга для CMS — иерархическая (в смысле создания вычислительных центров разного уровня). Объединенный институт ядерных исследований (ОИЯИ) принимает активное участие в эксперименте CMS. В ОИЯИ создается центр 1-го уровня (Tier1) для CMS c целью обеспечения необходимой компьютерной инфраструктурой ОИЯИ и российских институтов, участвующих в эксперименте CMS. В работе описаны основные задачи и сервисы центра Tier1 для CMS в ОИЯИ и представлены статус и перспективы его развития.

    Astakhov N.S., Baginyan A.S., Belov S.D., Dolbilov A.G., Golunov A.O., Gorbunov I.N., Gromova N.I., Kashunin I.A., Korenkov V.V., Mitsyn V.V., Shmatov S.V., Strizh T.A., Tikhonenko E.A., Trofimov V.V., Voitishin N.N., Zhiltsov V.E.
    JINR TIER-1-level computing system for the CMS experiment at LHC: status and perspectives
    Computer Research and Modeling, 2015, v. 7, no. 3, pp. 455-462

    The Compact Muon Solenoid (CMS) is a high-performance general-purpose detector at the Large Hadron Collider (LHC) at CERN. A distributed data analysis system for processing and further analysis of CMS experimental data has been developed and this model foresees the obligatory usage of modern grid-technologies. The CMS Computing Model makes use of the hierarchy of computing centers (Tiers). The Joint Institute for Nuclear Research (JINR) takes an active part in the CMS experiment. In order to provide a proper computing infrastructure for the CMS experiment at JINR and for Russian institutes collaborating in CMS, Tier-1 center for the CMS experiment is constructing at JINR. The main tasks and services of the CMS Tier-1 at JINR are described. The status and perspectives of the Tier1 center for the CMS experiment at JINR are presented.

    Просмотров за год: 3. Цитирований: 2 (РИНЦ).
  4. Кирьянов А.К.
    Поддержка протокола GridFTP с возможностью перенаправления соединений в DMLite Title
    Компьютерные исследования и моделирование, 2015, т. 7, № 3, с. 543-547

    Одним из наиболее широко используемых решений для хранения данных в WLCG является Disk Pool Manager (DPM), разрабатываемый и поддерживаемый группой SDC/ID в ЦЕРНе. Недавно старый код DPM был практически переписан с нуля для решения накопившихся проблем с масштабируемостью и расширением функциональности.

    Новая система была названа DMLite. В отличие от DPM, который был реализован в виде нескольких демонов, DMLite выполнена в виде программной библиотеки, которая может быть непосредственно загружена приложением. Такой подход значительно повышает общую производительность и скорость обработки транзакций, избегая ненужного межпроцессного взаимодействия через сеть, а также узких мест в многопоточной обработке.

    DMLite имеет модульную архитектуру, при которой основная библиотека обеспечивает только несколько базовых функций. Системы хранения данных, а также протоколы доступа к ним реализованы в виде подключаемых модулей (plug-ins). Конечно, DMLite не смогла бы полностью заменить DPM без поддержки протокола GridFTP, наиболее широко используемого для передачи данных в WLCG.

    В DPM поддержка протокола GridFTP была реализована в виде модуля Data Storage Interface (DSI) для GridFTP сервера Globus. В DMLite было решено переписать модуль GridFTP с нуля, чтобы, во-первых, воспользоваться новыми возможностями DMLite, а во-вторых, добавить недостающую функциональность. Наиболее важным отличием по сравнению со старой версией является возможность перенаправления соединений.

    При использовании старого интерфейса GridFTP клиенту было необходимо предварительно связаться со службой SRM на головном узле хранилища, чтобы получить Transfer URL (TURL), необходимый для обращения к файлу. С новым интерфейсом GridFTP делать этот промежуточный шаг не требуется: клиент может сразу подключиться к службе GridFTP на головном узле хранилища и выполнять чтение-запись используя логические имена файлов (LFNs). Канал передачи данных при этом будет автоматически перенаправлен на соответствующий дисковый узел.

    Такая схема работы делает одну из наиболее часто используемых функций SRM ненужной, упрощает доступ к файлам и повышает производительность. Это также делает DMLite более привлекательным выбором для виртуальных организаций, не относящихся к БАК, поскольку они никогда не были особо заинтересованы в SRM.

    Новый интерфейс GridFTP также открывает возможности для хранения данных на множестве альтернативных систем, поддерживаемых DMLite, таких как HDFS, S3 и существующие пулы DPM.

    Kiryanov A.K.
    GridFTP frontend with redirection for DMlite
    Computer Research and Modeling, 2015, v. 7, no. 3, pp. 543-547

    One of the most widely used storage solutions in WLCG is a Disk Pool Manager (DPM) developed and supported by SDC/ID group at CERN. Recently DPM went through a massive overhaul to address scalability and extensibility issues of the old code.

    New system was called DMLite. Unlike the old DPM that was based on daemons, DMLite is arranged as a library that can be loaded directly by an application. This approach greatly improves performance and transaction rate by avoiding unnecessary inter-process communication via network as well as threading bottlenecks.

    DMLite has a modular architecture with its core library providing only the very basic functionality. Backends (storage engines) and frontends (data access protocols) are implemented as plug-in modules. Doubtlessly DMLite wouldn't be able to completely replace DPM without GridFTP as it is used for most of the data transfers in WLCG.

    In DPM GridFTP support was implemented in a Data Storage Interface (DSI) module for Globus’ GridFTP server. In DMLite an effort was made to rewrite a GridFTP module from scratch in order to take advantage of new DMLite features and also implement new functionality. The most important improvement over the old version is a redirection capability.

    With old GridFTP frontend a client needed to contact SRM on the head node in order to obtain a transfer URL (TURL) before reading or writing a file. With new GridFTP frontend this is no longer necessary: a client may connect directly to the GridFTP server on the head node and perform file I/O using only logical file names (LFNs). Data channel is then automatically redirected to a proper disk node.

    This renders the most often used part of SRM unnecessary, simplifies file access and improves performance. It also makes DMLite a more appealing choice for non-LHC VOs that were never much interested in SRM.

    With new GridFTP frontend it's also possible to access data on various DMLite-supported backends like HDFS, S3 and legacy DPM.

    Просмотров за год: 1.
  5. Бондяков А.С.
    Основные направления развития информационных технологий Национальной академии наук Азербайджана
    Компьютерные исследования и моделирование, 2015, т. 7, № 3, с. 657-660

    Грид-инфраструктура — компьютерная инфраструктура нового типа, обеспечивающая глобальную интеграцию информационных и вычислительных ресурсов. Грид-сегмент в Азербайджане был создан в 2008 году в Институте физики НАН при активной поддержке международных организаций ОИЯИ и CERN. Грид приобретает все большую популярность в научно-исследовательских и образовательных центрах Азербайджана. Среди основных направлений использования грид на данный момент можно выделить научные исследования в физике высоких энергий, физике твердого тела, энергетике, астрофизике, биологии, науках о Земле, а также в медицине.

    Bondyakov A.S.
    Basic directions of information technology in National Academy of Sciences of Azerbaijan
    Computer Research and Modeling, 2015, v. 7, no. 3, pp. 657-660

    Grid is a new type of computing infrastructure, is intensively developed in today world of information technologies. Grid provides global integration of information and computing resources. The essence Conception of GRID in Azerbaijan is to create a set of standardized services to provide a reliable, compatible, inexpensive and secure access to geographically distributed high-tech information and computing resources a separate computer, cluster and supercomputing centers, information storage, networks, scientific tools etc.

    Просмотров за год: 6. Цитирований: 1 (РИНЦ).
  6. Казымов А.И., Котов В.М., Минеев М.А., Русакович Н.А., Яковлев А.В.
    Использование облачных технологий CERN для дальнейшего развития по TDAQ ATLAS и его применения при обработке данных ДЗЗ в приложениях космического мониторинга
    Компьютерные исследования и моделирование, 2015, т. 7, № 3, с. 683-689

    Облачные технологий CERN (проект CernVM) дают новые возможности разработчикам программного обеспечения. Участие группы TDAQ ATLAS ОИЯИ в разработке ПО распределенной системы сбора и обработке данных эксперимента ATLAS (CERN) связано с необходимостью работы в условиях динамично развивающейся системы и ее инфраструктуры. Использование облачных технологий, в частности виртуальных машин CernVM, предоставляет наиболее эффективные способы доступа как к собственно ПО TDAQ, так и к ПО, используемому в CERN: среда — Scientific Linux и software repository c CernVM-FS. Исследуется вопрос о возможности функционирования ПО промежуточного уровня (middleware) в среде CernVM. Использование CernVM будет проиллюстрировано на трех задачах: разработка пакетов Event Dump и Webemon, а также на адаптации системы автоматической проверки качества данных TDAQ ATLAS — Data Quality Monitoring Framework для задач оценки качества радиолокационных данных.

    Kazymov A.I., Kotov V.M., Mineev M.A., Russakovich N.A., Yakovlev A.V.
    Using CERN cloud technologies for the further ATLAS TDAQ software development and for its application for the remote sensing data processing in the space monitoring tasks
    Computer Research and Modeling, 2015, v. 7, no. 3, pp. 683-689

    The CERN cloud technologies (the CernVM project) give a new possibility for the software developers. The participation of the JINR ATLAS TDAQ working group in the software development for distributed data acquisition and processing system (TDAQ) of the ATLAS experiment (CERN) involves the work in the condition of the dynamically developing system and its infrastructure. The CERN cloud technologies, especially CernVM, provide the most effective access as to the TDAQ software as to the third-part software used in ATLAS. The access to the Scientific Linux environment is provided by CernVM virtual machines and the access software repository — by CernVM-FS. The problem of the functioning of the TDAQ middleware in the CernVM environment was studied in this work. The CernVM usage is illustrated on three examples: the development of the packages Event Dump and Webemon, and the adaptation of the data quality auto checking system of the ATLAS TDAQ (Data Quality Monitoring Framework) for the radar data assessment.

    Просмотров за год: 2.

Журнал индексируется в Scopus

Полнотекстовая версия журнала доступна также на сайте научной электронной библиотеки eLIBRARY.RU

Журнал включен в базу данных Russian Science Citation Index (RSCI) на платформе Web of Science

Международная Междисциплинарная Конференция "Математика. Компьютер. Образование"

Международная Междисциплинарная Конференция МАТЕМАТИКА. КОМПЬЮТЕР. ОБРАЗОВАНИЕ.