Текущий выпуск Номер 4, 2020 Том 12
Результаты поиска по 'MPI':
Найдено статей: 14
  1. Башашин М.В., Земляная Е.В., Рахмонов И.Р., Шукринов Ю.М., Атанасова П.Х., Волохова А.В.
    Вычислительная схема и параллельная реализация для моделирования системы длинных джозефсоновских переходов
    Компьютерные исследования и моделирование, 2016, т. 8, № 4, с. 593-604

    Рассматривается модель стека длинных джозефсоновских переходов (ДДП), состоящего из чередующихся сверхпроводящих слоев и слоев диэлектрика, с учетом индуктивной и емкостной связи между слоями. Модель описывается системой нелинейных дифференциальных уравнений в частных производных относительно разности фаз и напряжения между соседними сверхпроводящими слоями в стеке ДДП, с соответствующими начальными и граничными условиями. Численное решение этой системы уравнений основано на использовании стандартных трехточечных конечно-разностных формул для дискретной аппроксимации по пространственной координате и применении четырехшагового метода Рунге–Кутты для решения полученной задачи Коши. Разработанный параллельный алгоритм реализован на основе технологии MPI (Message Passing Interface). В работе дана математическая постановка задачи в рамках рассматриваемой модели, описаны вычислительная схема и методика расчета вольт-амперных характеристик системы ДДП, представлены два варианта параллельной реализации. Продемонстрировано влияние индуктивной и емкостной связи между ДДП на структуру вольт-амперной характеристики в рамках рассматриваемой модели. Представлены результаты методических расчетов с различными параметрами длины и количества джозефсоновских переходов в стеке ДДП в зависимости от количества задействованных параллельных вычислительных узлов. Расчеты выполнены на многопроцессорных кластерах HybriLIT и ЦИВК Многофункционального информационно-вычислительного комплекса Лаборатории информационных технологий Объединенного института ядерных исследований (Дубна). На основе полученных численных результатов обсуждается эффективность рассмотренных вариантов распределения вычислений для численного моделирования системы ДДП в параллельном режиме. Показано, что один из предложенных подходов приводит к ускорению вычислений до 9 раз по сравнению с расчетами в однопроцессорном режиме.

    Bashashin M.V., Zemlyanay E.V., Rahmonov I.R., Shukrinov J.M., Atanasova P.C., Volokhova A.V.
    Numerical approach and parallel implementation for computer simulation of stacked long Josephson Junctions
    Computer Research and Modeling, 2016, v. 8, no. 4, pp. 593-604

    We consider a model of stacked long Josephson junctions (LJJ), which consists of alternating superconducting and dielectric layers. The model takes into account the inductive and capacitive coupling between the neighbor junctions. The model is described by a system of nonlinear partial differential equations with respect to the phase differences and the voltage of LJJ, with appropriate initial and boundary conditions. The numerical solution of this system of equations is based on the use of standard three-point finite-difference formulae for discrete approximations in the space coordinate, and the applying the four-step Runge-Kutta method for solving the Cauchy problem obtained. Designed parallel algorithm is implemented by means of the MPI technology (Message Passing Interface). In the paper, the mathematical formulation of the problem is given, numerical scheme and a method of calculation of the current-voltage characteristics of the LJJ system are described. Two variants of parallel implementation are presented. The influence of inductive and capacitive coupling between junctions on the structure of the current-voltage characteristics is demonstrated. The results of methodical calculations with various parameters of length and number of Josephson junctions in the LJJ stack depending on the number of parallel computing nodes, are presented. The calculations have been performed on multiprocessor clusters HybriLIT and CICC of Multi-Functional Information and Computing Complex (Laboratory of Information Technologies, Joint Institute for Nuclear Research, Dubna). The numerical results are discussed from the viewpoint of the effectiveness of presented approaches of the LJJ system numerical simulation in parallel. It has been shown that one of parallel algorithms provides the 9 times speedup of calculations.

    Просмотров за год: 7. Цитирований: 6 (РИНЦ).
  2. От редакции
    Компьютерные исследования и моделирование, 2017, т. 9, № 6, с. 853-855
    Editor's note
    Computer Research and Modeling, 2017, v. 9, no. 6, pp. 853-855
    Просмотров за год: 6.
  3. От редакции
    Компьютерные исследования и моделирование, 2019, т. 11, № 3, с. 363-365
    Editor's note
    Computer Research and Modeling, 2019, v. 11, no. 3, pp. 363-365
    Просмотров за год: 20.
  4. Бабаков А.В., Чечёткин В.М.
    Математическое моделирование вихревого движения в астрофизических объектах на основе газодинамической модели
    Компьютерные исследования и моделирование, 2018, т. 10, № 5, с. 631-643

    Рассматривается применение консервативного численного метода потоков для изучения вихревых структур в массивных, быстровращающихся компактных астрофизических объектах, находящихся в условиях самогравитации. Моделирование осуществляется для объектов с различной массой и скоростью вращения. Визуализируются картины вихревой структуры объектов. В расчетах используется газодинамическая модель, в которой газ принимается совершенным и невязким. Численная методика основана на конечно-разностной аппроксимации законов сохранения аддитивных характеристик среды для конечного объема. При этом используются upwind-аппроксимации плотностей распределения массы, компонент импульса и полной энергии. Для моделирования объектов, обладающих быстрым вращением, при эволюционном расчете осуществляется контроль сохранения компонент момента импульса, законы сохранения для которых не входят в систему основных уравнений. Эволюционный расчет осуществляется на основе параллельных алгоритмов, реализованных на вычислительном комплексе кластерной архитектуры. Алгоритмы основаны на стандартизованной системе передачи сообщений Message Passing Interface (MPI). При этом используются как блокирующие, так и неблокирующие процедуры обмена с контролем завершения операций. Осуществляется распараллеливание по пространству по двум или трем направле- ниям в зависимости от размера области интегрирования и параметров вычислительной сетки. Одновременно с распараллеливанием по пространству для каждой подобласти осуществляется распараллеливание по физическим факторам: расчет конвективного переноса и гравитационных сил реализуется параллельно на разных процессорах, что позволяет повысить эффективность алгоритмов. Показывается реальная возможность прямого вычисления гравитационных сил посредством суммирования взаимодействия между всеми конечными объемами в области интегрирования. Для методов конечного объема такой подход кажется более последовательным, чем решение уравнения Пуассона для гравитационного потенциала. Численные расчеты осуществлялись на вычислительном комплексе кластерной архитектуры с пиковой производительностью 523 TFlops. В расчетах использовалось до тысячи процессоров.

    Babakov A.V., Chechetkin V.M.
    Mathematical simulation of vortex motion in the astrophysical objects on the basis of the gas-dynamic model
    Computer Research and Modeling, 2018, v. 10, no. 5, pp. 631-643

    The application of a conservative numerical method of fluxes is examined for studying the vortex structures in the massive, fast-turned compact astrophysical objects, which are in self-gravity conditions. The simulation is accomplished for the objects with different mass and rotational speed. The pictures of the vortex structure of objects are visualized. In the calculations the gas-dynamic model is used, in which gas is accepted perfected and nonviscous. Numerical procedure is based on the finite-difference approximation of the conservation laws of the additive characteristics of medium for the finite volume. The “upwind” approximations of the densities of distribution of mass, components of momentum and total energy are applied. For the simulation of the objects, which possess fast-spin motion, the control of conservation for the component of moment of momentun is carried out during calculation. Evolutionary calculation is carried out on the basis of the parallel algorithms, realized on the computer complex of cluster architecture. Algorithms are based on the standardized system of message transfer Message Passing Interface (MPI). The blocking procedures of exchange and non-blocking procedures of exchange with control of the completion of operation are used. The parallelization on the space in two or three directions is carried out depending on the size of integration area and parameters of computational grid. For each subarea the parallelization based on the physical factors is carried out also: the calculations of gas dynamics part and gravitational forces are realized on the different processors, that allows to raise the efficiency of algorithms. The real possibility of the direct calculation of gravitational forces by means of the summation of interaction between all finite volumes in the integration area is shown. For the finite volume methods this approach seems to more consecutive than the solution of Poisson’s equation for the gravitational potential. Numerical calculations were carried out on the computer complex of cluster architecture with the peak productivity 523 TFlops. In the calculations up to thousand processors was used.

    Просмотров за год: 27.
  5. Волохова А.В., Земляная Е.В., Лахно В.Д., Амирханов И.В., Пузынин И.В., Пузынина Т.П.
    Численное исследование фотовозбужденных поляронных состояний в воде
    Компьютерные исследования и моделирование, 2014, т. 6, № 2, с. 253-261

    Разработан метод и комплекс программ для численного моделирования процесса формирования поляронных состояний в конденсированных средах. Проведено численное исследование этого процесса для водной среды при воздействии лазерного облучения в ультрафиолетовом диапазоне. Показано, что в рамках предложенного подхода удается численно воспроизвести экспериментальные данные по формированию гидратированных электронов. Представлена схема численного решения системы нелинейных дифференциальных уравнений в частных производных, описывающих динамическую модельпо лярона. Программная реализация выполнена с использованием технологии параллельного программирования MPI. Обсуждаются численные результаты в сравнении с экспериментальными данными и теоретическими оценками.

    Volokhova A.V., Zemlyanay E.V., Lakhno V.D., Amirkhanov I.V., Puzynin I.V., Puzynina T.P.
    Numerical investigation of photoexcited polaron states in water
    Computer Research and Modeling, 2014, v. 6, no. 2, pp. 253-261

    A method and a complex of computer programs are developed for the numerical simulation of the polaron states excitation process in condensed media. A numerical study of the polaron states formation in water under the action of the ultraviolet range laser irradiation is carried out. Our approach allows to reproduce the experimental data of the hydrated electrons formation. A numerical scheme is presented for the solution of the respective system of nonlinear partial differential equations. Parallel implementation is based on the MPI technique. The numerical results are given in comparison with the experimental data and theoretical estimations.

    Цитирований: 1 (РИНЦ).
  6. Гаспарян М.М., Самонов А.С., Сазыкина Т.А., Остапов Е.Л., Сакмаров А.В., Шайхатаров О.К.
    Решатель уравнения Больцмана на неструктурированных пространственных сетках
    Компьютерные исследования и моделирование, 2019, т. 11, № 3, с. 427-447

    Целью данной работы является создание достаточно универсальной вычислительной программы (решателя) кинетического уравнения Больцмана для моделирования течений разреженного газа в устройствах сложной формы. Подробно описывается структура решателя, а его эффективность демонстрируется на примере расчета современной конструкции многотрубочного насоса Кнудсена. Решение уравнения Больцмана выполняется на фиксированных пространственной и скоростной сетках с помощью метода расщепления по физическим процессам. Дифференциальный оператор переноса аппроксимируется методом конечных разностей. Вычисление интеграла столкновений производится на основе консервативного проекционного метода.

    Пространственная неструктурированная сетка строится с помощью внешнего генератора сеток и может включать в себя призмы, тетраэдры, гексаэдры и пирамиды. Сетка сгущается в областях течения с наибольшими градиентами рассчитываемых величин. Трехмерная скоростная сетка состоит из кубических ячеек равного объема.

    Большой объем вычислений требует эффективного распараллеливания алгоритма, что реализовано на основе методики Message Passing Interface (MPI). Передача информации от одного узла MPI к другому осуществляется как разновидность граничного условия — таким образом, каждый MPI узел может хранить только ту часть сетки, которая имеет отношение конкретно к нему.

    В результате получен график разности давлений в двух резервуарах, соединенных многотрубочным насосом Кнудсена в зависимости от числа Кнудсена, т. е. получена численными методами характеристика, ответственная за качество работы термомолекулярного микронасоса. Также показаны распределения давления, температуры и концентрации газа в установившемся состоянии внутри резервуаров и самого микронасоса.

    Корректность работы солвера проверяется на тестах с распределением температуры газа между двух нагретых до разной температуры пластинок, а также в тесте с сохранением общей массы газа.

    Корректность полученных данных для многотрубочного насоса Кнудсена проверяется на более точных скоростной и пространственной сетках, а также при использовании большего количества столкновений в интеграле столкновений за шаг.

    Gasparyan M.M., Samonov A.S., Sazykina T.A., Ostapov E.L., Sakmarov A.V., Shahatarov O.K.
    The Solver of Boltzmann equation on unstructured spatial grids
    Computer Research and Modeling, 2019, v. 11, no. 3, pp. 427-447

    The purpose of this work is to develop a universal computer program (solver) which solves kinetic Boltzmann equation for simulations of rarefied gas flows in complexly shaped devices. The structure of the solver is described in details. Its efficiency is demonstrated on an example of calculations of a modern many tubes Knudsen pump. The kinetic Boltzmann equation is solved by finite-difference method on discrete grid in spatial and velocity spaces. The differential advection operator is approximated by finite difference method. The calculation of the collision integral is based on the conservative projection method.

    In the developed computational program the unstructured spatial mesh is generated using GMSH and may include prisms, tetrahedrons, hexahedrons and pyramids. The mesh is denser in areas of flow with large gradients of gas parameters. A three-dimensional velocity grid consists of cubic cells of equal volume.

    A huge amount of calculations requires effective parallelization of the algorithm which is implemented in the program with the use of Message Passing Interface (MPI) technology. An information transfer from one node to another is implemented as a kind of boundary condition. As a result, every MPI node contains the information about only its part of the grid.

    The main result of the work is presented in the graph of pressure difference in 2 reservoirs connected by a multitube Knudsen pump from Knudsen number. This characteristic of the Knudsen pump obtained by numerical methods shows the quality of the pump. Distributions of pressure, temperature and gas concentration in a steady state inside the pump and the reservoirs are presented as well.

    The correctness of the solver is checked using two special test solutions of more simple boundary problems — test with temperature distribution between 2 planes with different temperatures and test with conservation of total gas mass.

    The correctness of the obtained data for multitube Knudsen pump is checked using denser spatial and velocity grids, using more collisions in collision integral per time step.

    Просмотров за год: 13.
  7. Субботина А.Ю., Хохлов Н.И.
    Реализация клеточных автоматов «игра “Жизнь”» и клеточного автомата Кохомото-Ооно с применением технологии MPI
    Компьютерные исследования и моделирование, 2010, т. 2, № 3, с. 319-322

    Данная работа является анализом результатов, полученных участниками летней школы по высокопроизводительным вычислениям МФТИ-2010 во время практикума по технологии MPI. В качестве проекта была предложена трехмерная версия игры Конвея «Жизнь». Разобраны основные способы решения, используемые участниками при разработке, приведена их теоретическая и практическая оценка по масштабируемости.

    Subbotina A.Y., Khokhlov N.I.
    MPI implementations of Conway’s Game of Life and Kohomoto-Oono cellular automata
    Computer Research and Modeling, 2010, v. 2, no. 3, pp. 319-322

    Results obtained during practical training session on MPI during high perfomance computing summer school MIPT-2010 are discussed. MPI technology were one of technologies proposed to participants for realization of project. 3D version of Conway’s Game of Life was proposed as a project. Algorithms used in the development, theoretical and practical assessment of their scalability is analyzed.

    Просмотров за год: 11.
  8. Иванов А.М., Хохлов Н.И.
    Параллельная реализация сеточно-характеристического метода в случае явного выделения контактных границ
    Компьютерные исследования и моделирование, 2018, т. 10, № 5, с. 667-678

    В работе рассматривается применение технологии Message Passing Interface (MPI) для распараллеливания программного алгоритма, основанного на сеточно-характеристическом методе, применительно к численному решению уравнения линейной теории упругости. Данный алгоритм позволяет численно моделировать распространение динамических волновых возмущений в твердых деформируемых телах. К такого рода задачам относится решение прямой задачи распространения сейсмических волн, что представляет интерес в сейсмике и геофизике. Во снове решателя лежит сеточно-характеристический метод. В работе предложен способ уменьшения времени взаимодействия между процессами MPI в течение расчета. Это необходимо для того, чтобы можно было производить моделирование в сложных постановках, при этом сохраняя высокую эффективность параллелизма даже при большом количестве процессов. Решение проблемы эффективного взаимодействия представляет большой интерес, когда в расчете используется несколько расчетных сеток с произвольной геометрией контактов между ними. Сложность данной задачи возрастает, если допускается независимое распределение узлов расчетных сеток между процессами. В работе сформулирован обобщенный подход для обработки контактных условий в терминах переинтерполяции узлов из заданного участка одной сетки в определенную область второй сетки. Предложен эффективный способ распараллеливания и установления эффективных межпроцессорных коммуникаций. Приведены результаты работы реализованного программного кода: получены волновые поля и сейсмограммы как для 2D-, так и для 3D-постановок. Показано, что данный алгоритм может быть реализован в том числе на криволинейных расчетных сетках. Рассмотренные постановки демонстрируют возможность проведения расчета с учетом топографии среды и криволинейных контактов между слоями. Это позволяет получать более точные результаты, чем при расчете только с использованием декартовых сеток. Полученная эффективность распараллеливания — практически 100% вплоть до 4096 процессов (за основу отсчета взята версия, запущенная на 128 процессах). Дале наблюдается ожидаемое постепенное снижение эффективности. Скорость спада не велика, на 16384 процессах удается сохранить 80%-ную эффективность.

    Ivanov A.M., Khokhlov N.I.
    Parallel implementation of the grid-characteristic method in the case of explicit contact boundaries
    Computer Research and Modeling, 2018, v. 10, no. 5, pp. 667-678

    We consider an application of the Message Passing Interface (MPI) technology for parallelization of the program code which solves equation of the linear elasticity theory. The solution of this equation describes the propagation of elastic waves in demormable rigid bodies. The solution of such direct problem of seismic wave propagation is of interest in seismics and geophysics. Our implementation of solver uses grid-characteristic method to make simulations. We consider technique to reduce time of communication between MPI processes during the simulation. This is important when it is necessary to conduct modeling in complex problem formulations, and still maintain the high level of parallelism effectiveness, even when thousands of processes are used. A solution of the problem of effective communication is extremely important when several computational grids with arbirtrary geometry of contacts between them are used in the calculation. The complexity of this task increases if an independent distribution of the grid nodes between processes is allowed. In this paper, a generalized approach is developed for processing contact conditions in terms of nodes reinterpolation from a given section of one grid to a certain area of the second grid. An efficient way of parallelization and establishing effective interprocess communications is proposed. For provided example problems we provide wave fileds and seismograms for both 2D and 3D formulations. It is shown that the algorithm can be realized both on Cartesian and on structured (curvilinear) computational grids. The considered statements demonstrate the possibility of carrying out calculations taking into account the surface topographies and curvilinear geometry of curvilinear contacts between the geological layers. Application of curvilinear grids allows to obtain more accurate results than when calculating only using Cartesian grids. The resulting parallelization efficiency is almost 100% up to 4096 processes (we used 128 processes as a basis to find efficiency). With number of processes larger than 4096, an expected gradual decrease in efficiency is observed. The rate of decline is not great, so at 16384 processes the parallelization efficiency remains at 80%.

    Просмотров за год: 18.
  9. Кутовский Н.А., Нечаевский А.В., Ососков Г.А., Пряхина Д.И., Трофимов В.В.
    Моделирование межпроцессорного взаимодействия при выполнении MPI-приложений в облаке
    Компьютерные исследования и моделирование, 2017, т. 9, № 6, с. 955-963

    В Лаборатории информационных технологий (ЛИТ) Объединенного института ядерных исследований (ОИЯИ) планируется создание облачного центра параллельных вычислений, что позволит существенно повысить эффективность выполнения численных расчетов и ускорить получение новых физически значимых результатов за счет более рационального использования вычислительных ресурсов. Для оптимизации схемы параллельных вычислений в облачной среде эту схему необходимо протестировать при различных сочетаниях параметров оборудования (количества и частоты процессоров, уровней распараллеливания, пропускной способности коммуникационной сети и ее латентности). В качестве тестовой была выбрана весьма актуальная задача параллельных вычислений длинных джозефсоновских переходов (ДДП) с использованием технологии MPI. Проблемы оценки влияния вышеуказанных факторов вычислительной среды на скорость параллельных вычислений тестовой задачи было предложено решать методом имитационного моделирования, с использованием разработанной в ЛИТ моделирующей программы SyMSim.

    Работы, выполненные по имитационному моделированию расчетов ДДП в облачной среде с учетом межпроцессорных соединений, позволяют пользователям без проведения серии тестовых запусков в реальной компьютерной обстановке подобрать оптимальное количество процессоров при известном типе сети, характеризуемой пропускной способностью и латентностью. Это может существенно сэкономить вычислительное время на счетных ресурсах, высвободив его для решения реальных задач. Основные параметры модели были получены по результатам вычислительного эксперимента, проведенного на специальном облачном полигоне для MPI-задач из 10 виртуальных машин, взаимодействующих между собой через Ethernet-сеть с пропускной способностью 10 Гбит/с. Вычислительные эксперименты показали, что чистое время вычислений спадает обратно пропорционально числу процессоров, но существенно зависит от пропускной способности сети. Сравнение результатов, полученных эмпирическим путем, с результатами имитационного моделирования показало, что имитационная модель корректно моделирует параллельные расчеты, выполненные с использованием технологии MPI, и подтвердило нашу рекомендацию, что для быстрого счета задач такого класса надо одновременно с увеличением числа процессоров увеличивать пропускную способность сети. По результатам моделирования удалось вывести эмпирическую аналитическую формулу, выражающую зависимость времени расчета от числа процессоров при фиксированной конфигурации системы. Полученная формула может применяться и для других подобных исследований, но требует дополнительных тестов по определению значений переменных.

    Kutovskiy N.A., Nechaevskiy A.V., Ososkov G.A., Pryahina D.I., Trofimov V.V.
    Simulation of interprocessor interactions for MPI-applications in the cloud infrastructure
    Computer Research and Modeling, 2017, v. 9, no. 6, pp. 955-963

    А new cloud center of parallel computing is to be created in the Laboratory of Information Technologies (LIT) of the Joint Institute for Nuclear Research JINR) what is expected to improve significantly the efficiency of numerical calculations and expedite the receipt of new physically meaningful results due to the more rational use of computing resources. To optimize a scheme of parallel computations at a cloud environment it is necessary to test this scheme for various combinations of equipment parameters (processor speed and numbers, throughput оf а communication network etc). As a test problem, the parallel MPI algorithm for calculations of the long Josephson junctions (LDJ) is chosen. Problems of evaluating the impact of abovementioned factors of computing mean on the computing speed of the test problem are solved by simulation with the simulation program SyMSim developed in LIT.

    The simulation of the LDJ calculations in the cloud environment enable users without a series of test to find the optimal number of CPUs with a certain type of network run the calculations in a real computer environment. This can save significant computational time in countable resources. The main parameters of the model were obtained from the results of the computational experiment conducted on a special cloud-based testbed. Computational experiments showed that the pure computation time decreases in inverse proportion to the number of processors, but depends significantly on network bandwidth. Comparison of results obtained empirically with the results of simulation showed that the simulation model correctly simulates the parallel calculations performed using the MPI-technology. Besides it confirms our recommendation: for fast calculations of this type it is needed to increase both, — the number of CPUs and the network throughput at the same time. The simulation results allow also to invent an empirical analytical formula expressing the dependence of calculation time by the number of processors for a fixed system configuration. The obtained formula can be applied to other similar studies, but requires additional tests to determine the values of variables.

    Просмотров за год: 10. Цитирований: 1 (РИНЦ).
  10. Богданов А.В., Ганкевич И.Г., Гайдучок В.Ю., Южанин Н.В.
    Запуск приложений на гибридном кластере
    Компьютерные исследования и моделирование, 2015, т. 7, № 3, с. 475-483

    Гибридный кластер подразумевает использование вычислительных ресурсов с различными архитектурами. Как правило, в таких системах используется CPU распространенной архитектуры (например, x86_64) и GPU (например, NVIDIA CUDA). Создание и эксплуатация подобного кластера требует определенного опыта: для того чтобы задействовать все вычислительные мощности такой системы и получить существенное ускорение на задачах, требуется учесть множество факторов. К таким факторам относятся как характеристики оборудования (например, особенности сетевой инфраструктуры, хранилища, архитектуры GPU), так и характеристики программного обеспечения (например, реализация MPI, библиотеки для работы с GPU). Таким образом для эффективных научных расчетов на подобных системах требуется помнить о характеристиках ускорителя (GPU), особенностях программного обеспечения, характеристиках задачи и о многих других факторах.

    В этой статье анализируются достоинства и недостатки гибридных вычислений. Будут приведены результаты запуска некоторых тестов и научных приложений, использующих GPGPU. Основное внимание уделено программных продуктах с открытым исходным кодом, которые поддерживают работу с GPGPU.

    Существует несколько подходов для организации гетерогенных вычислений. В данной статье мы рассмотрим приложения, использующие CUDA и OpenCL. CUDA довольно часто используется в подобных гибридных системах, в то время как переносимость OpenCL-приложений может сыграть решающую роль при выборе средства для разработки. Мы также уделим внимание системам с несколькими GPU, которые все чаще используются в рамках подобных кластеров. Вычисления проводились на гибридном кластере ресурсного центра «Вычислительный центр СПбГУ».

    Bogdanov A.V., Gankevich I.G., Gayduchok V.Yu., Yuzhanin N.V.
    Running applications on a hybrid cluster
    Computer Research and Modeling, 2015, v. 7, no. 3, pp. 475-483

    A hybrid cluster implies the use of computational devices with radically different architectures. Usually, these are conventional CPU architecture (e.g. x86_64) and GPU architecture (e. g. NVIDIA CUDA). Creating and exploiting such a cluster requires some experience: in order to harness all computational power of the described system and get substantial speedup for computational tasks many factors should be taken into account. These factors consist of hardware characteristics (e.g. network infrastructure, a type of data storage, GPU architecture) as well as software stack (e.g. MPI implementation, GPGPU libraries). So, in order to run scientific applications GPU capabilities, software features, task size and other factors should be considered.

    This report discusses opportunities and problems of hybrid computations. Some statistics from tests programs and applications runs will be demonstrated. The main focus of interest is open source applications (e. g. OpenFOAM) that support GPGPU (with some parts rewritten to use GPGPU directly or by replacing libraries).

    There are several approaches to organize heterogeneous computations for different GPU architectures out of which CUDA library and OpenCL framework are compared. CUDA library is becoming quite typical for hybrid systems with NVIDIA cards, but OpenCL offers portability opportunities which can be a determinant factor when choosing framework for development. We also put emphasis on multi-GPU systems that are often used to build hybrid clusters. Calculations were performed on a hybrid cluster of SPbU computing center.

    Просмотров за год: 4.
Страницы: следующая

Полнотекстовая версия журнала доступна также на сайте научной электронной библиотеки eLIBRARY.RU

Журнал входит в Перечень российских рецензируемых научных журналов, в которых должны быть опубликованы основные научные результаты диссертаций на соискание ученых степеней доктора и кандидата наук ВАК, группы специальностей: 01.01.00, 01.02.00.
 

Международная Междисциплинарная Конференция "Математика. Компьютер. Образование"

Международная Междисциплинарная Конференция МАТЕМАТИКА. КОМПЬЮТЕР. ОБРАЗОВАНИЕ.

Журнал включен в базу данных Russian Science Citation Index (RSCI) на платформе Web of Science

Журнал индексируется в Scopus