Текущий выпуск Номер 4, 2024 Том 16

Все выпуски

Результаты поиска по 'computational modeling':
Найдено статей: 254
  1. Говорков Д.А., Новиков В.П., Соловьёв И.Г., Цибульский В.Р.
    Интервальный анализ динамики растительного покрова
    Компьютерные исследования и моделирование, 2020, т. 12, № 5, с. 1191-1205

    В развитие ранее полученного результата по моделированию динамики растительного покрова, вследствие изменчивости температурного фона, представлена новая схема интервального анализа динамики флористических образов формаций в случае, когда параметр скорости реагирования модели динамики каждого учетного вида растения задан интервалом разброса своих возможных значений. Желаемая в фундаментальных исследованиях детализация описания функциональных параметров макромоделей биоразнообразия, учитывающая сущностные причины наблюдаемых эволюционных процессов, может оказаться проблемной задачей. Использование более надежных интервальных оценок вариабельности функциональных параметров «обходит» проблему неопределенности в вопросах первичного оценивания эволюции фиторесурсного потенциала осваиваемых подконтрольных территорий. Полученные решения сохраняют не только качественную картину динамики видового разнообразия, но и дают строгую, в рамках исходных предположений, количественную оценку меры присутствия каждого вида растения. Практическая значимость схем двустороннего оценивания на основе конструирования уравнений для верхних и нижних границ траекторий разброса решений зависит от условий и меры пропорционального соответствия интервалов разбросов исходных параметров с интервалами разбросов решений. Для динамических систем желаемая пропорциональность далеко не всегда обеспечивается. Приведенные примеры демонстрирует приемлемую точность интервального оценивания эволюционных процессов. Важно заметить, что конструкции оценочных уравнений порождают исчезающие интервалы разбросов решений для квазипостоянных температурных возмущений системы. Иными словами, траектории стационарных температурных состояний растительного покрова предложенной схемой интервального оценивания не огрубляется. Строгость результата интервального оценивания видового состава растительного покрова формаций может стать определяющим фактором при выборе метода в задачах анализа динамики видового разнообразия и растительного потенциала территориальных систем ресурсно-экологического мониторинга. Возможности предложенного подхода иллюстрируются геоинформационными образами вычислительного анализа динамики растительного покрова полуострова Ямал и графиками ретроспективного анализа флористической изменчивости формаций ландшафтно-литологической группы «Верховые» по данным вариации летнего температурного фона метеостанции г. Салехарда от 2010 до 1935 года. Разработанные показатели флористической изменчивости и приведенные графики характеризуют динамику видового разнообразия, как в среднем, так и индивидуально, в виде интервалов возможных состояний по каждому учетному виду растения.

    Govorkov D.A., Novikov V.P., Solovyev I.G., Tsibulsky V.R.
    Interval analysis of vegetation cover dynamics
    Computer Research and Modeling, 2020, v. 12, no. 5, pp. 1191-1205

    In the development of the previously obtained result on modeling the dynamics of vegetation cover, due to variations in the temperature background, a new scheme for the interval analysis of the dynamics of floristic images of formations is presented in the case when the parameter of the response rate of the model of the dynamics of each counting plant species is set by the interval of scatter of its possible values. The detailed description of the functional parameters of macromodels of biodiversity, desired in fundamental research, taking into account the essential reasons for the observed evolutionary processes, may turn out to be a problematic task. The use of more reliable interval estimates of the variability of functional parameters “bypasses” the problem of uncertainty in the primary assessment of the evolution of the phyto-resource potential of the developed controlled territories. The solutions obtained preserve not only a qualitative picture of the dynamics of species diversity, but also give a rigorous, within the framework of the initial assumptions, a quantitative assessment of the degree of presence of each plant species. The practical significance of two-sided estimation schemes based on the construction of equations for the upper and lower boundaries of the trajectories of the scatter of solutions depends on the conditions and measure of proportional correspondence of the intervals of scatter of the initial parameters with the intervals of scatter of solutions. For dynamic systems, the desired proportionality is not always ensured. The given examples demonstrate the acceptable accuracy of interval estimation of evolutionary processes. It is important to note that the constructions of the estimating equations generate vanishing intervals of scatter of solutions for quasi-constant temperature perturbations of the system. In other words, the trajectories of stationary temperature states of the vegetation cover are not roughened by the proposed interval estimation scheme. The rigor of the result of interval estimation of the species composition of the vegetation cover of formations can become a determining factor when choosing a method in the problems of analyzing the dynamics of species diversity and the plant potential of territorial systems of resource-ecological monitoring. The possibilities of the proposed approach are illustrated by geoinformation images of the computational analysis of the dynamics of the vegetation cover of the Yamal Peninsula and by the graphs of the retro-perspective analysis of the floristic variability of the formations of the landscapelithological group “Upper” based on the data of the summer temperature background of the Salehard weather station from 2010 to 1935. The developed indicators of floristic variability and the given graphs characterize the dynamics of species diversity, both on average and individually in the form of intervals of possible states for each species of plant.

  2. Василевский Ю.В., Симаков С.С., Гамилов Т.М., Саламатова В.Ю., Добросердова Т.К., Копытов Г.В., Богданов О.Н., Данилов А.А., Дергачев М.А., Добровольский Д.Д., Косухин О.Н., Ларина Е.В., Мелешкина А.В., Мычка Е.Ю., Харин В.Ю., Чеснокова К.В., Шипилов А.А.
    Персонализация математических моделей в кардиологии: трудности и перспективы
    Компьютерные исследования и моделирование, 2022, т. 14, № 4, с. 911-930

    Большинство биомеханических задач, представляющих интерес для клиницистов, могут быть решены только с помощью персонализированных математических моделей. Такие модели позволяют формализовать и взаимоувязать ключевые патофизиологические процессы, на основе клинически доступных данных оценить неизмеряемые параметры, важные для диагностики заболеваний, спрогнозировать результат терапевтического или хирургического вмешательства. Использование моделей в клинической практике накладывает дополнительные ограничения: практикующие врачи требуют валидации модели на клинических случаях, быстроту и автоматизированность всей расчетной технологической цепочки от обработки входных данных до получения результата. Ограничения на время расчета, определяемые временем принятия врачебного решения (порядка нескольких минут), приводят к необходимости использования методов редукции, корректно описывающих исследуемые процессы в рамках численных моделей пониженной размерности или в рамках методов машинного обучения.

    Персонализация моделей требует пациентоориентированной оценки параметров модели и создания персонализированной геометрии расчетной области и построения расчетной сетки. Параметры модели оцениваются прямыми измерениями, либо методами решения обратных задач, либо методами машинного обучения. Требование персонализации моделей накладывает серьезные ограничения на количество настраиваемых параметров модели, которые могут быть измерены в стандартных клинических условиях. Помимо параметров, модели включают краевые условия, которые также должны учитывать особенности пациента. Методы задания персонализированных краевых условий существенно зависят от решаемой клинической задачи, зоны ее интереса и доступных клинических данных. Построение персонализированной области посредством сегментации медицинских изображений и построение расчетной сетки, как правило, занимают значительную долю времени при разработке персонализированной вычислительной модели, так как часто выполняются в ручном или полуавтоматическом режиме. Разработка автоматизированных методов постановки персонализированных краевых условий и сегментации медицинских изображений с последующим построением расчетной сетки является залогом широкого использования математического моделирования в клинической практике.

    Цель настоящей работы — обзор и анализ наших решений по персонализации математических моделей в рамках трех задач клинической кардиологии: виртуальной оценки гемодинамической значимости стенозов коронарных артерий, оценки изменений системного кровотока после гемодинамической коррекции сложных пороков сердца, расчета характеристик коаптации реконструированного аортального клапана.

    Vassilevski Y.V., Simakov S.S., Gamilov T.M., Salamatova V.Yu., Dobroserdova T.K., Kopytov G.V., Bogdanov O.N., Danilov A.A., Dergachev M.A., Dobrovolskii D.D., Kosukhin O.N., Larina E.V., Meleshkina A.V., Mychka E.Yu., Kharin V.Yu., Chesnokova K.V., Shipilov A.A.
    Personalization of mathematical models in cardiology: obstacles and perspectives
    Computer Research and Modeling, 2022, v. 14, no. 4, pp. 911-930

    Most biomechanical tasks of interest to clinicians can be solved only using personalized mathematical models. Such models allow to formalize and relate key pathophysiological processes, basing on clinically available data evaluate non-measurable parameters that are important for the diagnosis of diseases, predict the result of a therapeutic or surgical intervention. The use of models in clinical practice imposes additional restrictions: clinicians require model validation on clinical cases, the speed and automation of the entire calculated technological chain, from processing input data to obtaining a result. Limitations on the simulation time, determined by the time of making a medical decision (of the order of several minutes), imply the use of reduction methods that correctly describe the processes under study within the framework of reduced models or machine learning tools.

    Personalization of models requires patient-oriented parameters, personalized geometry of a computational domain and generation of a computational mesh. Model parameters are estimated by direct measurements, or methods of solving inverse problems, or methods of machine learning. The requirement of personalization imposes severe restrictions on the number of fitted parameters that can be measured under standard clinical conditions. In addition to parameters, the model operates with boundary conditions that must take into account the patient’s characteristics. Methods for setting personalized boundary conditions significantly depend on the clinical setting of the problem and clinical data. Building a personalized computational domain through segmentation of medical images and generation of the computational grid, as a rule, takes a lot of time and effort due to manual or semi-automatic operations. Development of automated methods for setting personalized boundary conditions and segmentation of medical images with the subsequent construction of a computational grid is the key to the widespread use of mathematical modeling in clinical practice.

    The aim of this work is to review our solutions for personalization of mathematical models within the framework of three tasks of clinical cardiology: virtual assessment of hemodynamic significance of coronary artery stenosis, calculation of global blood flow after hemodynamic correction of complex heart defects, calculating characteristics of coaptation of reconstructed aortic valve.

  3. В статье обсуждается проблема влияния целей исследования на структуру многофакторной модели регрессионного анализа (в частности, на реализацию процедуры снижения размерности модели). Демонстрируется, как приведение спецификации модели множественной регрессии в соответствие целям исследования отражается на выборе методов моделирования. Сравниваются две схемы построения модели: первая не позволяет учесть типологию первичных предикторов и характер их влияния на результативные признаки, вторая схема подразумевает этап предварительного разбиения исходных предикторов на группы (в соответствии с целями исследования). На примере решения задачи анализа причин выгорания творческих работников показана важность этапа качественного анализа и систематизации априори отобранных факторов, который реализуется не вычислительными средствами, а за счет привлечения знаний и опыта специалистов в изучаемой предметной области.

    Представленный пример реализации подхода к определению спецификации регрессионной модели сочетает формализованные математико-статистические процедуры и предшествующий им этап классификации первичных факторов. Наличие указанного этапа позволяет объяснить схему управляющих (корректирующих) воздействий (смягчение стиля руководства и усиление одобрения приводят к снижению проявлений тревожности и стресса, что, в свою очередь, снижает степень выраженности эмоционального истощения участников коллектива). Предварительная классификация также позволяет избежать комбинирования в одной главной компоненте управляемых и неуправляемых, регулирующих и управляемых признаков-факторов, которое могло бы ухудшить интерпретируемость синтезированных предикторов.

    На примере конкретной задачи показано, что отбор факторов-регрессоров — это процесс, требующий индивидуального решения. В рассмотренном случае были последовательно использованы: систематизация признаков, корреляционный анализ, метод главных компонент, регрессионный анализ. Первые три метода позволили существенно сократить размерность задачи, что не повлияло на достижение цели, для которой эта задача была поставлена: были показаны существенные меры управляющего воздействия на коллектив, позволяющие снизить степень эмоционального выгорания его участников.

    The article discusses the problem of the influence of the research goals on the structure of the multivariate model of regression analysis (in particular, on the implementation of the procedure for reducing the dimension of the model). It is shown how bringing the specification of the multiple regression model in line with the research objectives affects the choice of modeling methods. Two schemes for constructing a model are compared: the first does not allow taking into account the typology of primary predictors and the nature of their influence on the performance characteristics, the second scheme implies a stage of preliminary division of the initial predictors into groups, in accordance with the objectives of the study. Using the example of solving the problem of analyzing the causes of burnout of creative workers, the importance of the stage of qualitative analysis and systematization of a priori selected factors is shown, which is implemented not by computing means, but by attracting the knowledge and experience of specialists in the studied subject area. The presented example of the implementation of the approach to determining the specification of the regression model combines formalized mathematical and statistical procedures and the preceding stage of the classification of primary factors. The presence of this stage makes it possible to explain the scheme of managing (corrective) actions (softening the leadership style and increasing approval lead to a decrease in the manifestations of anxiety and stress, which, in turn, reduces the severity of the emotional exhaustion of the team members). Preclassification also allows avoiding the combination in one main component of controlled and uncontrolled, regulatory and controlled feature factors, which could worsen the interpretability of the synthesized predictors. On the example of a specific problem, it is shown that the selection of factors-regressors is a process that requires an individual solution. In the case under consideration, the following were consistently used: systematization of features, correlation analysis, principal component analysis, regression analysis. The first three methods made it possible to significantly reduce the dimension of the problem, which did not affect the achievement of the goal for which this task was posed: significant measures of controlling influence on the team were shown. allowing to reduce the degree of emotional burnout of its participants.

  4. Погорелова Е.А., Лобанов А.И.
    Высокопроизводительные вычисления в моделировании крови
    Компьютерные исследования и моделирование, 2012, т. 4, № 4, с. 917-941

    Приведен обзор методов моделирования движения и реологических свойств крови как суспензии взвешенных частиц. Рассмотрены методы граничных интегральных уравнений, решеточных уравнений Больцмана, конечных элементов на подвижных сетках, диссипативной динамики частиц, а также агентные модели. Приведен анализ применения этих методов при расчетах на высокопроизводительных системах различной архитектуры.

    Pogorelova E.A., Lobanov A.I.
    High Performance Computing for Blood Modeling
    Computer Research and Modeling, 2012, v. 4, no. 4, pp. 917-941

    Methods for modeling blood flow and its rheological properties are reviewed. Blood is considered as a particle suspencion. The methods are boundary integral equation method (BIEM), lattice Boltzmann (LBM), finite elements on dynamic mesh, dissipative particle dynamics (DPD) and agent based modeling. The analysis of these methods’ applications on high-performance systems with various architectures is presented.

    Просмотров за год: 2. Цитирований: 3 (РИНЦ).
  5. Якушкин О.О., Дегтярев А.Б., Швембергер С.В.
    Декомпозиция задачи моделирования некоторых объектов археологических исследований для работы в распределенной вычислительной среде
    Компьютерные исследования и моделирование, 2015, т. 7, № 3, с. 533-537

    В то время как каждая задача воссоздания артефактов уникальна, моделирование фасадов, фундаментов и конструктивных элементов строений может быть параметризовано. В работе рассмотрен комплекс существующих программных библиотек и решений, которые необходимо объединить в единую вычислительную систему для решения такой задачи. Представлен алгоритм генерации трехмерного заполнения реконструируемых объектов. Рассмотрена архитектура решения, необходимая для переноса системы в облачную среду.

    Iakushkin O.O., Degtyarev A.B., Shvemberger S.V.
    Decomposition of the modeling task of some objects of archeological research for processing in a distributed computer system
    Computer Research and Modeling, 2015, v. 7, no. 3, pp. 533-537

    Although each task of recreating artifacts is truly unique, the modeling process for façades, foundations and building elements can be parametrized. This paper is focused on a complex of the existing programming libraries and solutions that need to be united into a single computer system to solve such a task. An algorithm of generating 3D filling of objects under reconstruction is presented. The solution architecture necessary for the system's adaptation for a cloud environment is studied.

    Просмотров за год: 1. Цитирований: 2 (РИНЦ).
  6. Минкин А.С., Книжник А.А., Потапкин Б.В.
    Реализация алгоритмов межатомного взаимодействия с использованием технологии OpenCL
    Компьютерные исследования и моделирование, 2015, т. 7, № 3, с. 549-558

    Моделирование углеродных наноструктур методом классической молекулярной динамики требует больших объемов вычислений. Один из способов повышения производительности соответствующих алгоритмов состоит в их адаптации для работы с SIMD-подобными архитектурами, в частности, с графическими процессорами. В данной работе рассмотрены особенности алгоритмов вычисления многочастичного взаимодействия на основе классических потенциалов Терсоффа и погруженного атома с использованием технологии OpenCL. Стандарт OpenCL позволяет обеспечить универсальность и переносимость алгоритмов и может быть эффективно использован для гетерогенных вычислений. В данной работе сделана оценка производительности OpenCL алгоритмов вычисления межатомного взаимодействия для систем на базе центральных и графических процессоров. Показано, что использование атомарных операций эффективно для вычисления потенциала Терсоффа и неэффективно в случае потенциала погруженного атома. Оценка производительности показывает значительное ускорение GPU реализации алгоритмов вычисления потенциалов межатомного взаимодействия по сравнению с соответствующими однопоточными алгоритмами.

    Minkin A.S., Knizhnik A.A., Potapkin B.V.
    OpenCL realization of some many-body potentials
    Computer Research and Modeling, 2015, v. 7, no. 3, pp. 549-558

    Modeling of carbon nanostructures by means of classical molecular dynamics requires a lot of computations. One of the ways to improve the performance of basic algorithms is to transform them for running on SIMD-type computing systems such as systems with dedicated GPU. In this work we describe the development of algorithms for computation of many-body interaction based on Tersoff and embedded-atom potentials by means of OpenCL technology. OpenCL standard provides universality and portability of the algorithms and can be successfully used for development of the software for heterogeneous computing systems. The performance of algorithms is evaluated on CPU and GPU hardware platforms. It is shown that concurrent memory writes is effective for Tersoff bond order potential. The same approach for embedded-atom potential is shown to be slower than algorithm without concurrent memory access. Performance evaluation shows a significant GPU acceleration of energy-force evaluation algorithms for many-body potentials in comparison to the corresponding serial implementations.

    Просмотров за год: 4. Цитирований: 1 (РИНЦ).
  7. Мароши А.К., Ловаш Р.
    Определение добровольных вычислений: формальный подход
    Компьютерные исследования и моделирование, 2015, т. 7, № 3, с. 565-571

    Добровольные вычисления напоминают частные desktop гриды, тогда как desktop гриды не полностью эквивалентны добровольным вычислениям. Известны несколько попыток отличить и категоризировать их, используя как неофициальные, так и формальные методы. Однако, наиболее формальные подходы моделируют специфическое промежуточное ПО (middleware) и не сосредотачиваются на общем понятии добровольного или desktop грид. Эта работа и есть попытка формализовать их характеристики и отношения. Для этой цели применяется формальное моделирование, которое пытается охватить семантику их функциональных возможностей — в противоположность сравнениям, основанным на свойствах, особенностях, и т. п. Мы применяем этот метод моделирования с целью формализовать добровольную вычислительную систему Открытой Инфраструктуры Беркли для сетевых вычислений (BOINC) [Anderson D. P., 2004].

    Marosi A.C., Lovas R.
    Defining volunteer computing: a formal approach
    Computer Research and Modeling, 2015, v. 7, no. 3, pp. 565-571

    Volunteer computing resembles private desktop grids whereas desktop grids are not fully equivalent to volunteer computing. There are several attempts to distinguish and categorize them using informal and formal methods. However, most formal approaches model a particular middleware and do not focus on the general notion of volunteer or desktop grid computing. This work makes an attempt to formalize their characteristics and relationship. To this end formal modeling is applied that tries to grasp the semantic of their functionalities — as opposed to comparisons based on properties, features, etc. We apply this modeling method to formalize the Berkeley Open Infrastructure for Network Computing (BOINC) [Anderson D. P., 2004] volunteer computing system.

  8. Рид Р., Кокс М.А., Ригли Т., Мелладо Б.
    Характеристика тестирования центрального процессора на базе процессоров ARM
    Компьютерные исследования и моделирование, 2015, т. 7, № 3, с. 581-586

    Большие научные проекты генерируют данные на всё более возрастающих скоростях. Типичные методы включают в себя хранение данных на диске, после незначительного фильтрования, а затем их обработку на больших компьютерных фермах. Производство данных достигло той точки, когда требуется обработка в режиме on-line, чтобы отфильтровать данные до управляемых размеров. Потенциальное решение включает в себя использование низко затратных процессоров ARM с маленькой мощностью в больших массивах для обеспечения массивного распараллеливания для вычислений потока данных (DSC). Главное преимущество в использовании систем на одном кристалле (SoCs) присуще самой философии этой разработки. Системы на микросхеме, прежде всего, используются в мобильных устройствах и, следовательно, потребляют меньше энергии при своей относительно хорошей производительности. Дано описание тестирования трех различных моделей процессоров ARM.

    Reed R.G., Cox M.A., Wrigley T., Mellado B.
    A CPU benchmarking characterization of ARM based processors
    Computer Research and Modeling, 2015, v. 7, no. 3, pp. 581-586

    Big science projects are producing data at ever increases rates. Typical techniques involve storing the data to disk, after minor filtering, and then processing it in large computer farms. Data production has reached a point where on-line processing is required in order to filter the data down to manageable sizes. A potential solution involves using low-cost, low-power ARM processors in large arrays to provide massive parallelisation for data stream computing (DSC). The main advantage in using System on Chips (SoCs) is inherent in its design philosophy. SoCs are primarily used in mobile devices and hence consume less power while maintaining relatively good performance. A benchmarking characterisation of three different models of ARM processors will be presented.

    Просмотров за год: 1.
  9. Ригли Т., Рид Р., Мелладо Б.
    Описание тестирования памяти однокристальных систем на основе ARM
    Компьютерные исследования и моделирование, 2015, т. 7, № 3, с. 607-613

    Мощность вычислений традиционно находится в фокусе при разработке крупномасштабных вычислительных систем, в большинстве случаев такие проекты остаются плохо оборудованными и не могут эффективно справляться с ориентированными на высокую производительность рабочими нагрузками. Кроме того, стоимость и вопросы энергопотребления для крупномасштабных вычислительных систем всё ещё остаются источником беспокойства. Потенциальное решение включает в себя использование низко затратных процессоров ARM с маленькой мощностью в больших массивах в манере, которая обеспечивает массивное распараллеливание и высокую пропускную способность, производительность (относительно существующих крупномасштабных вычислительных проектов). Предоставление большего приоритета производительности и стоимости повышает значимость производительности оперативной памяти и оптимизации проекта до высокой производительности всей системы. Используя несколько эталонных тестов производительности оперативной памяти для оценки различных аспектов производительности RAM и кэш-памяти, мы даем описание производительности четырех различных моделей однокристальной системы на основе ARM, а именно Cortex-A9, Cortex-A7, Cortex-A15 r3p2 и Cortex-A15 r3p3. Затем мы обсуждаем значимость этих результатов для вычислений большого объема и потенциала для ARM- процессоров.

    Wrigley T., Reed R.G., Mellado B.
    Memory benchmarking characterisation of ARM-based SoCs
    Computer Research and Modeling, 2015, v. 7, no. 3, pp. 607-613

    Computational intensity is traditionally the focus of large-scale computing system designs, generally leaving such designs ill-equipped to efficiently handle throughput-oriented workloads. In addition, cost and energy consumption considerations for large-scale computing systems in general remain a source of concern. A potential solution involves using low-cost, low-power ARM processors in large arrays in a manner which provides massive parallelisation and high rates of data throughput (relative to existing large-scale computing designs). Giving greater priority to both throughput-rate and cost considerations increases the relevance of primary memory performance and design optimisations to overall system performance. Using several primary memory performance benchmarks to evaluate various aspects of RAM and cache performance, we provide characterisations of the performances of four different models of ARM-based system-on-chip, namely the Cortex-A9, Cortex- A7, Cortex-A15 r3p2 and Cortex-A15 r3p3. We then discuss the relevance of these results to high volume computing and the potential for ARM processors.

  10. Богданов А.В., Дегтярева Я.А., Захарчук Е.А., Тихонова Н.А., Фукс В.Р., Храмушин В.Н.
    Интерактивный графический инструментарий глобального вычислительного эксперимента в службе морских оперативных прогнозов
    Компьютерные исследования и моделирование, 2015, т. 7, № 3, с. 641-648

    Эффективность и полнота численного моделирования в океанологии и гидрометеорологии всецело обусловливаются алгоритмическими особенностями построения интерактивного вычислительного эксперимента в масштабах Мирового океана с адаптивным покрытием закрытых морей и прибрежных акваторий уточненными математическими моделями, с возможностью программного распараллеливания уточняющих расчетов вблизи конкретных — защищаемых участков морского побережья. Важной составляющей исследований представляются методы непрерывной графической визуализации в ходе вычислений, в том числе осуществляемой в параллельных процессах с общей оперативной памятью или по контрольным точкам на внешних носителях. Результаты вычислительных экспериментов используются в описании гидродинамических процессов вблизи побережья, учет которых важен в организации морских служб контроля и прогноза опасных морских явлений.

    Bogdanov A.V., Degtyreva Ya.A., Zakharchuk E.A., Tikhonova N.A., Foux V.R., Khramushin V.N.
    Interactive graphical toolkit global computer simulations in marine service operational forecasts
    Computer Research and Modeling, 2015, v. 7, no. 3, pp. 641-648

    Efficiency and completeness of the numerical simulation in oceanography and hydrometeorology are entirely determined by algorithmic features of the construction of an interactive computer simulations in the scale of the oceans with adaptive coated closed seas and coastal waters refined mathematical models, with the possibility of specifying software parallelization calculations near the concrete — the protected areas of the sea coast. An important component of the research is continuous graphical visualization techniques in the course of calculations, including those undertaken in parallel processes with shared RAM or test points on the external media. The results of computational experiments are used in the description of hydrodynamic processes near the coast, which is important in keeping the organization of sea control services and forecasting marine hazards.

    Цитирований: 1 (РИНЦ).
Страницы: « первая предыдущая следующая

Журнал индексируется в Scopus

Полнотекстовая версия журнала доступна также на сайте научной электронной библиотеки eLIBRARY.RU

Журнал включен в базу данных Russian Science Citation Index (RSCI) на платформе Web of Science

Международная Междисциплинарная Конференция "Математика. Компьютер. Образование"

Международная Междисциплинарная Конференция МАТЕМАТИКА. КОМПЬЮТЕР. ОБРАЗОВАНИЕ.