Текущий выпуск Номер 2, 2025 Том 17

Все выпуски

Результаты поиска по 'point estimation':
Найдено статей: 42
  1. Котлярова Е.В., Гасников А.В., Гасникова Е.В., Ярмошик Д.В.
    Поиск равновесий в двухстадийных моделях распределения транспортных потоков по сети
    Компьютерные исследования и моделирование, 2021, т. 13, № 2, с. 365-379

    В работе описывается двухстадийная модель равновесного распределения транспортных потоков. Модель состоит из двух блоков, где первый блок — модель расчета матрицы корреспонденций, а второй блок — модель равновесного распределения транспортных потоков по путям. Первая модель, используя матрицу транспортных затрат (затраты на перемещение из одного района в другой, в данном случае — время), рассчитывает матрицу корреспонденций, описывающую потребности в объемах передвижения из одного района в другой район. Для решения этой задачи предлагается использовать один из наиболее популярных в урбанистике способов расчета матрицы корреспонценций — энтропийную модель. Вторая модель на базе равновесного принципа Нэша–Вардропа (каждый водитель выбирает кратчайший для себя путь) описывает, как именно потребности в перемещениях, задаваемые матрицей корреспонденций, распределяются по возможным путям. Таким образом, зная способы распределения потоков по путям, можно рассчитать матрицу затрат. Равновесием в двухстадийной модели транспортных потоков называют неподвижную точку цепочки из этих двух моделей. Практически ранее отмеченную задачу поиска неподвижной точки решали методом простых итераций. К сожалению, на данный момент вопрос сходимости и оценки скорости сходимости для этого метода не изучен. Кроме того, при численной реализации алгоритма возникает множество проблем. В частности, при неудачном выборе точки старта возникают ситуации, в которых алгоритм требует вычисления экстремально больших чисел и превышает размер доступной памяти даже в самых современных вычислительных машинах. Поэтому в статье предложены способ сведения задачи поиска описанного равновесия к задаче выпуклой негладкой оптимизации и численный способ решения полученной задачи оптимизации. Для обоих методов решения задачи были проведены численные эксперименты. Авторами использовались данные для Владивостока (для этого была обработана информация из различных источников и собрана в новый пакет) и двух небольших городов США. Методом простой прогонки двух блоков сходимости добиться не удалось, тогда как вторая модель для того же набора данных продемонстрировала скорость сходимости $k^{−1.67}$.

    Kotliarova E.V., Gasnikov A.V., Gasnikova E.V., Yarmoshik D.V.
    Finding equilibrium in two-stage traffic assignment model
    Computer Research and Modeling, 2021, v. 13, no. 2, pp. 365-379

    Authors describe a two-stage traffic assignment model. It contains of two blocks. The first block consists of a model for calculating a correspondence (demand) matrix, whereas the second block is a traffic assignment model. The first model calculates a matrix of correspondences using a matrix of transport costs (it characterizes the required volumes of movement from one area to another, it is time in this case). To solve this problem, authors propose to use one of the most popular methods of calculating the correspondence matrix in urban studies — the entropy model. The second model describes exactly how the needs for displacement specified by the correspondence matrix are distributed along the possible paths. Knowing the ways of the flows distribution along the paths, it is possible to calculate the cost matrix. Equilibrium in a two-stage model is a fixed point in the sequence of these two models. In practice the problem of finding a fixed point can be solved by the fixed-point iteration method. Unfortunately, at the moment the issue of convergence and estimations of the convergence rate for this method has not been studied quite thoroughly. In addition, the numerical implementation of the algorithm results in many problems. In particular, if the starting point is incorrect, situations may arise where the algorithm requires extremely large numbers to be computed and exceeds the available memory even on the most modern computers. Therefore the article proposes a method for reducing the problem of finding the equilibrium to the problem of the convex non-smooth optimization. Also a numerical method for solving the obtained optimization problem is proposed. Numerical experiments were carried out for both methods of solving the problem. The authors used data for Vladivostok (for this city information from various sources was processed and collected in a new dataset) and two smaller cities in the USA. It was not possible to achieve convergence by the method of fixed-point iteration, whereas the second model for the same dataset demonstrated convergence rate $k^{-1.67}$.

  2. Грачев В.А., Найштут Ю.С.
    Прогнозирование потери несущей способности пологих выпуклых оболочек на основе анализа нелинейных колебаний
    Компьютерные исследования и моделирование, 2023, т. 15, № 5, с. 1189-1205

    Задачи потери устойчивости тонких упругих оболочек снова стали актуальными, так как в последние годы обнаружено несоответствие между стандартами многих стран по определению нагрузок, вызывающих потерю несущей способности пологих оболочек, и результатами экспериментов по испытаниям тонкостенных авиационных конструкций, изготовленных из высокопрочных сплавов. Основное противоречие состоит в том, что предельные внутренние напряжения, при которых наблюдается потеря устойчивости (хлопок) оболочек, оказываются меньше тех, которые предсказывает принятая теория расчета, отраженная в стандартах США и Европы. Действующие нормативные акты основаны на статической теории пологих оболочек, предложенной в 1930-е годы: в рамках нелинейной теории упругости для тонкостенных структур выделяются устойчивые решения, значительно отличающиеся от форм равновесия, присущих небольшим начальным нагрузкам. Минимальная величина нагрузки, при которой существует альтернативная форма равновесия (низшая критическая нагрузка), принималась в качестве предельно допустимой. В 1970-е годы было установлено, что такой подход оказывается неприемлемым при сложных загружениях. Подобные случаи ранее не встречались на практике, сейчас они появились на более тонких изделиях, эксплуатируемых в сложных условиях. Поэтому необходим пересмотр исходных теоретических положений по оценке несущей способности. Основой теории могут служить недавние математические результаты, установившие асимптотическую близость расчетов по двум схемам: трехмерной динамической теории упругости и динамической теории пологих выпуклых оболочек. В предлагаемой работе вначале формулируется динамическая теория пологих оболочек, которая затем сводится к одному разрешающему интегро-дифференциальному уравнению (после построения специальной функции Грина). Показано, что полученное нелинейное уравнение допускает разделение переменных, имеет множество периодических по времени решений, которые удовлетворяют уравнению Дуффинга «с мягкой пружиной». Это уравнение хорошо изучено, его численный анализ позволяет находить амплитуду и период колебаний в зависимости от свойств функции Грина. Если вызвать колебания оболочки с помощью пробной гармонической по времени нагрузки, то можно измерить перемещения точек поверхности в момент максимальной амплитуды. Предлагается экспериментальная установка, в которой генерируются резонансные колебания пробной нагрузкой, направленной по нормали к поверхности. Экспериментальные измерения перемещений оболочки, а также амплитуды и периода колебаний дают возможность рассчитать коэффициент запаса несущей способности конструкции неразрушающим методом в условиях эксплуатации.

    Grachev V.A., Nayshtut Yu.S.
    Buckling prediction for shallow convex shells based on the analysis of nonlinear oscillations
    Computer Research and Modeling, 2023, v. 15, no. 5, pp. 1189-1205

    Buckling problems of thin elastic shells have become relevant again because of the discrepancies between the standards in many countries on how to estimate loads causing buckling of shallow shells and the results of the experiments on thinwalled aviation structures made of high-strength alloys. The main contradiction is as follows: the ultimate internal stresses at shell buckling (collapsing) turn out to be lower than the ones predicted by the adopted design theory used in the USA and European standards. The current regulations are based on the static theory of shallow shells that was put forward in the 1930s: within the nonlinear theory of elasticity for thin-walled structures there are stable solutions that significantly differ from the forms of equilibrium typical to small initial loads. The minimum load (the lowest critical load) when there is an alternative form of equilibrium was used as a maximum permissible one. In the 1970s it was recognized that this approach is unacceptable for complex loadings. Such cases were not practically relevant in the past while now they occur with thinner structures used under complex conditions. Therefore, the initial theory on bearing capacity assessments needs to be revised. The recent mathematical results that proved asymptotic proximity of the estimates based on two analyses (the three-dimensional dynamic theory of elasticity and the dynamic theory of shallow convex shells) could be used as a theory basis. This paper starts with the setting of the dynamic theory of shallow shells that comes down to one resolving integrodifferential equation (once the special Green function is constructed). It is shown that the obtained nonlinear equation allows for separation of variables and has numerous time-period solutions that meet the Duffing equation with “a soft spring”. This equation has been thoroughly studied; its numerical analysis enables finding an amplitude and an oscillation period depending on the properties of the Green function. If the shell is oscillated with the trial time-harmonic load, the movement of the surface points could be measured at the maximum amplitude. The study proposes an experimental set-up where resonance oscillations are generated with the trial load normal to the surface. The experimental measurements of the shell movements, the amplitude and the oscillation period make it possible to estimate the safety factor of the structure bearing capacity with non-destructive methods under operating conditions.

  3. Солбаков В.В., Зацепа С.Н., Ивченко А.А.
    Математическая модель для оценки зоны интенсивного испарения газового конденсата при выбросах на мелководных скважинах
    Компьютерные исследования и моделирование, 2025, т. 17, № 2, с. 243-259

    Безопасное проведение аварийно-восстановительных работ на аварийных морских газоконденсатных скважинах возможно при учете опасных факторов, препятствующих проведению противофонтанных мероприятий. Одним из таких факторов является загазованность района работ вследствие выхода из водной толщи большого количества легкого, по сравнению с воздухом, природного газа, а также паров более тяжелых компонентов газового конденсата (ГК). Для оценки распределения взрывоопасных концентраций паров нефтепродукта в приводном слое атмосферы необходимо определить характеристики источника загазованности. На основании анализа теоретических работ, посвященных формированию поля скорости в верхнем слое моря вследствие выхода на поверхность большого количества газа, предложена аналитическая модель для расчета размеров области, в которой происходит испарение значительного количества поступающего на поверхность ГК при авариях на мелководных скважинах. Рассматривается стационарный режим истечения пластового продукта при открытом фонтанировании газонефтяных скважин морского базирования при подводном расположении их устья. Построена малопараметрическая модель испарения нефтепродуктов из пленок различной толщины. Показано, что размер зоны интенсивного испарения ГК при подводном выбросе на мелководных скважинах определяется объемным потоком жидкой фракции ГК, его фракционным составом и выбранным порогом для оценки потока паров нефтепродукта в атмосферу. В контексте данной работы мелководными называются скважины при дебите газа от 1 до 20 млн м3 на глубинах порядка 50–200 метров. В этом случае струя пластового флюида из устья скважины на морском дне трансформируется в пузырьковый шлейф, типичная для летне-осеннего периода стратификация водной толщи не ограничивает выход шлейфа на поверхность моря, а скорость подъема пузырьков позволяет не принимать во внимание процесс растворения газа. Проведенный анализ был ограничен условиями близкими к штилевым. Такие условия благоприятны для проведения морских операций, однако неблагоприятны с точки зрения рассеяния высоких концентраций паров нефтепродуктов в приводном слое атмосферы над морем. В результате проведенной работы предложено аналитическое соотношение для приближенной оценки зоны интенсивного испарения ГК.

    Solbakov V.V., Zatsepa S.N., Ivchenko A.A.
    A mathematical model for estimating the zone of intense evaporation of gas condensate during emissions from shallow wells
    Computer Research and Modeling, 2025, v. 17, no. 2, pp. 243-259

    Safe carrying out of emergency recovery operations at emergency offshore gas condensate wells is possible when taking into account the hazardous factors that prevent anti-fontanning measures. One of such factors is the gassiness of the operation zone due to the release from the water column of a large amount of light, as compared to air, natural gas, as well as vapours of heavier components of gas condensate. To estimate the distribution of explosive concentration of petroleum product vapours in the near surface layer of the atmosphere, it is necessary to determine the characteristics of the source of the contamination. Based on the analysis of theoretical works concerning to the formation of the velocity field in the upper layer of the sea as a result of large amounts of gas coming to the surface, an analytical model is proposed to calculate the size of the area in which a significant amount of gas condensate coming to the surface is vaporised during accidents at shallow-water wells. The stationary regime of reservoir fluid flow during fountaining of offshore gas and oil wells with an underwater location of their mouths is considered. A low-parametric model of oil product evaporation from films of different thickness is constructed. It is shown that the size of the zone of intensive evaporation at shallow-water wells is determined by the volume flow of liquid fraction, its fractional composition and selected threshold for estimation of oil product vapour flow into the atmosphere. In the context of this work shallow water wells are wells with gas flow rate from 1 to 20 million cubic meters at sea depths of about 50–200 metres. In this case, the formation fluid jet from the wellhead on the seabed is transformed into a bubble plume, the stratification of the water column, typical for the summer-autumn period, does not limit the plume’s exit to the sea surface, and the velocity of bubble rise allows the gas dissolution process to be disregardded. The analysis was limited to almost calm hydrometeorological conditions. Such conditions are favourable for offshore operations, but unfavourable from the point of view of dispersion of high concentrations of oil product vapours in the near surface layer of the atmosphere. As a result of this work, an analytical dependence for an approximate assessment of the zone of intensive evaporation of gas condensate is proposed.

  4. Голубев В.И., Хохлов Н.И.
    Оценка анизотропии сейсмического отклика от трещиноватых геологических объектов
    Компьютерные исследования и моделирование, 2018, т. 10, № 2, с. 231-240

    Сейсмическая разведка является наиболее распространённым методом поиска и разведки месторождений полезных ископаемых: нефти и природного газа. Зародившись в начале XX века, она получила значительное развитие и в настоящий момент используется практически всеми сервисными нефтяными компаниями. Основными ее преимуществами являются приемлемая стоимость проведения полевых работ (по сравнению с бурением скважин) и точность восстановления характеристик подповерхностного пространства. Однако с открытием нетрадиционных месторождений (например, Арктический шельф, Баженовская свита) актуальной стала задача усовершенствования существующих и создания новых технологий обработки сейсмических данных. Значительное развитие в данном направлении возможно с использованием численного моделирования распространения сейсмических волн в реалистичных моделях геологического массива, поскольку реализуется возможность задания произвольной внутренней структуры среды с последующей оценкой синтетического сигнала-отклика.

    Настоящая работа посвящена исследованию пространственных динамических процессов, протекающих в геологических средах, содержащих трещиноватые включения, в процессе сейсмической разведки. Авторами построена трехмерная модель слоистого массива, содержащего пласт из флюидонасыщенных трещин, позволяющая оценить сигнал-отклик при варьировании структуры неоднородного включения. Для описания физических процессов используется система уравнений линейно-упругого тела в частных производных второго порядка, которая решается численно сеточно-характеристическим методом на гексаэдральных расчетных сетках. При этом плоскости трещин выделяются на этапе построения расчетной сетки, в дальнейшем используется дополнительная корректировка, обеспечивающая корректный сейсмический отклик для параметров модели, характерных для геологических сред.

    В работе получены площадные трехкомпонентные сейсмограммы с общим пунктом взрыва. На их основе проведена оценка влияния структуры трещиноватой среды на анизотропию сейсмического отклика, регистрируемого на дневной поверхности на различном удалении от источника. Установлено, что кинематические характеристики сигнала остаются постоянными, тогда как динамические характеристики для упорядоченных и неупорядоченных моделей могут различаться на десятки процентов.

    Golubev V.I., Khokhlov N.I.
    Estimation of anisotropy of seismic response from fractured geological objects
    Computer Research and Modeling, 2018, v. 10, no. 2, pp. 231-240

    Seismic survey process is the common method of prospecting and exploration of deposits: oil and natural gas. Invented at the beginning of the XX century, it has received significant development and is currently used by almost all service oil companies. Its main advantages are the acceptable cost of fieldwork (in comparison with drilling wells) and the accuracy of estimating the characteristics of the subsurface area. However, with the discovery of non-traditional deposits (for example, the Arctic shelf, the Bazhenov Formation), the task of improving existing and creating new seismic data processing technologies became important. Significant development in this direction is possible with the use of numerical simulation of the propagation of seismic waves in realistic models of the geological medium, since it is possible to specify an arbitrary internal structure of the medium with subsequent evaluation of the synthetic signal-response.

    The present work is devoted to the study of spatial dynamic processes occurring in geological medium containing fractured inclusions in the process of seismic exploration. The authors constructed a three-dimensional model of a layered massif containing a layer of fluid-saturated cracks, which makes it possible to estimate the signal-response when the structure of the inhomogeneous inclusion is varied. To describe physical processes, we use a system of equations for a linearly elastic body in partial derivatives of the second order, which is solved numerically by a grid-characteristic method on hexahedral grid. In this case, the crack planes are identified at the stage of constructing the grid, and further an additional correction is used to ensure a correct seismic response for the model parameters typical for geological media.

    In the paper, three-component area seismograms with a common explosion point were obtained. On their basis, the effect of the structure of a fractured medium on the anisotropy of the seismic response recorded on the day surface at a different distance from the source was estimated. It is established that the kinematic characteristics of the signal remain constant, while the dynamic characteristics for ordered and disordered models can differ by tens of percents.

    Просмотров за год: 11. Цитирований: 4 (РИНЦ).
  5. Алёшин И.М., Малыгин И.В.
    Интерпретация результатов радиоволнового просвечивания методами машинного обучения
    Компьютерные исследования и моделирование, 2019, т. 11, № 4, с. 675-684

    В настоящий момент значительно возросла глубина работ по разведке кимберлитовых тел и рудных месторождений. Традиционные геологические методы поиска оказались неэффективными. Практически единственным прямым методом поиска является бурение системы скважин до глубин, которые обеспечивают доступ к вмещающим породам. Из-за высокой стоимости бурения возросла роль межскважинных методов. Они позволяют увеличить среднее расстояние между скважинами без существенного снижения вероятности пропуска кимберлитового или рудного тела. Метод радиоволнового просвечивания особенно эффективен при поиске объектов, отличающихся высокой контрастностью электропроводящих свойств. Физическую основу метода составляет зависимость распространения электромагнитной волны от проводящих свойств среды распространения. Источником и приемником электромагнитного излучения является электрический диполь. При измерениях они размещаются в соседних скважинах. Расстояние между источником и приемником известно. Поэтому, измерив величину уменьшения амплитуды электромагнитной волны при ее распространении между скважинами, можно оценить коэффициент поглощения среды. Породе с низким электрическим сопротивлением соответствует высокое поглощение радиоволн. Поэтому данные межскважинных измерений позволяют оценить эффективное электрическое сопротивление породы. Обычно источник и приемник синхронно погружаются в соседние скважины. Измерение величины амплитуды электрического поля в приемнике позволяет оценить среднее значение коэффициента затухания на линии, соединяющей источник и приемник. Измерения проводятся во время остановок, приблизительно каждые 5 м. Расстояние между остановками значительно меньше расстояния между соседними скважинами. Это приводит к значительной пространственной анизотропии в распределении данных. При проведении разведочного бурения скважины покрывают большую площадь. Наша цель состоит в построении трехмерной модели распределения электрических свойств межскважинного пространства на всем участке по результатом совокупности измерений. Анизотропия пространственного распределения измерений препятствует использованию стандартных методов геостатистики. Для построения трехмерной модели коэффициента затухания мы использовали один из методов теории машинного обучения — метод ближайших соседей. В этом методе коэффициент поглощения в заданной точке определяется его значениями для $k$ ближайших измерений. Число $k$ определяется из дополнительных соображений. Влияния анизотропии пространственного распределения измерений удается избежать, изменив пространственный масштаб в горизонтальном направлении. Масштабный множитель $\lambda$ является еще одним внешним параметром задачи. Для выбора значений параметров $k$ и $\lambda$ мы использовали коэффициент детерминации. Для демонстрации процедуры построения трехмерного образа коэффициента поглощения мы воспользовались данными межскважинного радиоволнового просвечивания, полученные на одном из участков в Якутии.

    Aleshin I.M., Malygin I.V.
    Machine learning interpretation of inter-well radiowave survey data
    Computer Research and Modeling, 2019, v. 11, no. 4, pp. 675-684

    Traditional geological search methods going to be ineffective. The exploration depth of kimberlite bodies and ore deposits has increased significantly. The only direct exploration method is to drill a system of wells to the depths that provide access to the enclosing rocks. Due to the high cost of drilling, the role of inter-well survey methods has increased. They allows to increase the mean well spacing without significantly reducing the kimberlite or ore body missing probability. The method of inter-well radio wave survey is effective to search for high contrast conductivity objects. The physics of the method based on the dependence of the electromagnetic wave propagation on the propagation medium conductivity. The source and receiver of electromagnetic radiation is an electric dipole, they are placed in adjacent wells. The distance between the source and receiver is known. Therefore we could estimate the medium absorption coefficient by the rate of radio wave amplitude decrease. Low electrical resistance rocks corresponds to high absorption of radio waves. The inter-well measurement data allows to estimate an effective electrical resistance (or conductivity) of the rock. Typically, the source and receiver are immersed in adjacent wells synchronously. The value of the of the electric field amplitude measured at the receiver site allows to estimate the average value of the attenuation coefficient on the line connecting the source and receiver. The measurements are taken during stops, approximately every 5 m. The distance between stops is much less than the distance between adjacent wells. This leads to significant spatial anisotropy in the measured data distribution. Drill grid covers a large area, and our point is to build a three-dimensional model of the distribution of the electrical properties of the inter-well space throughout the whole area. The anisotropy of spatial distribution makes hard to the use of standard geostatistics approach. To build a three-dimensional model of attenuation coefficient, we used one of machine learning theory methods, the method of nearest neighbors. In this method, the value of the absorption coefficient at a given point is calculated by $k$ nearest measurements. The number $k$ should be determined from additional reasons. The spatial distribution anisotropy effect can be reduced by changing the spatial scale in the horizontal direction. The scale factor $\lambda$ is one yet external parameter of the problem. To select the parameters $k$ and $\lambda$ values we used the determination coefficient. To demonstrate the absorption coefficient three-dimensional image construction we apply the procedure to the inter-well radio wave survey data. The data was obtained at one of the sites in Yakutia.

    Просмотров за год: 3.
  6. Семакин А.Н.
    Оценка масштабируемости программы расчета движения примесей в атмосфере средствами симулятора gem5
    Компьютерные исследования и моделирование, 2020, т. 12, № 4, с. 773-794

    В данной работе мы предлагаем новую эффективную программную реализацию алгоритма расчета трансконтинентального переноса примеси в атмосфере от естественного или антропогенного источника на адаптивной конечно-разностной сетке, концентрирующей свои узлы внутри переносимого облака примеси, где наблюдаются резкие изменения значений ее массовой доли, и максимально разрежающей узлы во всех остальных частях атмосферы, что позволяет минимизировать общее количество узлов. Особенностью реализации является представление адаптивной сетки в виде комбинации динамических (дерево, связный список) и статических (массив) структур данных. Такое представление сетки позволяет увеличить скорость выполнения расчетов в два раза по сравнению со стандартным подходом представления адаптивной сетки только через динамические структуры данных.

    Программа создавалась на компьютере с шестиядерным процессором. С помощью симулятора gem5, позволяющего моделировать работу различных компьютерных систем, была произведена оценка масштабируемости программы при переходе на большее число ядер (вплоть до 32) на нескольких моделях компьютерной системы вида «вычислительные ядра – кэш-память – оперативная память» с разной степенью детализации ее элементов. Отмечено существенное влияние состава компьютерной системы на степень масштабируемости исполняемой на ней программы: максимальное ускорение на 32-х ядрах при переходе от двухуровневого кэша к трехуровневому увеличивается с 14.2 до 22.2. Время выполнения программы на модели компьютера в gem5 превосходит время ее выполнения на реальном компьютере в 104–105 раз в зависимости от состава модели и составляет 1.5 часа для наиболее детализированной и сложной модели.

    Также в статье рассматриваются подробный порядок настройки симулятора gem5 и наиболее оптимальный с точки зрения временных затрат способ проведения симуляций, когда выполнение не представляющих интерес участков кода переносится на физический процессор компьютера, где работает gem5, а непосредственно внутри симулятора выполняется лишь исследуемый целевой кусок кода.

    In this work we have developed a new efficient program for the numerical simulation of 3D global chemical transport on an adaptive finite-difference grid which allows us to concentrate grid points in the regions where flow variables sharply change and coarsen the grid in the regions of their smooth behavior, which significantly minimizes the grid size. We represent the adaptive grid with a combination of several dynamic (tree, linked list) and static (array) data structures. The dynamic data structures are used for a grid reconstruction, and the calculations of the flow variables are based on the static data structures. The introduction of the static data structures allows us to speed up the program by a factor of 2 in comparison with the conventional approach to the grid representation with only dynamic data structures.

    We wrote and tested our program on a computer with 6 CPU cores. Using the computer microarchitecture simulator gem5, we estimated the scalability property of the program on a significantly greater number of cores (up to 32), using several models of a computer system with the design “computational cores – cache – main memory”. It has been shown that the microarchitecture of a computer system has a significant impact on the scalability property, i.e. the same program demonstrates different efficiency on different computer microarchitectures. For example, we have a speedup of 14.2 on a processor with 32 cores and 2 cache levels, but we have a speedup of 22.2 on a processor with 32 cores and 3 cache levels. The execution time of a program on a computer model in gem5 is 104–105 times greater than the execution time of the same program on a real computer and equals 1.5 hours for the most complex model.

    Also in this work we describe how to configure gem5 and how to perform simulations with gem5 in the most optimal way.

  7. Абакумов А.И., Израильский Ю.Г.
    Модели распределения фитопланктона по хлорофиллу в разных условиях среды обитания. Оценка биопродуктивности водной экосистемы
    Компьютерные исследования и моделирование, 2021, т. 13, № 6, с. 1177-1190

    Предложена модель динамики обилия фитопланктона в зависимости от изменения содержания хлорофилла в фитопланктоне под воздействием меняющихся условий среды обитания. Модель учитывает зависимость роста биомассы от условий среды, а также от фотосинтетической активности хлорофилла. Выделены световая и темновая стадии фотосинтеза. Описываются процессы расходования хлорофилла при фотосинтезе на свету и нарастания массы хлорофилла вместе с биомассой фитопланктона. Учитываются условия среды в виде минеральных питательных веществ, освещенности и температуры воды. Модель является распределенной, пространственная переменная соответствует массовой доле хлорофилла в фитопланктоне. Тем самым учтены возможные разбросы доли хлорофилла в фитопланктоне. В модели рассчитывается плотность распределения фитопланктона по доле хлорофилла в нем. Кроме того, вычисляется скорость продуцирования новой биомассы фитопланктона. Параллельно рассмотрены точечные аналоги распределенной модели. В моделях исследованы свойства решений. Продемонстрирована суточная и сезонная, в течение года, динамика распределения фитопланктона по доле хлорофилла. Указаны характеристики скорости первичного продуцирования в суточно или сезонно меняющихся условиях среды. Модельные характеристики динамики роста биомассы фитопланктона показывают, что на свету этот рост примерно в два раза больше, чем в темноте. Это показывает, что освещенность существенно влияет на скорость продуцирования. Сезонная динамика демонстрирует ускоренный рост биомассы весной и осенью. Весенний максимум связан с потеплением в условиях накопленных зимой биогенных веществ, а осенний (несколько меньший) максимум — с накоплением биогенов при летнем спаде биомассы фитопланктона. А биомасса летом уменьшается опять-таки из-за дефицита биогенов. Таким образом, в присутствии света основную роль в динамике фитопланктона играет минеральное питание.

    В целом модель демонстрирует качественно похожую на классические представления динамику биомассы фитопланктона при суточных и сезонных изменениях окружающей среды. Модель представляется пригодной для оценок биопродуктивности водных экосистем. Она может быть дополнена уравнениями и членами уравнений для более подробного описания сложных процессов фотосинтеза. Введение переменных физического пространства обитания и сопряжение модели со спутниковой информацией о поверхности водоема ведут к модельным оценкам биопродуктивности обширных морских районов.

    Abakumov A.I., Izrailsky Y.G.
    Models of phytoplankton distribution over chlorophyll in various habitat conditions. Estimation of aquatic ecosystem bioproductivity
    Computer Research and Modeling, 2021, v. 13, no. 6, pp. 1177-1190

    A model of the phytoplankton abundance dynamics depending on changes in the content of chlorophyll in phytoplankton under the influence of changing environmental conditions is proposed. The model takes into account the dependence of biomass growth on environmental conditions, as well as on photosynthetic chlorophyll activity. The light and dark stages of photosynthesis have been identified. The processes of chlorophyll consumption during photosynthesis in the light and the growth of chlorophyll mass together with phytoplankton biomass are described. The model takes into account environmental conditions such as mineral nutrients, illumination and water temperature. The model is spatially distributed, the spatial variable corresponds to mass fraction of chlorophyll in phytoplankton. Thereby possible spreads of the chlorophyll contents in phytoplankton are taken into consideration. The model calculates the density distribution of phytoplankton by the proportion of chlorophyll in it. In addition, the rate of production of new phytoplankton biomass is calculated. In parallel, point analogs of the distributed model are considered. The diurnal and seasonal (during the year) dynamics of phytoplankton distribution by chlorophyll fraction are demonstrated. The characteristics of the rate of primary production in daily or seasonally changing environmental conditions are indicated. Model characteristics of the dynamics of phytoplankton biomass growth show that in the light this growth is about twice as large as in the dark. It shows, that illumination significantly affects the rate of production. Seasonal dynamics demonstrates an accelerated growth of biomass in spring and autumn. The spring maximum is associated with warming under the conditions of biogenic substances accumulated in winter, and the autumn, slightly smaller maximum, with the accumulation of nutrients during the summer decline in phytoplankton biomass. And the biomass in summer decreases, again due to a deficiency of nutrients. Thus, in the presence of light, mineral nutrition plays the main role in phytoplankton dynamics.

    In general, the model demonstrates the dynamics of phytoplankton biomass, qualitatively similar to classical concepts, under daily and seasonal changes in the environment. The model seems to be suitable for assessing the bioproductivity of aquatic ecosystems. It can be supplemented with equations and terms of equations for a more detailed description of complex processes of photosynthesis. The introduction of variables in the physical habitat space and the conjunction of the model with satellite information on the surface of the reservoir leads to model estimates of the bioproductivity of vast marine areas. Introduction of physical space variables habitat and the interface of the model with satellite information about the surface of the basin leads to model estimates of the bioproductivity of vast marine areas.

  8. Двинских Д.М., Пырэу В.В., Гасников А.В.
    О связях задач стохастической выпуклой минимизации с задачами минимизации эмпирического риска на шарах в $p$-нормах
    Компьютерные исследования и моделирование, 2022, т. 14, № 2, с. 309-319

    В данной работе рассматриваются задачи выпуклой стохастической оптимизации, возникающие в анализе данных (минимизация функции риска), а также в математической статистике (минимизация функции правдоподобия). Такие задачи могут быть решены как онлайн-, так и офлайн-методами (метод Монте-Карло). При офлайн-подходе исходная задача заменяется эмпирической задачей — задачей минимизации эмпирического риска. В современном машинном обучении ключевым является следующий вопрос: какой размер выборки (количество слагаемых в функционале эмпирического риска) нужно взять, чтобы достаточно точное решение эмпирической задачи было решением исходной задачи с заданной точностью. Базируясь на недавних существенных продвижениях в машинном обучении и оптимизации для решения выпуклых стохастических задач на евклидовых шарах (или всем пространстве), мы рассматриваем случай произвольных шаров в $p$-нормах и исследуем, как влияет выбор параметра $p$ на оценки необходимого числа слагаемых в функции эмпирического риска.

    В данной работе рассмотрены как выпуклые задачи оптимизации, так и седловые. Для сильно выпуклых задач были обобщены уже имеющиеся результаты об одинаковых размерах выборки в обоих подходах (онлайн и офлайн) на произвольные нормы. Более того, было показано, что условие сильной выпуклости может быть ослаблено: полученные результаты справедливы для функций, удовлетворяющих условию квадратичного роста. В случае когда данное условие не выполняется, предлагается использовать регуляризацию исходной задачи в произвольной норме. В отличие от выпуклых задач седловые задачи являются намного менее изученными. Для седловых задач размер выборки был получен при условии $\gamma$-роста седловой функции по разным группам переменных. Это условие при $\gamma = 1$ есть не что иное, как аналог условия острого минимума в выпуклых задач. В данной статье было показано, что размер выборки в случае острого минимума (седла) почти не зависит от желаемой точности решения исходной задачи.

    Dvinskikh D.M., Pirau V.V., Gasnikov A.V.
    On the relations of stochastic convex optimization problems with empirical risk minimization problems on $p$-norm balls
    Computer Research and Modeling, 2022, v. 14, no. 2, pp. 309-319

    In this paper, we consider convex stochastic optimization problems arising in machine learning applications (e. g., risk minimization) and mathematical statistics (e. g., maximum likelihood estimation). There are two main approaches to solve such kinds of problems, namely the Stochastic Approximation approach (online approach) and the Sample Average Approximation approach, also known as the Monte Carlo approach, (offline approach). In the offline approach, the problem is replaced by its empirical counterpart (the empirical risk minimization problem). The natural question is how to define the problem sample size, i. e., how many realizations should be sampled so that the quite accurate solution of the empirical problem be the solution of the original problem with the desired precision. This issue is one of the main issues in modern machine learning and optimization. In the last decade, a lot of significant advances were made in these areas to solve convex stochastic optimization problems on the Euclidean balls (or the whole space). In this work, we are based on these advances and study the case of arbitrary balls in the $p$-norms. We also explore the question of how the parameter $p$ affects the estimates of the required number of terms as a function of empirical risk.

    In this paper, both convex and saddle point optimization problems are considered. For strongly convex problems, the existing results on the same sample sizes in both approaches (online and offline) were generalized to arbitrary norms. Moreover, it was shown that the strong convexity condition can be weakened: the obtained results are valid for functions satisfying the quadratic growth condition. In the case when this condition is not met, it is proposed to use the regularization of the original problem in an arbitrary norm. In contradistinction to convex problems, saddle point problems are much less studied. For saddle point problems, the sample size was obtained under the condition of $\gamma$-growth of the objective function. When $\gamma = 1$, this condition is the condition of sharp minimum in convex problems. In this article, it was shown that the sample size in the case of a sharp minimum is almost independent of the desired accuracy of the solution of the original problem.

  9. Кондратьев М.А.
    Методы прогнозирования и модели распространения заболеваний
    Компьютерные исследования и моделирование, 2013, т. 5, № 5, с. 863-882

    Число работ, посвященных прогнозированию инфекционной заболеваемости, стремительно растет по мере появления статистики, позволяющей провести анализ. В настоящей статье представлен обзор основных решений, доступных сегодня для формирования как краткосрочных, так и долгосрочных проекций заболеваемости; указаны их ограничения и возможности практического применения. Рассмотрены традиционные методы анализа временных рядов — регрессионные и авторегрессионные модели; подходы, опирающиеся на машинное обучение — байесовские сети и искусственные нейронные сети; рассуждения на основе прецедентов; техники, базирующиеся на решении задачи фильтрации. Перечислены важнейшие направления разработки математических моделей распространения заболевания: классические аналитические модели, детерминированные и стохастические, а также современные имитационные модели, сетевые и агентные.

    Kondratyev M.A.
    Forecasting methods and models of disease spread
    Computer Research and Modeling, 2013, v. 5, no. 5, pp. 863-882

    The number of papers addressing the forecasting of the infectious disease morbidity is rapidly growing due to accumulation of available statistical data. This article surveys the major approaches for the shortterm and the long-term morbidity forecasting. Their limitations and the practical application possibilities are pointed out. The paper presents the conventional time series analysis methods — regression and autoregressive models; machine learning-based approaches — Bayesian networks and artificial neural networks; case-based reasoning; filtration-based techniques. The most known mathematical models of infectious diseases are mentioned: classical equation-based models (deterministic and stochastic), modern simulation models (network and agent-based).

    Просмотров за год: 71. Цитирований: 19 (РИНЦ).
  10. Аристов В.В., Ильин О.В.
    Методы и задачи кинетического подхода для моделирования биологических структур
    Компьютерные исследования и моделирование, 2018, т. 10, № 6, с. 851-866

    Биологическая структура рассматривается как открытая неравновесная система, свойства которой могут быть описаны на основе кинетических уравнений. Ставятся новые задачи с неравновесными граничными условиями на границе, причем неравновесное состояние (распределение) преобразуется постепенно в равновесное состояние вниз по течению. Область пространственной неоднородности имеет масштаб, зависящий от скорости переноса вещества в открытой системе и характерного времени метаболизма. В предлагаемом приближении внутренняя энергия движения молекул много меньше энергии поступательного движения; в других терминах: кинетическая энергия средней скорости крови существенно выше, чем энергия хаотического движения частиц в крови. Задача о релаксации в пространстве моделирует живую систему, поскольку сопоставляет области термодинамической неравновесности и неоднородности. Поток энтропии в изучаемой системе уменьшается вниз по потоку, что соответствует общим идеям Э. Шрёдингера о том, что живая система «питается» негэнтропией. Вводится величина, определяющая сложность биосистемы, — это разность между величинами неравновесной кинетической энтропии и равновесной энтропией в каждой пространственной точке, затем проинтегрированная по всему пространству. Решения задач о пространственной релаксации позволяют высказать суждение об оценке размера биосистем в целом как областей неравновесности. Результаты сравниваются с эмпирическими данными, в частности для млекопитающих (размеры животных тем больше, чем меньше удельная энергия метаболизма). Что воспроизводится в предлагаемой кинетической модели, поскольку размеры неравновесной области больше в той системе, где меньше скорость реакции, или в терминах кинетического подхода – чем больше время релаксации характерного взаимодействия между молекулами. Подход применяется для обсуждения характеристик и отдельного органа живой системы, а именно зеленого листа. Рассматриваются проблемы старения как деградации открытой неравновесной системы. Аналогия связана со структурой: для замкнутой системы происходит стремление к равновесию структуры для одних и тех же молекул, в открытой системе происходит переход к равновесию частиц, которые меняются из-за метаболизма. Соответственно, выделяются два существенно различных масштаба времени, отношение которых является приблизительно постоянным для различных видов животных. В предположении существования двух этих временных шкал кинетическое уравнение расщепляется на два уравнения, описывающих метаболическую (стационарную) и «деградационную» (нестационарную) части процесса.

    Aristov V.V., Ilyin O.V.
    Methods and problems in the kinetic approach for simulating biological structures
    Computer Research and Modeling, 2018, v. 10, no. 6, pp. 851-866

    The biological structure is considered as an open nonequilibrium system which properties can be described on the basis of kinetic equations. New problems with nonequilibrium boundary conditions are introduced. The nonequilibrium distribution tends gradually to an equilibrium state. The region of spatial inhomogeneity has a scale depending on the rate of mass transfer in the open system and the characteristic time of metabolism. In the proposed approximation, the internal energy of the motion of molecules is much less than the energy of translational motion. Or in other terms we can state that the kinetic energy of the average blood velocity is substantially higher than the energy of chaotic motion of the same particles. We state that the relaxation problem models a living system. The flow of entropy to the system decreases in downstream, this corresponds to Shrödinger’s general ideas that the living system “feeds on” negentropy. We introduce a quantity that determines the complexity of the biosystem, more precisely, this is the difference between the nonequilibrium kinetic entropy and the equilibrium entropy at each spatial point integrated over the entire spatial region. Solutions to the problems of spatial relaxation allow us to estimate the size of biosystems as regions of nonequilibrium. The results are compared with empirical data, in particular, for mammals we conclude that the larger the size of animals, the smaller the specific energy of metabolism. This feature is reproduced in our model since the span of the nonequilibrium region is larger in the system where the reaction rate is shorter, or in terms of the kinetic approach, the longer the relaxation time of the interaction between the molecules. The approach is also used for estimation of a part of a living system, namely a green leaf. The problems of aging as degradation of an open nonequilibrium system are considered. The analogy is related to the structure, namely, for a closed system, the equilibrium of the structure is attained for the same molecules while in the open system, a transition occurs to the equilibrium of different particles, which change due to metabolism. Two essentially different time scales are distinguished, the ratio of which is approximately constant for various animal species. Under the assumption of the existence of these two time scales the kinetic equation splits in two equations, describing the metabolic (stationary) and “degradative” (nonstationary) parts of the process.

    Просмотров за год: 31.
Страницы: « первая предыдущая следующая последняя »

Журнал индексируется в Scopus

Полнотекстовая версия журнала доступна также на сайте научной электронной библиотеки eLIBRARY.RU

Журнал включен в базу данных Russian Science Citation Index (RSCI) на платформе Web of Science

Международная Междисциплинарная Конференция "Математика. Компьютер. Образование"

Международная Междисциплинарная Конференция МАТЕМАТИКА. КОМПЬЮТЕР. ОБРАЗОВАНИЕ.