Текущий выпуск Номер 1, 2025 Том 17

Все выпуски

Результаты поиска по 'error modeling':
Найдено статей: 55
  1. Создание компьютерного лабораторного стенда, позволяющего получать достоверные характеристики, которые могут быть приняты за действительные, с учетом погрешностей и шумов (в чем заключается главная отличительная черта вычислительного эксперимента от модельных исследований), является одной из основных проблем настоящей работы. В ней рассматривается следующая задача: имеется прямоугольный волновод в одномодовом режиме, на широкой стенке которого прорезано сквозное технологическое отверстие, через которое в полость линии передачи помещается образец для исследования. Алгоритм восстановления следующий: в лаборатории производится измерение параметров цепи (S11 и/или S21) в линии передачи с образцом. В компьютерной модели лабораторного стенда воссоздается геометрия образца и запускается итерационный процесс оптимизации (или свипирования) электрофи- зических параметров образца, маской которого являются экспериментальные данные, а критерием остановки — интерпретационная оценка близости к ним. Важно отметить, что разрабатываемая компьютерная модель, одновременно с кажущейся простотой, изначально является плохо обусловленной. Для постановки вычислительного эксперимента используется среда моделирования Comsol. Результаты проведенного вычислительного эксперимента с хорошей степенью точности совпали с результатами лабораторных исследований. Таким образом, экспериментальная верификация проведена для целого ряда значимых компонент, как компьютерной модели в частности, так и алгоритма восстановления параметров объекта в общем. Важно отметить, что разработанная и описанная в настоящей работе компьютерная модель может быть эффективно использована для вычислительного эксперимента по восстановлению полных диэлектрических параметров образца сложной геометрии. Обнаруженными могут также являться эффекты слабой бианизотропии, включая киральность, гиротропность и невзаимность материала. Полученная модель по определению является неполной, однако ее полнота является наивысшей из рассматриваемых вариантов, одновременно с этим результирующая модель оказывается хорошо обусловлена. Особое внимание в данной работе уделено моделированию коаксиально-волноводного перехода, показано, что применение дискретно-элементного подхода предпочтительнее, чем непосредственное моделирование геометрии СВЧ-узла.

    The creation of a virtual laboratory stand that allows one to obtain reliable characteristics that can be proven as actual, taking into account errors and noises (which is the main distinguishing feature of a computational experiment from model studies) is one of the main problems of this work. It considers the following task: there is a rectangular waveguide in the single operating mode, on the wide wall of which a technological hole is cut, through which a sample for research is placed into the cavity of the transmission line. The recovery algorithm is as follows: the laboratory measures the network parameters (S11 and/or S21) in the transmission line with the sample. In the computer model of the laboratory stand, the sample geometry is reconstructed and an iterative process of optimization (or sweeping) of the electrophysical parameters is started, the mask of this process is the experimental data, and the stop criterion is the interpretive estimate of proximity (or residual). It is important to note that the developed computer model, along with its apparent simplicity, is initially ill-conditioned. To set up a computational experiment, the Comsol modeling environment is used. The results of the computational experiment with a good degree of accuracy coincided with the results of laboratory studies. Thus, experimental verification was carried out for several significant components, both the computer model in particular and the algorithm for restoring the target parameters in general. It is important to note that the computer model developed and described in this work may be effectively used for a computational experiment to restore the full dielectric parameters of a complex geometry target. Weak bianisotropy effects can also be detected, including chirality, gyrotropy, and material nonreciprocity. The resulting model is, by definition, incomplete, but its completeness is the highest of the considered options, while at the same time, the resulting model is well conditioned. Particular attention in this work is paid to the modeling of a coaxial-waveguide transition, it is shown that the use of a discrete-element approach is preferable to the direct modeling of the geometry of a microwave device.

  2. Саленек И.А., Селиверстов Я.А., Селиверстов С.А., Софронова Е.А.
    Повышение качества генерации маршрутов в SUMO на основе данных с детекторов с использованием обучения с подкреплением
    Компьютерные исследования и моделирование, 2024, т. 16, № 1, с. 137-146

    Данная работа предлагает новый подход к построению высокоточных маршрутов на основе данных от транспортных детекторов в пакете моделирования трафика SUMO. Существующие инструменты, такие как flowrouter и routeSampler, имеют ряд недостатков, таких как отсутствие взаимодействия с сетью в процессе построения маршрутов. Наш rlRouter использует мультиагентное обучение с подкреплением (MARL), где агенты — это входящие полосы движения, а окружающая среда — дорожная сеть. Добавляя в сеть транспортные средства с определенными маршрутами, агенты получают вознаграждение за сопоставление данных с детекторами транспорта. В качестве алгоритма мультиагентного обучения с подкреплением использовался DQN с разделением параметров между агентами и LSTM-слоем для обработки последовательных данных.

    Поскольку rlRouter обучается внутри симуляции SUMO, он может лучше восстанавливать маршруты, принимая во внимание взаимодействие транспортных средств внутри сети друг с другом и с сетевой инфраструктурой. Мы смоделировали различные дорожные ситуации на трех разных перекрестках, чтобы сравнить производительность маршрутизаторов SUMO с rlRouter. Мы использовали среднюю абсолютную ошибку (MAE) в качестве меры отклонения кумулятивных данных детекторов и от данных маршрутов. rlRouter позволил добиться высокого соответствия данным с детекторов. Мы также обнаружили, что, максимизируя вознаграждение за соответствие детекторам, результирующие маршруты также становятся ближе к реальным. Несмотря на то, что маршруты, восстановленные с помощью rlRouter, превосходят маршруты, полученные с помощью инструментов SUMO, они не полностью соответствуют реальным из-за естественных ограничений петлевых детекторов. Чтобы обеспечить более правдоподобные маршруты, необходимо оборудовать перекрестки другими видами транспортных счетчиков, например, детекторами-камерами.

    Salenek I.A., Seliverstov Y.A., Seliverstov S.A., Sofronova E.A.
    Improving the quality of route generation in SUMO based on data from detectors using reinforcement learning
    Computer Research and Modeling, 2024, v. 16, no. 1, pp. 137-146

    This work provides a new approach for constructing high-precision routes based on data from transport detectors inside the SUMO traffic modeling package. Existing tools such as flowrouter and routeSampler have a number of disadvantages, such as the lack of interaction with the network in the process of building routes. Our rlRouter uses multi-agent reinforcement learning (MARL), where the agents are incoming lanes and the environment is the road network. By performing actions to launch vehicles, agents receive a reward for matching data from transport detectors. Parameter Sharing DQN with the LSTM backbone of the Q-function was used as an algorithm for multi-agent reinforcement learning.

    Since the rlRouter is trained inside the SUMO simulation, it can restore routes better by taking into account the interaction of vehicles within the network with each other and with the network infrastructure. We have modeled diverse traffic situations on three different junctions in order to compare the performance of SUMO’s routers with the rlRouter. We used Mean Absoluter Error (MAE) as the measure of the deviation from both cumulative detectors and routes data. The rlRouter achieved the highest compliance with the data from the detectors. We also found that by maximizing the reward for matching detectors, the resulting routes also get closer to the real ones. Despite the fact that the routes recovered using rlRouter are superior to the routes obtained using SUMO tools, they do not fully correspond to the real ones, due to the natural limitations of induction-loop detectors. To achieve more plausible routes, it is necessary to equip junctions with other types of transport counters, for example, camera detectors.

  3. Марченко Л.Н., Косенок Я.А., Гайшун В.Е., Бруттан Ю.В.
    Моделирование реологических характеристик водных суспензий на основе наноразмерных частиц диоксида кремния
    Компьютерные исследования и моделирование, 2024, т. 16, № 5, с. 1217-1252

    Реологическое поведение водных суспензий на основе наноразмерных частиц диоксида кремния сильно зависит от динамической вязкости, которая непосредственно влияет на применение наножидкостей. Целью данной работы являются разработка и валидация моделей для прогнозирования динамической вязкости от независимых входных параметров: концентрации диоксида кремния SiO2, кислотности рН, а также скорости сдвига $\gamma$. Проведен анализ влияния состава суспензии на ее динамическую вязкость. Выявлены статистически однородные по составу группы суспензий, в рамках которых возможна взаимозаменяемость составов. Показано, что при малых скоростях сдвига реологические свойства суспензий существенно отличаются от свойств, полученных на более высоких скоростях. Установлены значимые положительные корреляции динамической вязкости суспензии с концентрацией SiO2 и кислотностью рН, отрицательные — со скоростью сдвига $\gamma$. Построены регрессионные модели с регуляризацией зависимости динамической вязкости $\eta$ от концентраций SiO2, NaOH, H3PO4, ПАВ (поверхностно-активное вещество), ЭДА (этилендиамин), скорости сдвига $\gamma$. Для более точного прогнозирования динамической вязкости были обучены модели с применением алгоритмов нейросетевых технологий и машинного обучения (многослойного перцептрона MLP, сети радиальной базисной функции RBF, метода опорных векторов SVM, метода случайного леса RF). Эффективность построенных моделей оценивалась с использованием различных статистических метрик, включая среднюю абсолютную ошибку аппроксимации (MAE), среднюю квадратическую ошибку (MSE), коэффициент детерминации $R^2$, средний процент абсолютного относительного отклонения (AARD%). Модель RF показала себя как лучшая модель на обучающей и тестовой выборках. Определен вклад каждой компоненты в построенную модель, показано, что наибольшее влияние на динамическую вязкость оказывает концентрация SiO2, далее кислотность рН и скорость сдвига $\gamma$. Точность предлагаемых моделей сравнивается с точностью ранее опубликованных в литературе моделей. Результаты подтверждают, что разработанные модели можно рассматривать как практический инструмент для изучения поведения наножидкостей, в которых используются водные суспензии на основе наноразмерных частиц диоксида кремния.

    Marchanko L.N., Kasianok Y.A., Gaishun V.E., Bruttan I.V.
    Modeling of rheological characteristics of aqueous suspensions based on nanoscale silicon dioxide particles
    Computer Research and Modeling, 2024, v. 16, no. 5, pp. 1217-1252

    The rheological behavior of aqueous suspensions based on nanoscale silicon dioxide particles strongly depends on the dynamic viscosity, which affects directly the use of nanofluids. The purpose of this work is to develop and validate models for predicting dynamic viscosity from independent input parameters: silicon dioxide concentration SiO2, pH acidity, and shear rate $\gamma$. The influence of the suspension composition on its dynamic viscosity is analyzed. Groups of suspensions with statistically homogeneous composition have been identified, within which the interchangeability of compositions is possible. It is shown that at low shear rates, the rheological properties of suspensions differ significantly from those obtained at higher speeds. Significant positive correlations of the dynamic viscosity of the suspension with SiO2 concentration and pH acidity were established, and negative correlations with the shear rate $\gamma$. Regression models with regularization of the dependence of the dynamic viscosity $\eta$ on the concentrations of SiO2, NaOH, H3PO4, surfactant (surfactant), EDA (ethylenediamine), shear rate γ were constructed. For more accurate prediction of dynamic viscosity, the models using algorithms of neural network technologies and machine learning (MLP multilayer perceptron, RBF radial basis function network, SVM support vector method, RF random forest method) were trained. The effectiveness of the constructed models was evaluated using various statistical metrics, including the average absolute approximation error (MAE), the average quadratic error (MSE), the coefficient of determination $R^2$, and the average percentage of absolute relative deviation (AARD%). The RF model proved to be the best model in the training and test samples. The contribution of each component to the constructed model is determined. It is shown that the concentration of SiO2 has the greatest influence on the dynamic viscosity, followed by pH acidity and shear rate γ. The accuracy of the proposed models is compared to the accuracy of models previously published. The results confirm that the developed models can be considered as a practical tool for studying the behavior of nanofluids, which use aqueous suspensions based on nanoscale particles of silicon dioxide.

  4. Дмитриев А.В., Марков Н.В.
    Двуслойные интервальные взвешенные графы в оценке рыночных рисков
    Компьютерные исследования и моделирование, 2014, т. 6, № 1, с. 159-166

    Данная работа посвящена применению двуслойных интервальных взвешенных графов в прогнозировании нестационарных временных рядов и оценке по полученным прогнозам рыночных рисков. Первый слой графа с интервальными вершинами, формируемый во время первичного обучения системы, отображает все возможные флуктуации системы в отрезке времени, в котором обучали систему. Интервальные вершины второго слоя графа (надстройка над графом первого слоя), отображающие степень ошибки моделируемых значений временного ряда, соединены ребрами с вершинами графа первого слоя. Предложенная модель апробирована на получении 90-дневного прогноза цен на стальные биллеты. Средняя ошибка прогноза составила 2,6 %, что меньше средней ошибки авторегрессионных прогнозов.

    Dmitriev A.V., Markov N.V.
    Double layer interval weighted graphs in assessing the market risks
    Computer Research and Modeling, 2014, v. 6, no. 1, pp. 159-166

    This scientific work is dedicated to applying of two-layer interval weighted graphs in nonstationary time series forecasting and evaluation of market risks. The first layer of the graph, formed with the primary system training, displays potential system fluctuations at the time of system training. Interval vertexes of the second layer of the graph (the superstructure of the first layer) which display the degree of time series modeling error are connected with the first layer by edges. The proposed model has been approved by the 90-day forecast of steel billets. The average forecast error amounts 2,6 % (it’s less than the average forecast error of the autoregression models).

    Просмотров за год: 2. Цитирований: 1 (РИНЦ).
  5. Сухинов А.И., Чистяков А.Е., Семенякина А.А., Никитина А.В.
    Численное моделирование экологического состояния Азовского моря с применением схем повышенного порядка точности на многопроцессорной вычислительной системе
    Компьютерные исследования и моделирование, 2016, т. 8, № 1, с. 151-168

    В статье приводятся результаты трехмерного моделирования экологического состояния мелководного водоема на примере Азовского моря с использованием схем повышенного порядка точности на многопроцессорной вычислительной системе Южного федерального университета. Для решения поставленной задачи были построены и изучены дискретные аналоги операторов конвективного и диффузионного переносов четвертого порядка точности в случае частичной заполненности ячеек расчетной области. Разработанные схемы повышенного (четвертого) порядка точности были использованы при решении задач водной экологии для моделирования пространственного распределения загрязняющих биогенных веществ, вызывающих бурный рост фитопланктона, многие виды которого являются токсичными и вредоносными. Использование схем повышенного порядка точности позволило повысить качество входных данных, а также уменьшить значение погрешности при решении модельных задач водной экологии. Были проведены численные эксперименты для задачи транспорта веществ на основе схем второго и четвертого порядков точностей, которые показали, что для задачи диффузии-конвекции удалось повысить точность в 48,7 раз. Предложен и численно реализован математический алгоритм, предназначенный для восстановления рельефа дна мелководного водоема на основе гидрографической информации (глубины водоема в отдельных точках или изолиний уровня), с помощью которого была получена карта рельефа дна Азовского моря, используемая для построения полей течений, рассчитанных на основе гидродинамической модели. Поля течений водного потока используются в работе в качестве входной информации для моделей водной экологии. Была разработана библиотека двухслойных итерационных методов, предназначенная для решения девятидиагональных сеточных уравнений, возникающих при дискретизации модельных задач изменения концентраций загрязняющих веществ, планктона и рыб на многопроцессорной вычислительной системе, что позволило повысить точность расчетных данных и дало возможность получать оперативные прогнозы изменения экологического состояния мелководного водоема в кратчайшие временные промежутки.

    Sukhinov A.I., Chistyakov A.E., Semenyakina A.A., Nikitina A.V.
    Numerical modeling of ecologic situation of the Azov Sea with using schemes of increased order of accuracy on multiprocessor computer system
    Computer Research and Modeling, 2016, v. 8, no. 1, pp. 151-168

    The article covered results of three-dimensional modeling of ecologic situation of shallow water on the example of the Azov Sea with using schemes of increased order of accuracy on multiprocessor computer system of Southern Federal University. Discrete analogs of convective and diffusive transfer operators of the fourth order of accuracy in the case of partial occupancy of cells were constructed and studied. The developed scheme of the high (fourth) order of accuracy were used for solving problems of aquatic ecology and modeling spatial distribution of polluting nutrients, which caused growth of phytoplankton, many species of which are toxic and harmful. The use of schemes of the high order of accuracy are improved the quality of input data and decreased the error in solutions of model tasks of aquatic ecology. Numerical experiments were conducted for the problem of transportation of substances on the basis of the schemes of the second and fourth orders of accuracy. They’re showed that the accuracy was increased in 48.7 times for diffusion-convection problem. The mathematical algorithm was proposed and numerically implemented, which designed to restore the bottom topography of shallow water on the basis of hydrographic data (water depth at individual points or contour level). The map of bottom relief of the Azov Sea was generated with using this algorithm. It’s used to build fields of currents calculated on the basis of hydrodynamic model. The fields of water flow currents were used as input data of the aquatic ecology models. The library of double-layered iterative methods was developed for solving of nine-diagonal difference equations. It occurs in discretization of model tasks of challenges of pollutants concentration, plankton and fish on multiprocessor computer system. It improved the precision of the calculated data and gave the possibility to obtain operational forecasts of changes in ecologic situation of shallow water in short time intervals.

    Просмотров за год: 4. Цитирований: 31 (РИНЦ).
  6. Карпаев А.А., Алиев Р.Р.
    Применение упрощенного неявного метода Эйлера для решения задач электрофизиологии
    Компьютерные исследования и моделирование, 2020, т. 12, № 4, с. 845-864

    Рассматривается упрощенный неявный метод Эйлера как альтернатива явному методу Эйлера, являющемуся наиболее распространенным в области численного решения уравнений, описывающих электрическую активность нервных клеток и кардиоцитов. Многие модели электрофизиологии имеют высокую степень жесткости, так как описывают динамику процессов с существенно разными характерными временами: миллисекундная деполяризации предшествует значительно более медленной гиперполяризации при формировании потенциала действия в электровозбудимых клетках. Оценка степени жесткости в работе проводится по формуле, не требующей вычисления собственных значений матрицы Якоби системы ОДУ. Эффективность численных методов сравнивается на примере типичных представителей из классов детальных и концептуальных моделей возбудимых клеток: модели Ходжкина–Хаксли для нейронов и Алиева–Панфилова для кардиоцитов. Сравнение эффективности численных методов проведено с использованием распространенных в биомедицинских задачах видов норм. Исследовано влияние степени жесткости моделей на величину ускорения при использовании упрощенного неявного метода: выигрыш во времени при высокой степени жесткости зафиксирован только для модели Ходжкина–Хаксли. Обсуждаются целесообразность применения простых методов и методов высоких порядков точности для решения задач электрофизиологии, а также устойчивость методов. Обсуждение позволяет прояснить вопрос о причинах отказа от использования высокоточных методов в пользу простых при проведении практических расчетов. На примере модели Ходжкина–Хаксли c различными степенями жесткости вычислены производные решения высших порядков и обнаружены их значительные максимальные абсолютные значения. Последние входят в формулы констант аппроксимации и, следовательно, нивелируют малость множителя, зависящего от порядка точности. Этот факт не позволяет считать погрешности численного метода малыми. Проведенный на качественном уровне анализ устойчивости явного метода Эйлера позволяет оценить вид функции параметров модели для описания границы области устойчивости. Описание границы области устойчивости, как правило, используется при априорном принятии решения о выборе величины шага численного интегрирования.

    Karpaev A.A., Aliev R.R.
    Application of simplified implicit Euler method for electrophysiological models
    Computer Research and Modeling, 2020, v. 12, no. 4, pp. 845-864

    A simplified implicit Euler method was analyzed as an alternative to the explicit Euler method, which is a commonly used method in numerical modeling in electrophysiology. The majority of electrophysiological models are quite stiff, since the dynamics they describe includes a wide spectrum of time scales: a fast depolarization, that lasts milliseconds, precedes a considerably slow repolarization, with both being the fractions of the action potential observed in excitable cells. In this work we estimate stiffness by a formula that does not require calculation of eigenvalues of the Jacobian matrix of the studied ODEs. The efficiency of the numerical methods was compared on the case of typical representatives of detailed and conceptual type models of excitable cells: Hodgkin–Huxley model of a neuron and Aliev–Panfilov model of a cardiomyocyte. The comparison of the efficiency of the numerical methods was carried out via norms that were widely used in biomedical applications. The stiffness ratio’s impact on the speedup of simplified implicit method was studied: a real gain in speed was obtained for the Hodgkin–Huxley model. The benefits of the usage of simple and high-order methods for electrophysiological models are discussed along with the discussion of one method’s stability issues. The reasons for using simplified instead of high-order methods during practical simulations were discussed in the corresponding section. We calculated higher order derivatives of the solutions of Hodgkin-Huxley model with various stiffness ratios; their maximum absolute values appeared to be quite large. A numerical method’s approximation constant’s formula contains the latter and hence ruins the effect of the other term (a small factor which depends on the order of approximation). This leads to the large value of global error. We committed a qualitative stability analysis of the explicit Euler method and were able to estimate the model’s parameters influence on the border of the region of absolute stability. The latter is used when setting the value of the timestep for simulations a priori.

  7. При определении лечебных поглощенных доз в процессе радиойодтерапии в отечественной медицине все чаще используется метод индивидуального дозиметрического планирования (ИДП). Однако для успешной реализации данного метода необходимо наличие соответствующего программного обеспечения, позволяющего произвести моделирование фармакокинетики радиойода в организме пациента и рассчитать необходимую терапевтическую активность радиофармацевтического лекарственного препарата (РФЛП) для достижения в щитовидной железе запланированной лечебной поглощенной дозы.

    Цель работы — разработка программного комплекса фармакокинетического моделирования и расчета индивидуальных поглощенных доз при радиойодтерапии на основе пятикамерной модели кинетики радиойода с применением двух математических методов оптимизации. Работа основана на принципах и методах фармакокинетики РФЛП (камерное моделирование). Для нахождения минимума функционала невязки при идентификации значений транспортных констант модели были использованы метод Хука – Дживса и метод имитации отжига. Расчет дозиметрических характеристик и вводимой терапевтической активности основан на методике расчета поглощенных доз через найденные в процессе моделирования функции активностей радиойода в камерах. Для идентификации параметров модели использованы результаты радиометрии щитовидной железы и мочи пациентов с введенным в организм радиойодом.

    Разработан программный комплекс моделирования кинетики радиойода при его пероральном поступлении в организм. Для пациентов с диффузным токсическим зобом идентифицированы транспортные константы модели и рассчитаны индивидуальные фармакокинетические и дозиметрические характеристики (периоды полувыведения, максимальная активность в щитовидной железе и время ее достижения, поглощенные дозы на критические органы и ткани, вводимая терапевтическая активность). Получены и проанализированы зависимости «активность – время» для всех камер модели. Проведен сравнительный анализ фармакокинетических и дозиметрических характеристик, рассчитанных в рамках двух математических методов оптимизации. Осуществлена оценка stunning-эффекта и его вклад в погрешности расчета поглощенных доз. Из сравнительного анализа рассчитанных в рамках двух методов оптимизации фармакокинетических и дозиметрических характеристик следует, что использование более сложного математического метода имитации отжига в программном комплексе не приводит к существенным изменениям в значениях характеристик по сравнению с простым методом Хука – Дживса. Погрешности расчета поглощенных доз в рамках этих математических методов оптимизации не превышают вариации значений поглощенных доз от stunning-эффекта.

    Matveev A.V.
    Mathematical features of individual dosimetric planning of radioiodotherapy based on pharmacokinetic modeling
    Computer Research and Modeling, 2024, v. 16, no. 3, pp. 773-784

    When determining therapeutic absorbed doses in the process of radioiodine therapy, the method of individual dosimetric planning is increasingly used in Russian medicine. However, for the successful implementation of this method, it is necessary to have appropriate software that allows modeling the pharmacokinetics of radioiodine in the patient’s body and calculate the necessary therapeutic activity of a radiopharmaceutical drug to achieve the planned therapeutic absorbed dose in the thyroid gland.

    Purpose of the work: development of a software package for pharmacokinetic modeling and calculation of individual absorbed doses in radioiodine therapy based on a five-chamber model of radioiodine kinetics using two mathematical optimization methods. The work is based on the principles and methods of RFLP pharmacokinetics (chamber modeling). To find the minimum of the residual functional in identifying the values of the transport constants of the model, the Hook – Jeeves method and the simulated annealing method were used. Calculation of dosimetric characteristics and administered therapeutic activity is based on the method of calculating absorbed doses using the functions of radioiodine activity in the chambers found during modeling. To identify the parameters of the model, the results of radiometry of the thyroid gland and urine of patients with radioiodine introduced into the body were used.

    A software package for modeling the kinetics of radioiodine during its oral intake has been developed. For patients with diffuse toxic goiter, the transport constants of the model were identified and individual pharmacokinetic and dosimetric characteristics (elimination half-lives, maximum thyroid activity and time to reach it, absorbed doses to critical organs and tissues, administered therapeutic activity) were calculated. The activity-time relationships for all cameras in the model are obtained and analyzed. A comparative analysis of the calculated pharmacokinetic and dosimetric characteristics calculated using two mathematical optimization methods was performed. Evaluation completed the stunning-effect and its contribution to the errors in calculating absorbed doses. From a comparative analysis of the pharmacokinetic and dosimetric characteristics calculated in the framework of two optimization methods, it follows that the use of a more complex mathematical method for simulating annealing in a software package does not lead to significant changes in the values of the characteristics compared to the simple Hook – Jeeves method. Errors in calculating absorbed doses in the framework of these mathematical optimization methods do not exceed the spread of absorbed dose values from the stunning-effect.

  8. Salem N., Al-Tarawneh K., Hudaib A., Salem H., Tareef A., Salloum H., Mazzara M.
    Generating database schema from requirement specification based on natural language processing and large language model
    Компьютерные исследования и моделирование, 2024, т. 16, № 7, с. 1703-1713

    A Large Language Model (LLM) is an advanced artificial intelligence algorithm that utilizes deep learning methodologies and extensive datasets to process, understand, and generate humanlike text. These models are capable of performing various tasks, such as summarization, content creation, translation, and predictive text generation, making them highly versatile in applications involving natural language understanding. Generative AI, often associated with LLMs, specifically focuses on creating new content, particularly text, by leveraging the capabilities of these models. Developers can harness LLMs to automate complex processes, such as extracting relevant information from system requirement documents and translating them into a structured database schema. This capability has the potential to streamline the database design phase, saving significant time and effort while ensuring that the resulting schema aligns closely with the given requirements. By integrating LLM technology with Natural Language Processing (NLP) techniques, the efficiency and accuracy of generating database schemas based on textual requirement specifications can be significantly enhanced. The proposed tool will utilize these capabilities to read system requirement specifications, which may be provided as text descriptions or as Entity-Relationship Diagrams (ERDs). It will then analyze the input and automatically generate a relational database schema in the form of SQL commands. This innovation eliminates much of the manual effort involved in database design, reduces human errors, and accelerates development timelines. The aim of this work is to provide a tool can be invaluable for software developers, database architects, and organizations aiming to optimize their workflow and align technical deliverables with business requirements seamlessly.

    Salem N., Al-Tarawneh K., Hudaib A., Salem H., Tareef A., Salloum H., Mazzara M.
    Generating database schema from requirement specification based on natural language processing and large language model
    Computer Research and Modeling, 2024, v. 16, no. 7, pp. 1703-1713

    A Large Language Model (LLM) is an advanced artificial intelligence algorithm that utilizes deep learning methodologies and extensive datasets to process, understand, and generate humanlike text. These models are capable of performing various tasks, such as summarization, content creation, translation, and predictive text generation, making them highly versatile in applications involving natural language understanding. Generative AI, often associated with LLMs, specifically focuses on creating new content, particularly text, by leveraging the capabilities of these models. Developers can harness LLMs to automate complex processes, such as extracting relevant information from system requirement documents and translating them into a structured database schema. This capability has the potential to streamline the database design phase, saving significant time and effort while ensuring that the resulting schema aligns closely with the given requirements. By integrating LLM technology with Natural Language Processing (NLP) techniques, the efficiency and accuracy of generating database schemas based on textual requirement specifications can be significantly enhanced. The proposed tool will utilize these capabilities to read system requirement specifications, which may be provided as text descriptions or as Entity-Relationship Diagrams (ERDs). It will then analyze the input and automatically generate a relational database schema in the form of SQL commands. This innovation eliminates much of the manual effort involved in database design, reduces human errors, and accelerates development timelines. The aim of this work is to provide a tool can be invaluable for software developers, database architects, and organizations aiming to optimize their workflow and align technical deliverables with business requirements seamlessly.

  9. Аксёнов А.А., Жлуктов С.В., Похилко В.И., Сорокин К.Э.
    Неявный алгоритм решения уравнений движения несжимаемой жидкости
    Компьютерные исследования и моделирование, 2023, т. 15, № 4, с. 1009-1023

    Для решения уравнений Навье – Стокса в случае несжимаемых течений разработано большое количество методов, наиболее популярными из которых являются методы с коррекцией скорости по алгоритму SIMPLE, аналогом которого является метод расщепления по физическим переменным. Данные методы, разработанные еще в прошлом веке, использовались для решения достаточно простых задач — расчета как стационарных течений, так и нестационарных, в которых границы расчетной области были неподвижны. В настоящее время задачи вычислительной гидродинамики существенно усложнились. Интерес представляют задачи с движением тел в расчетной области, движением контактных границ, кавитацией и задачи с динамической локальной адаптацией расчетной сетки. При этом расчетная сетка меняется, что приводит к нарушению условия дивергентности скорости на ней. Поскольку дивергентные скорости используются не только для уравнений Навье – Стокса, но и для всех остальных уравнений математической модели движения жидкости — моделей турбулентности, массопереноса и сохранения энергии, нарушение этого условия ведет к численным ошибкам и, зачастую, к расхождению вычислительного алгоритма.

    В статье представлен неявный метод расщепления по физическим переменным, который использует дивергентные скорости с данного шага по времени для решения несжимаемых уравнений Навье – Стокса. Метод разработан для расчета течений при наличии подвижных и контактных границ, моделируемых в постановке Эйлера. Метод позволяет проводить расчеты с шагом интегрирования, на порядки превышающем явный шаг по времени (число Куранта – Фридрихcа – Леви $CFL\gg1$). В данной статье представлен вариант метода для несжимаемых течений. Вариант метода, позволяющий рассчитывать движение жидкости и газа при любых числах Маха, будет опубликован в ближайшее время. Метод для полностью сжимаемых течений реализован в программном комплексе FlowVision.

    В статье приводятся результаты численного решения классической задачи обтекания кругового цилиндра при малых числах Рейнольдса ($50<Re<140$), при которых ламинарное обтекание цилиндра становиться нестационарным и образуется дорожка Кармана. Показано хорошее совпадение расчетов с экспериментальными данными, опубликованными в классических работах Ван-Дайка и Танеды.

    Aksenov A.A., Zhluktov S.V., Pokhilko V.I., Sorokin K.E.
    Implicit algorithm for solving equations of motion of incompressible fluid
    Computer Research and Modeling, 2023, v. 15, no. 4, pp. 1009-1023

    A large number of methods have been developed to solve the Navier – Stokes equations in the case of incompressible flows, the most popular of which are methods with velocity correction by the SIMPLE algorithm and its analogue — the method of splitting by physical variables. These methods, developed more than 40 years ago, were used to solve rather simple problems — simulating both stationary flows and non-stationary flows, in which the boundaries of the calculation domain were stationary. At present, the problems of computational fluid dynamics have become significantly more complicated. CFD problems are involving the motion of bodies in the computational domain, the motion of contact boundaries, cavitation and tasks with dynamic local adaptation of the computational mesh. In this case the computational mesh changes resulting in violation of the velocity divergence condition on it. Since divergent velocities are used not only for Navier – Stokes equations, but also for all other equations of the mathematical model of fluid motion — turbulence, mass transfer and energy conservation models, violation of this condition leads to numerical errors and, often, to undivergence of the computational algorithm.

    This article presents an implicit method of splitting by physical variables that uses divergent velocities from a given time step to solve the incompressible Navier – Stokes equations. The method is developed to simulate flows in the case of movable and contact boundaries treated in the Euler paradigm. The method allows to perform computations with the integration step exceeding the explicit time step by orders of magnitude (Courant – Friedrichs – Levy number $CFL\gg1$). This article presents a variant of the method for incompressible flows. A variant of the method that allows to calculate the motion of liquid and gas at any Mach numbers will be published shortly. The method for fully compressible flows is implemented in the software package FlowVision.

    Numerical simulating classical fluid flow around circular cylinder at low Reynolds numbers ($50 < Re < 140$), when laminar flow is unsteady and the Karman vortex street is formed, are presented in the article. Good agreement of calculations with the experimental data published in the classical works of Van Dyke and Taneda is demonstrated.

  10. Salem N., Hudaib A., Al-Tarawneh K., Salem H., Tareef A., Salloum H., Mazzara M.
    A survey on the application of large language models in software engineering
    Компьютерные исследования и моделирование, 2024, т. 16, № 7, с. 1715-1726

    Large Language Models (LLMs) are transforming software engineering by bridging the gap between natural language and programming languages. These models have revolutionized communication within development teams and the Software Development Life Cycle (SDLC) by enabling developers to interact with code using natural language, thereby improving workflow efficiency. This survey examines the impact of LLMs across various stages of the SDLC, including requirement gathering, system design, coding, debugging, testing, and documentation. LLMs have proven to be particularly useful in automating repetitive tasks such as code generation, refactoring, and bug detection, thus reducing manual effort and accelerating the development process. The integration of LLMs into the development process offers several advantages, including the automation of error correction, enhanced collaboration, and the ability to generate high-quality, functional code based on natural language input. Additionally, LLMs assist developers in understanding and implementing complex software requirements and design patterns. This paper also discusses the evolution of LLMs from simple code completion tools to sophisticated models capable of performing high-level software engineering tasks. However, despite their benefits, there are challenges associated with LLM adoption, such as issues related to model accuracy, interpretability, and potential biases. These limitations must be addressed to ensure the reliable deployment of LLMs in production environments. The paper concludes by identifying key areas for future research, including improving the adaptability of LLMs to specific software domains, enhancing their contextual understanding, and refining their capabilities to generate semantically accurate and efficient code. This survey provides valuable insights into the evolving role of LLMs in software engineering, offering a foundation for further exploration and practical implementation.

    Salem N., Hudaib A., Al-Tarawneh K., Salem H., Tareef A., Salloum H., Mazzara M.
    A survey on the application of large language models in software engineering
    Computer Research and Modeling, 2024, v. 16, no. 7, pp. 1715-1726

    Large Language Models (LLMs) are transforming software engineering by bridging the gap between natural language and programming languages. These models have revolutionized communication within development teams and the Software Development Life Cycle (SDLC) by enabling developers to interact with code using natural language, thereby improving workflow efficiency. This survey examines the impact of LLMs across various stages of the SDLC, including requirement gathering, system design, coding, debugging, testing, and documentation. LLMs have proven to be particularly useful in automating repetitive tasks such as code generation, refactoring, and bug detection, thus reducing manual effort and accelerating the development process. The integration of LLMs into the development process offers several advantages, including the automation of error correction, enhanced collaboration, and the ability to generate high-quality, functional code based on natural language input. Additionally, LLMs assist developers in understanding and implementing complex software requirements and design patterns. This paper also discusses the evolution of LLMs from simple code completion tools to sophisticated models capable of performing high-level software engineering tasks. However, despite their benefits, there are challenges associated with LLM adoption, such as issues related to model accuracy, interpretability, and potential biases. These limitations must be addressed to ensure the reliable deployment of LLMs in production environments. The paper concludes by identifying key areas for future research, including improving the adaptability of LLMs to specific software domains, enhancing their contextual understanding, and refining their capabilities to generate semantically accurate and efficient code. This survey provides valuable insights into the evolving role of LLMs in software engineering, offering a foundation for further exploration and practical implementation.

Страницы: « первая предыдущая следующая

Журнал индексируется в Scopus

Полнотекстовая версия журнала доступна также на сайте научной электронной библиотеки eLIBRARY.RU

Журнал включен в базу данных Russian Science Citation Index (RSCI) на платформе Web of Science

Международная Междисциплинарная Конференция "Математика. Компьютер. Образование"

Международная Междисциплинарная Конференция МАТЕМАТИКА. КОМПЬЮТЕР. ОБРАЗОВАНИЕ.