Текущий выпуск Номер 3, 2024 Том 16

Все выпуски

Результаты поиска по 'complex modeling':
Найдено статей: 170
  1. Ahmed M., Hegazy M., Климчик А.С., Боби Р.А.
    Lidar and camera data fusion in self-driving cars
    Компьютерные исследования и моделирование, 2022, т. 14, № 6, с. 1239-1253

    Sensor fusion is one of the important solutions for the perception problem in self-driving cars, where the main aim is to enhance the perception of the system without losing real-time performance. Therefore, it is a trade-off problem and its often observed that most models that have a high environment perception cannot perform in a real-time manner. Our article is concerned with camera and Lidar data fusion for better environment perception in self-driving cars, considering 3 main classes which are cars, cyclists and pedestrians. We fuse output from the 3D detector model that takes its input from Lidar as well as the output from the 2D detector that take its input from the camera, to give better perception output than any of them separately, ensuring that it is able to work in real-time. We addressed our problem using a 3D detector model (Complex-Yolov3) and a 2D detector model (Yolo-v3), wherein we applied the image-based fusion method that could make a fusion between Lidar and camera information with a fast and efficient late fusion technique that is discussed in detail in this article. We used the mean average precision (mAP) metric in order to evaluate our object detection model and to compare the proposed approach with them as well. At the end, we showed the results on the KITTI dataset as well as our real hardware setup, which consists of Lidar velodyne 16 and Leopard USB cameras. We used Python to develop our algorithm and then validated it on the KITTI dataset. We used ros2 along with C++ to verify the algorithm on our dataset obtained from our hardware configurations which proved that our proposed approach could give good results and work efficiently in practical situations in a real-time manner.

    Ahmed M., Hegazy M., Klimchik A.S., Boby R.A.
    Lidar and camera data fusion in self-driving cars
    Computer Research and Modeling, 2022, v. 14, no. 6, pp. 1239-1253

    Sensor fusion is one of the important solutions for the perception problem in self-driving cars, where the main aim is to enhance the perception of the system without losing real-time performance. Therefore, it is a trade-off problem and its often observed that most models that have a high environment perception cannot perform in a real-time manner. Our article is concerned with camera and Lidar data fusion for better environment perception in self-driving cars, considering 3 main classes which are cars, cyclists and pedestrians. We fuse output from the 3D detector model that takes its input from Lidar as well as the output from the 2D detector that take its input from the camera, to give better perception output than any of them separately, ensuring that it is able to work in real-time. We addressed our problem using a 3D detector model (Complex-Yolov3) and a 2D detector model (Yolo-v3), wherein we applied the image-based fusion method that could make a fusion between Lidar and camera information with a fast and efficient late fusion technique that is discussed in detail in this article. We used the mean average precision (mAP) metric in order to evaluate our object detection model and to compare the proposed approach with them as well. At the end, we showed the results on the KITTI dataset as well as our real hardware setup, which consists of Lidar velodyne 16 and Leopard USB cameras. We used Python to develop our algorithm and then validated it on the KITTI dataset. We used ros2 along with C++ to verify the algorithm on our dataset obtained from our hardware configurations which proved that our proposed approach could give good results and work efficiently in practical situations in a real-time manner.

  2. Ушаков А.О., Ганджа Т.В., Дмитриев В.М., Молоков П.Б.
    Компьютерная модель экстракционного реактора идеального смешения в формате метода компонентных цепей с неоднородными векторными связями
    Компьютерные исследования и моделирование, 2024, т. 16, № 3, с. 599-614

    Рассмотрены особенности метода компонентных цепей (МКЦ) при моделировании химико-технологических систем (ХТС) с учетом его практической значимости. Программно-алгоритмической реализацией МКЦ в настоящее время является комплекс программ компьютерного моделирования МАРС (моделирование и автоматический расчет систем). МАРС позволяет осуществлять разработку и анализ компьютерных моделей ХТС с заданными параметрами эксперимента. В ходе настоящей работы осуществлена разработка модели реактора идеального смешения с учетом физико-химических особенностей процесса экстракции урана в присутствии азотной кислоты и трибутилфосфата в среде моделирования МАРС. В качестве результатов представлены кинетические кривые концентрации урана, извлекаемого в органическую фазу. Исследована и подтверждена возможность использования МКЦ для описания и анализа сложных химико-технологических систем ядерно-топливного цикла, в том числе для экстракционных процессов. Использование полученных результатов планируется применять при разработке виртуальной лаборатории, которая будет включать основные аппараты химической промышленности, а также сложные технические управляемые системы (СТУС) на их основе и позволит приобрести широкий спектр профессиональных компетенций по работе с «цифровыми двойниками» реальных объектов управления, в том числе получить первоначальный опыт работы с основными аппаратами ядерной отрасли. Помимо непосредственной прикладной пользы, также предполагается, что успешная реализация отечественного комплекса программ компьютерного моделирования и технологий на основе полученных результатов позволит найти решения к проблемам организации национального технологического суверенитета и импортозамещения.

    Ushakov A.O., Gandzha T.V., Dmitriev V.M., Molokov P.B.
    Computer model of a perfect-mixing extraction reactor in the format of the component circuits method with non-uniform vector connections
    Computer Research and Modeling, 2024, v. 16, no. 3, pp. 599-614

    The features of the component circuits method (MCC) in modeling chemical-technological systems (CTS) are considered, taking into account its practical significance. The software and algorithmic implementation of which is currently a set of computer modeling programs MARS (Modeling and Automatic Research of Systems). MARS allows the development and analysis of mathematical models with specified experimental parameters. Research and calculations were carried out using a specialized software and hardware complex MARS, which allows the development of mathematical models with specified experimental parameters. In the course of this work, the model of a perfect-mixing reactor was developed in the MARS modeling environment taking into account the physicochemical features of the uranium extraction process in the presence of nitric acid and tributyl phosphate. As results, the curves of changes of the concentration of uranium extracted into the organic phase are presented. The possibility of using MCC for the description and analysis of CTS, including extraction processes, has been confirmed. The use of the obtained results is planned to be used in the development of a virtual laboratory, which will include the main apparatus of the chemical industry, as well as complex technical controlled systems (CTСS) based on them and will allow one to acquire a wide range of professional competencies in working with “digital twins” of real control objects, including gaining initial experience working with the main equipment of the nuclear industry. In addition to the direct applied benefits, it is also assumed that the successful implementation of the domestic complex of computer modeling programs and technologies based on the obtained results will make it possible to find solutions to the problems of organizing national technological sovereignty and import substitution.

  3. Бахвалов Ю.Н., Копылов И.В.
    Обучение и оценка обобщающей способности методов интерполяции
    Компьютерные исследования и моделирование, 2015, т. 7, № 5, с. 1023-1031

    В данной статье исследуются методы машинного обучения с определенным видом решающего правила. К ним относятся интерполяция по методу обратно взвешенных расстояний, метод интерполяции радиальными базисными функциями, метод многомерной интерполяции и аппроксимации на основе теории случайных функций, кригинг. Показано, что для данных методов существует способ быстрого переобучения «модели» при добавлении новых данных к существующим. Под «моделью» понимается построенная по обучающим данным интерполирующая или аппроксимирующая функция. Данный подход позволяет уменьшить вычислительную сложность построения обновленной «модели» с $O(n^3)$ до $O(n^2)$. Также будет исследована возможность быстрого оценивания обобщающих возможностей «модели» на обучающей выборке при помощи метода скользящего контроля leave-one-out cross-validation, устранив главный недостаток такого подхода — необходимость построения новой «модели» при каждом удалении элемента из обучающей выборки.

    Bakhvalov Y.N., Kopylov I.V.
    Training and assessment the generalization ability of interpolation methods
    Computer Research and Modeling, 2015, v. 7, no. 5, pp. 1023-1031

    We investigate machine learning methods with a certain kind of decision rule. In particular, inverse-distance method of interpolation, method of interpolation by radial basis functions, the method of multidimensional interpolation and approximation, based on the theory of random functions, the last method of interpolation is kriging. This paper shows a method of rapid retraining “model” when adding new data to the existing ones. The term “model” means interpolating or approximating function constructed from the training data. This approach reduces the computational complexity of constructing an updated “model” from $O(n^3)$ to $O(n^2)$. We also investigate the possibility of a rapid assessment of generalizing opportunities “model” on the training set using the method of cross-validation leave-one-out cross-validation, eliminating the major drawback of this approach — the necessity to build a new “model” for each element which is removed from the training set.

    Просмотров за год: 7. Цитирований: 5 (РИНЦ).
  4. В данной статье исследуется метод машинного обучения на основе теории случайных функций. Одной из основных проблем данного метода является то, что вид решающего правила модели метода, построенной на данных обучающей выборки, становится более громоздким при увеличении количества примеров выборки. Решающее правило модели является наиболее вероятной реализацией случайной функции и представляется в виде многочлена с количеством слагаемых, равным количеству обучающих элементов выборки. В статье будет показано, что для рассматриваемого метода существует быстрый способ сокращения обучающей выборки и, соответственно, вида решающего правила. Уменьшение примеров обучающей выборки происходит за счет поиска и удаления малоинформативных (слабых) элементов, которые незначительно влияют на итоговый вид решающей функции, и шумовых элементов выборки. Для каждого $(x_i,y_i)$-го элемента выборки было введено понятие значимости, выражающееся величиной отклонения оцененного значения решающей функции модели в точке $x_i$, построенной без $i$-го элемента, от реального значения $y_i$. Будет показана возможность косвенного использования найденных слабых элементов выборки при обучении модели метода, что позволяет не увеличивать количество слагаемых в полученной решающей функции. Также в статье будут описаны проведенные эксперименты, в которых показано, как изменение количества обучающих данных влияет на обобщающую способность решающего правила модели в задаче классификации.

    This article explores a method of machine learning based on the theory of random functions. One of the main problems of this method is that decision rule of a model becomes more complicated as the number of training dataset examples increases. The decision rule of the model is the most probable realization of a random function and it's represented as a polynomial with the number of terms equal to the number of training examples. In this article we will show the quick way of the number of training dataset examples reduction and, accordingly, the complexity of the decision rule. Reducing the number of examples of training dataset is due to the search and removal of weak elements that have little effect on the final form of the decision function, and noise sampling elements. For each $(x_i,y_i)$-th element sample was introduced the concept of value, which is expressed by the deviation of the estimated value of the decision function of the model at the point $x_i$, built without the $i$-th element, from the true value $y_i$. Also we show the possibility of indirect using weak elements in the process of training model without increasing the number of terms in the decision function. At the experimental part of the article, we show how changed amount of data affects to the ability of the method of generalizing in the classification task.

    Просмотров за год: 5.
  5. Сафиуллина Л.Ф., Губайдуллин И.М.
    Исследование и редуцирование математической модели химической реакции методом Соболя
    Компьютерные исследования и моделирование, 2016, т. 8, № 4, с. 633-646

    В работе предложена методика упрощения математической модели химической реакции за счет сокращения числа стадий схемы реакции, основанная на анализе чувствительности целевой функции к изменению параметров модели. Функционал характеризует меру близости расчетных значений по исходной кинетической схеме реакции и схеме, полученной возмущением ее параметров. Преимуществом данной методики является возможность анализа сложных кинетических схем и редуцирования кинетических моделей до размеров, приемлемых с точки зрения точности описания и простоты практического использования. В функционал можно включить результаты вычислительных экспериментов при различных условиях проведения реакции и таким образом получить компактную схему, согласующуюся с детальной схемой для требуемого диапазона условий. Анализ чувствительности функционала модели позволяет выявить те параметры, которые обеспечивают наибольший (или наименьший) вклад на результат моделирования процесса. Математическая модель может содержать параметры, изменение значений которых не влияет на качественное и количественное описание процесса. Вклад таких параметров в значение функционала не будет иметь большого значения. Поэтому стадии, которые не служат для моделирования кинетических кривых веществ, можно исключить из рассмотрения. С применением данной методики была исследована кинетическая схема реакции окисления формальдегида, детальный механизм которой включает в себя 25 стадий и 15 веществ. На основании локального и глобального анализа чувствительности определены наиболее значимые стадии процесса, влияющие на общую динамику изменения концентраций целевых веществ реакции. Получена редуцированная схема модельной реакции окисления формальдегида, которая так же описывает поведение основных веществ реакции, как и детальная схема, но имеет значительно меньшее число стадий реакций. Приведены результаты сравнительного анализа моделирования реакции окисления формальдегида по детальной и редуцированной схемам. В статье приведены вычислительные аспекты решения задач химической кинетики глобальным методом Соболя И.М. на примере данной реакции. Приведены результаты сравнения локальных, глобальных и полных глобальных коэффициентов чувствительности.

    Safiullina L.F., Gubaydullin I.M.
    Research and reduction of mathematical model of chemical reaction by Sobol’ method
    Computer Research and Modeling, 2016, v. 8, no. 4, pp. 633-646

    The technique of simplification of mathematical model of a chemical reaction by reducing the number of steps of the reaction scheme, based on an analysis of sensitivity to changes in the objective function of the model parameters, is proposed. The reduced scheme of model reaction of formaldehyde oxidation is received. Functional characterizes the measure of proximity to the calculated values for the initial kinetic reaction scheme and the scheme resulting disturbance of its parameters. The advantage of this technique is the ability to analyze complex kinetic schemes and reduction of kinetic models to a size suitable for practical use. The results of computational experiments under different reaction conditions can be included in the functional and thus to receive the reduce scheme, which is consistent the detailed scheme for the desired range of conditions. Sensitivity analysis of the functional model allows to identify those parameters, which provide the largest (or smallest) the contribution to the result of the process simulation. The mathematical model can contain parameters, which change of values do not affect the qualitative and quantitative description of the process. The contribution of these parameters in the functional value won’t be of great importance. Thus it can be eliminated from consideration, which do not serve for modeling kinetic curves substances. The kinetic scheme of formaldehyde oxidation, the detailed mechanism which includes 25 stages and 15 substances, were investigated using this method. On the basis of the local and global sensitivity analysis, the most important stage of the process that affect the overall dynamics of the target concentrations of the reaction. The reduced scheme of model reaction of formaldehyde oxidation is received. This scheme also describes the behavior of the main substances, as detailed scheme, but has a much smaller number of reaction stages. The results of the comparative analysis of modeling of formaldehyde oxidation on detailed and reduced schemes are given. Computational aspects of the problems of chemical kinetics by Sobol’ global method an example of this reaction are specified. The comparison results are local, global and total sensitivity indices are given.

    Просмотров за год: 10. Цитирований: 4 (РИНЦ).
  6. Демьянов А.Ю., Динариев О.Ю., Лисицын Д.А.
    Моделирование частотной зависимости диэлектрической проницаемости и электрической проводимости насыщенных пористых сред
    Компьютерные исследования и моделирование, 2016, т. 8, № 5, с. 765-773

    В работе представлена численная методика определения спектральных электромагнитных характеристик (эффективных электрической проводимости и относительной диэлектрической проницаемости) насыщенных пористых сред. Их определение находит применение при интерпретации данных петрофизических исследований скважин, а также при изучении кернового материала. Особенностью настоящей работы является использование трехмерных цифровых моделей насыщенных пористых сред, построенных на основе комбинированной информации о микроструктуре среды и капиллярном равновесии двухфазной смеси типа «нефть–вода» в поровом пространстве. Данные о микроструктуре модели получаются путем использования методов рентгеновской микротомографии. Многофазное многокомпонентное распределение флюидов в поровом пространстве модели находится с помощью метода функционала плотности. Для определения непосредственно электромагнитных характеристик модели выполняется фурье-преобразование по времени уравнения Максвелла, выражающего обобщенную теорему Ампера о циркуляции. В низкочастотном приближении задача сводится к решению уравнения эллиптического типа на комплексный потенциал. Для конечно- разностной аппроксимации используется дискретизация модели на изотропной равномерной ортогональной сетке. При этом считается, что в каждой расчетной ячейке сетки содержится либо вода, либо нефть, либо по- рода со своими электрическими параметрами. Для этого выполняется процедура сегментации, в результате которой в модели отсутствуют ячейки, содержащие несколько фаз (нефть–вода). Подобная модификация модели позволяет избежать использования сложноструктурированных расчетных сеток, а также дает возможность исключить влияние способа задания свойств ячеек, заполненных смесью различных фаз, на результаты расчета. Полученная система разностных уравнений решается с использованием стабилизированного метода бисопряженных градиентов с многосеточным предобуславливателем. На основе вычисленных распределений комплексного потенциала находятся средние значения электрической проводимости и относительной диэлектрической проницаемости. Для простоты в настоящей работе рассматривался случай отсутствия спектральной зависимости проводимости и проницаемости компонентов от частоты. Результаты расчетов частотных зависимостей эффективных характеристик неоднородно насыщенных пористых сред (электрической проводимости и относительной диэлектрической проницаемости) в широком диапазоне частот и водонасыщенностей представлены на графиках и в таблице. В заключение делается вывод об эффективности предложенного подхода для задачи определения дисперсионных электромагнитных характеристик насыщенных горных пород.

    Demianov A.Y., Dinariev O.Y., Lisitsin D.A.
    Numerical simulation of frequency dependence of dielectric permittivity and electrical conductivity of saturated porous media
    Computer Research and Modeling, 2016, v. 8, no. 5, pp. 765-773

    This article represents numerical simulation technique for determining effective spectral electromagnetic properties (effective electrical conductivity and relative dielectric permittivity) of saturated porous media. Information about these properties is vastly applied during the interpretation of petrophysical exploration data of boreholes and studying of rock core samples. The main feature of the present paper consists in the fact, that it involves three-dimensional saturated digital rock models, which were constructed based on the combined data considering microscopic structure of the porous media and the information about capillary equilibrium of oil-water mixture in pores. Data considering microscopic structure of the model are obtained by means of X-ray microscopic tomography. Information about distributions of saturating fluids is based on hydrodynamic simulations with density functional technique. In order to determine electromagnetic properties of the numerical model time-domain Fourier transform of Maxwell equations is considered. In low frequency approximation the problem can be reduced to solving elliptic equation for the distribution of complex electric potential. Finite difference approximation is based on discretization of the model with homogeneous isotropic orthogonal grid. This discretization implies that each computational cell contains exclusively one medium: water, oil or rock. In order to obtain suitable numerical model the distributions of saturating components is segmented. Such kind of modification enables avoiding usage of heterogeneous grids and disregards influence on the results of simulations of the additional techniques, required in order to determine properties of cells, filled with mixture of media. Corresponding system of differential equations is solved by means of biconjugate gradient stabilized method with multigrid preconditioner. Based on the results of complex electric potential computations average values of electrical conductivity and relative dielectric permittivity is calculated. For the sake of simplicity, this paper considers exclusively simulations with no spectral dependence of conductivities and permittivities of model components. The results of numerical simulations of spectral dependence of effective characteristics of heterogeneously saturated porous media (electrical conductivity and relative dielectric permittivity) in broad range of frequencies and multiple water saturations are represented in figures and table. Efficiency of the presented approach for determining spectral electrical properties of saturated rocks is discussed in conclusion.

    Просмотров за год: 8.
  7. Эффективность производственного процесса непосредственно зависит от качества управления технологией, которая, в свою очередь, опирается на точность и оперативность обработки контрольно- измерительной информации. Разработка математических методов исследования системных связей и закономерностей функционирования и построение математических моделей с учетом структурных особенностей объекта исследований, а также написание программных продуктов для реализации данных методов являются актуальными задачами. Практика показала, что список параметров, имеющих место при исследовании сложного объекта современного производства, варьируется от нескольких десятков до нескольких сот наименований, причем степень воздействия каждого из факторов в начальный момент не ясна. Приступать к работе по непосредственному определению модели в этих условиях нельзя — объем требуемой информации может оказаться слишком велик, причем бóльшая часть работы по сбору этой информации будет проделана впустую из-за того, что степень влияния на параметры оптимизации большинства факторов из первоначального списка окажется пренебрежимо малой. Поэтому необходимым этапом при определении модели сложного объекта является работа по сокращению размерности факторного пространства. Большинство промышленных производств являются групповыми иерархическими процессами массового и крупносерийного производства, характеризующимися сотнями факторов. (Для примера реализации математических методов и апробации построенных моделей в основу были взяты данные Молдавского металлургического завода.) С целью исследования системных связей и закономерностей функционирования таких сложных объектов обычно выбираются несколько информативных параметров и осуществляется их выборочный контроль. В данной статье описывается последовательность приведения исходных показателей технологического процесса выплавки стали к виду, пригодному для построения математической модели с целью прогнозирования, внедрения новых видов стали и создание основы для разработки системы автоматизированного управления качеством продукции. В процессе преобразования выделяются следующие этапы: сбор и анализ исходных данных, построение таблицы слабокоррелированных параметров, сокращение факторного пространства с помощью корреляционных плеяд и метода весовых коэффициентов. Полученные результаты позволяют оптимизировать процесс построения модели многофакторного процесса.

    Efficiency of production directly depends on quality of the management of technology which, in turn, relies on the accuracy and efficiency of the processing of control and measuring information. Development of the mathematical methods of research of the system communications and regularities of functioning and creation of the mathematical models taking into account structural features of object of researches, and also writing of the software products for realization of these methods are an actual task. Practice has shown that the list of parameters that take place in the study of complex object of modern production, ranging from a few dozen to several hundred names, and the degree of influence of each factor in the initial time is not clear. Before working for the direct determination of the model in these circumstances, it is impossible — the amount of the required information may be too great, and most of the work on the collection of this information will be done in vain due to the fact that the degree of influence on the optimization of most factors of the original list would be negligible. Therefore, a necessary step in determining a model of a complex object is to work to reduce the dimension of the factor space. Most industrial plants are hierarchical group processes and mass volume production, characterized by hundreds of factors. (For an example of realization of the mathematical methods and the approbation of the constructed models data of the Moldavian steel works were taken in a basis.) To investigate the systemic linkages and patterns of functioning of such complex objects are usually chosen several informative parameters, and carried out their sampling. In this article the sequence of coercion of the initial indices of the technological process of the smelting of steel to the look suitable for creation of a mathematical model for the purpose of prediction is described. The implementations of new types became also creation of a basis for development of the system of automated management of quality of the production. In the course of weak correlation the following stages are selected: collection and the analysis of the basic data, creation of the table the correlated of the parameters, abbreviation of factor space by means of the correlative pleiads and a method of weight factors. The received results allow to optimize process of creation of the model of multiple-factor process.

    Просмотров за год: 6. Цитирований: 1 (РИНЦ).
  8. Максимова О.В., Григорьев В.И.
    Четырехфакторный вычислительный эксперимент для задачи случайного блуждания на двумерной решетке
    Компьютерные исследования и моделирование, 2017, т. 9, № 6, с. 905-918

    Случайный поиск в настоящее время стал распространенным и эффективным средством решения сложных задач оптимизации и адаптации. В работе рассматривается задача о средней длительности случайного поиска одним объектом другого в зависимости от различных факторов на квадратной решетке. Решение поставленной задачи было реализовано при помощи проведения полного эксперимента с 4 факторами и ортогональным планом в 54 строки. В рамках каждой строки моделировались случайные блуждания двух точек с заданными начальными условиями и правила перехода, затем замерялась продолжительность поиска одного объекта другим. В результате построена регрессионная модель, отражающая среднюю длительность случайного поиска объекта в зависимости от четырех рассматриваемых факторов, задающих начальные положения двух объектов, условия их передвижения и обнаружения. Среди рассмотренных факторов, влияющих на среднее время поиска, определены наиболее значимые. По построенной модели проведена интерпретация в задаче случайного поиска объекта. Важным результатом работы стало то, что с помощью модели выявлено качественное и количественное влияние первоначальных позиций объектов, размера решетки и правил перемещения на среднее время продолжительности поиска. Показано, что начальное соседство объектов на решетке не гарантирует быстрый поиск, если каждый из них передвигается. Помимо этого, количественно оценено, во сколько раз может затянуться или сократиться среднее время поиска объекта при увеличении скорости ищущего объекта на 1 ед., а также при увеличении размера поля на 1 ед., при различных начальных положениях двух объектов. Выявлен экспоненциальный характер роста числа шагов поиска объекта при увеличении размера решетки при остальных фиксированных факторах. Найдены условия наиболее большого увеличения средней продолжительности поиска: максимальная удаленность объектов в сочетании с неподвижностью одного из них при изменении размеров поля на 1 ед. (т. е., к примеру, с $4 \times 4$ на $5 \times 5$) может увеличить в среднем продолжительность поиска в $e^{1.69} \approx 5.42$. Поставленная в работе задача может быть актуальна с точки зрения применения как в погранометрике для обеспечения безопасности государства, так и, к примеру, в теории массового обслуживания.

    Maksimova O.V., Grigoryev V.I.
    Four-factor computing experiment for the random walk on a two-dimensional square field
    Computer Research and Modeling, 2017, v. 9, no. 6, pp. 905-918

    Nowadays the random search became a widespread and effective tool for solving different complex optimization and adaptation problems. In this work, the problem of an average duration of a random search for one object by another is regarded, depending on various factors on a square field. The problem solution was carried out by holding total experiment with 4 factors and orthogonal plan with 54 lines. Within each line, the initial conditions and the cellular automaton transition rules were simulated and the duration of the search for one object by another was measured. As a result, the regression model of average duration of a random search for an object depending on the four factors considered, specifying the initial positions of two objects, the conditions of their movement and detection is constructed. The most significant factors among the factors considered in the work that determine the average search time are determined. An interpretation is carried out in the problem of random search for an object from the constructed model. The important result of the work is that the qualitative and quantitative influence of initial positions of objects, the size of the lattice and the transition rules on the average duration of search is revealed by means of model obtained. It is shown that the initial neighborhood of objects on the lattice does not guarantee a quick search, if each of them moves. In addition, it is quantitatively estimated how many times the average time of searching for an object can increase or decrease with increasing the speed of the searching object by 1 unit, and also with increasing the field size by 1 unit, with different initial positions of the two objects. The exponential nature of the growth in the number of steps for searching for an object with an increase in the lattice size for other fixed factors is revealed. The conditions for the greatest increase in the average search duration are found: the maximum distance of objects in combination with the immobility of one of them when the field size is changed by 1 unit. (that is, for example, with $4 \times 4$ at $5 \times 5$) can increase the average search duration in $e^{1.69} \approx 5.42$. The task presented in the work may be relevant from the point of view of application both in the landmark for ensuring the security of the state, and, for example, in the theory of mass service.

    Просмотров за год: 21.
  9. Шепелев В.В., Фортова С.В., Опарина Е.И.
    Использование программного комплекса Turbulence Problem Solver (TPS) для численного моделирования взаимодействия лазерного излучения с металлами
    Компьютерные исследования и моделирование, 2018, т. 10, № 5, с. 619-630

    Работа посвящена использованию программного пакета Turbulence Problem Solver (TPS) для численного моделирования широкого спектра лазерных задач. Возможности пакета продемонстрированы на примере численного моделирования взаимодействия фемтосекундных лазерных импульсов с металлическими пленками. Разработанный авторами программный пакет TPS предназначен для численного решения гиперболических систем дифференциальных уравнений на многопроцессорных вычислительных системах с распределенной памятью. Пакет представляет собой современный и расширяемый программный продукт. Архитектура пакета дает исследователю возможность моделировать различные физические процессы единообразно, с помощью различных численных методик и программных блоков, содержащих специфические для каждой задачи начальные условия, граничные условия и источниковые компоненты. Пакет предоставляет пользователю возможность самостоятельно расширять функциональность пакета, добавляя новые классы задач, вычислительных методов, начальных и граничных условий, а также уравнений состояния вещества. Реализованные в программном пакете численные методики тестировались на тестовых задачах в одномерной, двумерной и трехмерной геометрии, в состав которых вошли задачи Римана о распаде произвольного разрыва с различными конфигурациями точного решения.

    Тонкие пленки на подложках — важный класс мишеней для наномодификации поверхностей в плазмонике или сенсорных приложениях. Этой тематике посвящено множество статей. Большинство из них, однако, концентрируются на динамике самой пленки, уделяя мало внимания подложке и рассматри- вая ее просто как объект, поглощающий первую волну сжатия и не влияющий на возникающие вследствие облучения поверхностные структуры. В работе подробно описан вычислительный эксперимент по численному моделированию взаимодействия единичного ультракороткого лазерного импульса с золотой пленкой, напыленной на толстую стеклянную подложку. Использовалась равномерная прямоугольная сетка и численный метод Годунова первого порядка точности. Представленные результаты расчетов позволили подтвердить теорию об ударно-волновом механизме образования отверстий в металле при фемтосекундной лазерной абляции для случая тонкой золотой пленки толщиной около 50 нм на толстой стеклянной подложке.

    Shepelev V.V., Fortova S.V., Oparina E.I.
    Application of Turbulence Problem Solver (TPS) software complex for numerical modeling of the interaction between laser radiation and metals
    Computer Research and Modeling, 2018, v. 10, no. 5, pp. 619-630

    The work is dedicated to the use of the software package Turbulence Problem Solver (TPS) for numerical simulation of a wide range of laser problems. The capabilities of the package are demonstrated by the example of numerical simulation of the interaction of femtosecond laser pulses with thin metal bonds. The software package TPS developed by the authors is intended for numerical solution of hyperbolic systems of differential equations on multiprocessor computing systems with distributed memory. The package is a modern and expandable software product. The architecture of the package gives the researcher the opportunity to model different physical processes in a uniform way, using different numerical methods and program blocks containing specific initial conditions, boundary conditions and source terms for each problem. The package provides the the opportunity to expand the functionality of the package by adding new classes of problems, computational methods, initial and boundary conditions, as well as equations of state of matter. The numerical methods implemented in the software package were tested on test problems in one-dimensional, two-dimensional and three-dimensional geometry, which included Riemann's problems on the decay of an arbitrary discontinuity with different configurations of the exact solution.

    Thin films on substrates are an important class of targets for nanomodification of surfaces in plasmonics or sensor applications. Many articles are devoted to this subject. Most of them, however, focus on the dynamics of the film itself, paying little attention to the substrate, considering it simply as an object that absorbs the first compression wave and does not affect the surface structures that arise as a result of irradiation. The paper describes in detail a computational experiment on the numerical simulation of the interaction of a single ultrashort laser pulse with a gold film deposited on a thick glass substrate. The uniform rectangular grid and the first-order Godunov numerical method were used. The presented results of calculations allowed to confirm the theory of the shock-wave mechanism of holes formation in the metal under femtosecond laser action for the case of a thin gold film with a thickness of about 50 nm on a thick glass substrate.

    Просмотров за год: 15.
  10. Усанов М.С., Кульберг Н.С., Морозов С.П.
    Разработка алгоритма анизотропной нелинейной фильтрации данных компьютерной томографии с применением динамического порога
    Компьютерные исследования и моделирование, 2019, т. 11, № 2, с. 233-248

    В статье рассматривается разработка алгоритма шумоподавления на основе анизотропной нелинейной фильтрации данных. Анализ отечественной и зарубежной литературы показал, что наиболее эффективные алгоритмы шумоподавления данных рентгеновской компьютерной томографии применяют комплекс нелинейных методик анализа и обработки данных, таких как билатеральная, адаптивная, трехмерная фильтрации. Однако комбинация таких методик редко применяется на практике ввиду большого времени обработки данных. В связи с этим было принято решение разработать эффективный и быстродейственный алгоритм шумоподавления на основе упрощенных билатеральных фильтров с трехмерным накоплением данных. Алгоритм был разработан на языке C++11 в программной среде Microsoft Visual Studio 2015. Основным отличием разработанного алгоритма шумоподавления является применение в нем улучшенной математической модели шума на основе распределения Пуассона и Гаусса от логарифмической величины, разработанной ранее. Это позволило точнее определить уровень шума и тем самым порог обработки данных. В результате работы алгоритма шумоподавления были получены обработанные данные компьютерной томографии с пониженным уровнем шума. При визуальной оценке работы алгоритма были отмечены повышенная информативность обработанных данных по сравнению с оригиналом, четкость отображения гомогенных областей и значительное сокращение шума в областях обработки. При оценке численных результатов обработки было выявлено снижение уровня среднеквадратичного отклонения более чем в 6 раз в областях, подвергшихся шумоподавлению, а высокие показатели коэффициента детерминации показали, что данные не подверглись искажению и изменились только из-за удаления шумов. Применение разработанного универсального динамического порога, принцип работы которого основан на пороговых критериях, позволил снизить уровень шума во всем массиве данных более чем в 6 раз. Динамический порог хорошо вписывается как в разработанный алгоритм шумоподавления на основе анизотропной нелинейной фильтрации, так и другой алгоритм шумоподавления. Алгоритм успешно функционирует в составе рабочей станции MultiVox, получил высокую оценку своей работы от специалистов-рентгенологов, а также готовится к внедрению в единую радиологическую сеть города Москвы в качестве модуля.

    Usanov M.S., Kulberg N.S., Morozov S.P.
    Development of anisotropic nonlinear noise-reduction algorithm for computed tomography data with context dynamic threshold
    Computer Research and Modeling, 2019, v. 11, no. 2, pp. 233-248

    The article deals with the development of the noise-reduction algorithm based on anisotropic nonlinear data filtering of computed tomography (CT). Analysis of domestic and foreign literature has shown that the most effective algorithms for noise reduction of CT data use complex methods for analyzing and processing data, such as bilateral, adaptive, three-dimensional and other types of filtrations. However, a combination of such techniques is rarely used in practice due to long processing time per slice. In this regard, it was decided to develop an efficient and fast algorithm for noise-reduction based on simplified bilateral filtration method with three-dimensional data accumulation. The algorithm was developed on C ++11 programming language in Microsoft Visual Studio 2015. The main difference of the developed noise reduction algorithm is the use an improved mathematical model of CT noise, based on the distribution of Poisson and Gauss from the logarithmic value, developed earlier by our team. This allows a more accurate determination of the noise level and, thus, the threshold of data processing. As the result of the noise reduction algorithm, processed CT data with lower noise level were obtained. Visual evaluation of the data showed the increased information content of the processed data, compared to original data, the clarity of the mapping of homogeneous regions, and a significant reduction in noise in processing areas. Assessing the numerical results of the algorithm showed a decrease in the standard deviation (SD) level by more than 6 times in the processed areas, and high rates of the determination coefficient showed that the data were not distorted and changed only due to the removal of noise. Usage of newly developed context dynamic threshold made it possible to decrease SD level on every area of data. The main difference of the developed threshold is its simplicity and speed, achieved by preliminary estimation of the data array and derivation of the threshold values that are put in correspondence with each pixel of the CT. The principle of its work is based on threshold criteria, which fits well both into the developed noise reduction algorithm based on anisotropic nonlinear filtration, and another algorithm of noise-reduction. The algorithm successfully functions as part of the MultiVox workstation and is being prepared for implementation in a single radiological network of the city of Moscow.

    Просмотров за год: 21.
Страницы: « первая предыдущая следующая последняя »

Журнал индексируется в Scopus

Полнотекстовая версия журнала доступна также на сайте научной электронной библиотеки eLIBRARY.RU

Журнал включен в базу данных Russian Science Citation Index (RSCI) на платформе Web of Science

Международная Междисциплинарная Конференция "Математика. Компьютер. Образование"

Международная Междисциплинарная Конференция МАТЕМАТИКА. КОМПЬЮТЕР. ОБРАЗОВАНИЕ.