Текущий выпуск Номер 3, 2024 Том 16

Все выпуски

Результаты поиска по 'A* algorithm':
Найдено статей: 281
  1. Котлярова Е.В., Северилов П.А., Ивченков Я.П., Мокров П.В., Чеканов М.О., Гасникова Е.В., Шароватова Ю.И.
    Ускорение работы двухстадийной модели равновесного распределения потоков по сети
    Компьютерные исследования и моделирование, 2022, т. 14, № 2, с. 343-355

    В работе приведены возможные улучшения двухстадийной модели равновесного распределения транспортных потоков, повышающие качество детализации моделирования и скорость вычисления алгоритмов. Модель состоит из двух блоков, первый блок — модель расчета матрицы корреспонденций, второй блок — модель равновесного распределения транспортных потоков по путям. Равновесием в двухстадийной модели транспортных потоков называют неподвижную точку цепочки из этих двух моделей. Более подробно теория и эксперименты по данной модели были описаны в предыдущих работах авторов. В этой статье в первую очередь рассмотрена возможность сокращения вычислительного времени алгоритма расчета кратчайших путей (в модели стабильной динамики, равновесно распределяющей потоки). В исходном варианте эта задача была выполнена с помощью алгоритма Дийкстры, но, так как после каждой итерации блока распределения транспортных потоков, время, требующееся для прохода по ребру, изменяется не на всех ребрах (и если изменяется, то очень незначительно), во многом этот алгоритм был избыточен. Поэтому были проведены эксперименты с более новым методом, учитывающим подобные особенности, и приведен краткий обзор других ускоряющих подходов для будущих исследований. Эксперименты показали, что в некоторых случаях использование выбранного T-SWSF-алгоритма действительно сокращает вычислительное время. Во вторую очередь в блоке восстановления матрицы корреспонденций алгоритм Синхорна был заменен на алгоритм ускоренного Синхорна (или AAM-алгоритм), что, к сожалению, не показало ожидаемых результатов, расчетное время не изменилось. Инак онец, в третьем и финальном разделе приведена визуализация результатов экспериментов по добавлению платных дорог в двухстадийную модель, что помогло сократить количество перегруженных ребер в сети. Также во введении кратко описана мотивация данных исследований, приведено описание работы двухстадийной модели, а также на маленьком примере с двумя городами разобрано, как с ее помощью выполняется поиск равновесия.

    Kotliarova E.V., Severilov P.A., Ivchenkov Y.P., Mokrov P.V., Chekanov M.O., Gasnikova E.V., Sharovatova Y.I.
    Speeding up the two-stage simultaneous traffic assignment model
    Computer Research and Modeling, 2022, v. 14, no. 2, pp. 343-355

    This article describes possible improvements for the simultaneous multi-stage transport model code for speeding up computations and improving the model detailing. The model consists of two blocks, where the first block is intended to calculate the correspondence matrix, and the second block computes the equilibrium distribution of traffic flows along the routes. The first block uses a matrix of transport costs that calculates a matrix of correspondences. It describes the costs (time in our case) of travel from one area to another. The second block presents how exactly the drivers (agents) are distributed along the possible paths. So, knowing the distribution of the flows along the paths, it is possible to calculate the cost matrix. Equilibrium in a two-stage traffic flow model is a fixed point of a sequence of the two described models. Thus, in this paper we report an attempt to influence the calculation speed of Dijkstra’s algorithm part of the model. It is used to calculate the shortest path from one point to another, which should be re-calculated after each iteration of the flow distribution part. We also study and implement the road pricing in the model code, as well as we replace the Sinkhorn algorithm in the calculation of the correspondence matrix part with its faster implementation. In the beginning of the paper, we provide a short theoretical overview of the transport modelling motivation; we discuss current approaches to the modelling and provide an example for demonstration of how the whole cycle of multi-stage transport modelling works.

  2. Уифтер Т.Т., Разумный Ю.Н., Орловский А.В., Лобанов В.К.
    Мониторинг распространения борщевика Сосновского с использованием алгоритма машинного обучения «случайный лес» в Google Earth Engine
    Компьютерные исследования и моделирование, 2022, т. 14, № 6, с. 1357-1370

    Изучение спектрального отклика растений на основе данных, собранных с помощью дистанционного зондирования, имеет большой потенциал для решения реальных проблем в различных областях исследований. В этом исследовании мы использовали спектральные свойства для идентификации инвазивного растения — борщевика Сосновского — по спутниковым снимкам. Борщевик Сосновского — инвазивное растение, которое наносит много вреда людям, животным и экосистеме в целом. Мы использовали выборочные данные о геолокации мест произрастания борщевика в Московской области, собранные с 2018 по 2020 год, и спутниковые снимки Sentinel-2 для спектрального анализа с целью его обнаружения на снимках. Мы развернули модель машинного обучения Random Forest (RF) на облачной платформе Google Earth Engine (GEE). Алгоритм обучается на наборе данных, состоящем из 12 каналов спутниковых снимков Sentinel-2, цифровой модели рельефа и некоторых спектральных индексов, которые используются в алгоритме в качестве параметров. Используемый подход заключается в выявлении биофизических параметров борщевика Сосновского по его коэффициентам отражения с уточнением радиочастотной модели непосредственно по набору данных. Наши результаты наглядно демонстрируют насколько сочетание методов дистанционного зондирования и машинного обучения может помочь в обнаружении борщевика и контроле его инвазивного распространения. Наш подход обеспечивает высокую точность обнаружения очагов произрастания борщевика Сосновского, составляющую 96,93 %.

    Yifter T.T., Razoumny Y.N., Orlovsky A.V., Lobanov V.K.
    Monitoring the spread of Sosnowskyi’s hogweed using a random forest machine learning algorithm in Google Earth Engine
    Computer Research and Modeling, 2022, v. 14, no. 6, pp. 1357-1370

    Examining the spectral response of plants from data collected using remote sensing has a lot of potential for solving real-world problems in different fields of research. In this study, we have used the spectral property to identify the invasive plant Heracleum sosnowskyi Manden from satellite imagery. H. sosnowskyi is an invasive plant that causes many harms to humans, animals and the ecosystem at large. We have used data collected from the years 2018 to 2020 containing sample geolocation data from the Moscow Region where this plant exists and we have used Sentinel-2 imagery for the spectral analysis towards the aim of detecting it from the satellite imagery. We deployed a Random Forest (RF) machine learning model within the framework of Google Earth Engine (GEE). The algorithm learns from the collected data, which is made up of 12 bands of Sentinel-2, and also includes the digital elevation together with some spectral indices, which are used as features in the algorithm. The approach used is to learn the biophysical parameters of H. sosnowskyi from its reflectances by fitting the RF model directly from the data. Our results demonstrate how the combination of remote sensing and machine learning can assist in locating H. sosnowskyi, which aids in controlling its invasive expansion. Our approach provides a high detection accuracy of the plant, which is 96.93%.

  3. Скачков Д.А., Гладышев С.И., Райгородский А.М.
    Экспериментальное сравнение алгоритмов поиска вектора PageRank
    Компьютерные исследования и моделирование, 2023, т. 15, № 2, с. 369-379

    Задача поиска PageRank вектора представляет большой научный и практический интерес ввиду своей применимости к работе современных поисковых систем. Несмотря на то, что данная задача сводится к поиску собственного вектора стохастической матрицы $P$, потребность в новых алгоритмах для ее решения обусловлена большими размерами входных данных. Для достижения не более чем линейного времени работы применяются различные рандомизированные методы, возвращающие ожидаемый ответ лишь с некоторой достаточно близкой к единице вероятностью. Нами рассматриваются два таких способа, сводящие задачу поиска вектора PageRank к задаче поиска равновесия в антагонистической матричной игре, которая затем решается с помощью алгоритма Григориадиса – Хачияна. При этом данная реализация эффективно работает в предположении о разреженности матрицы, подаваемой на вход. Насколько нам известно, до сих пор не было ни одной успешной реализации ни алгоритма Григориадиса – Хачияна, ни его применения к задаче поиска вектора PageRank. Данная статья ставит перед собой задачу восполнить этот пробел. В работе приводится описание двух версий алгоритма с псевдокодом и некоторые детали их реализации. Кроме того, в работе рассматривается другой вероятностный метод поиска вектора PageRank, а именно Markov chain Monte Carlo (MCMC), с целью сравнения результатов работы указанных алгоритмов на матрицах с различными значениями спектральной щели. Последнее представляет особый интерес, поскольку значение спектральной щели сильно влияет на скорость сходимости MCMC, и не оказывает никакого влияния на два других подхода. Сравнение проводилось на сгенерированных графах двух видов: цепочках и $d$-мерных кубах. Проведенные эксперименты, как и предсказывает теория, демонстрируют эффективность алгоритма Григориадиса – Хачияна по сравнению с MCMC для разреженных графов с маленьким значением спектральной щели. Весь код находится в открытом доступе, так чтобы все желающие могли воспроизвести полученные результаты самостоятельно, или же использовать данную реализацию в своих нуждах. Работа имеет чисто практическую направленность, никаких теоретических результатов авторами получено не было.

    Skachkov D.A., Gladyshev S.I., Raigorodsky A.M.
    Experimental comparison of PageRank vector calculation algorithms
    Computer Research and Modeling, 2023, v. 15, no. 2, pp. 369-379

    Finding PageRank vector is of great scientific and practical interest due to its applicability to modern search engines. Despite the fact that this problem is reduced to finding the eigenvector of the stochastic matrix $P$, the need for new algorithms is justified by a large size of the input data. To achieve no more than linear execution time, various randomized methods have been proposed, returning the expected result only with some probability close enough to one. We will consider two of them by reducing the problem of calculating the PageRank vector to the problem of finding equilibrium in an antagonistic matrix game, which is then solved using the Grigoriadis – Khachiyan algorithm. This implementation works effectively under the assumption of sparsity of the input matrix. As far as we know, there are no successful implementations of neither the Grigoriadis – Khachiyan algorithm nor its application to the task of calculating the PageRank vector. The purpose of this paper is to fill this gap. The article describes an algorithm giving pseudocode and some details of the implementation. In addition, it discusses another randomized method of calculating the PageRank vector, namely, Markov chain Monte Carlo (MCMC), in order to compare the results of these algorithms on matrices with different values of the spectral gap. The latter is of particular interest, since the magnitude of the spectral gap strongly affects the convergence rate of MCMC and does not affect the other two approaches at all. The comparison was carried out on two types of generated graphs: chains and $d$-dimensional cubes. The experiments, as predicted by the theory, demonstrated the effectiveness of the Grigoriadis – Khachiyan algorithm in comparison with MCMC for sparse graphs with a small spectral gap value. The written code is publicly available, so everyone can reproduce the results themselves or use this implementation for their own needs. The work has a purely practical orientation, no theoretical results were obtained.

  4. Недбайло Ю.А., Сурченко А.В., Бычков И.Н.
    Снижение частоты промахов в неинклюзивный кэш с инклюзивным справочником многоядерного процессора
    Компьютерные исследования и моделирование, 2023, т. 15, № 3, с. 639-656

    Хотя эпоха экспоненциального роста производительности компьютерных микросхем закончилась, даже настольные процессоры общего назначения сегодня имеют 16 и больше ядер. Поскольку пропускная способность памяти DRAM растет не с такой скоростью, как вычислительная мощность ядер, разработчики процессоров должны искать пути уменьшения частоты обменов с памятью на одну инструкцию. Непосредственным путем к этому является снижение частоты промахов в кэш последнего уровня. Предполагая уже реализованной схему «неинклюзивный кэш с инклюзивным справочником» (NCID), три способа дальнейшего снижения частоты промахов были исследованы.

    Первый способ — это достижение более равномерного использования банков и наборов кэша применением хэш-функций для интерливинга и индексирования. В экспериментах в тестах SPEC CPU2017 refrate, даже простейшие хэш-функции на основе XOR показали увеличение производительности на 3,2%, 9,1% и 8,2% в конфигурациях процессора с 16, 32 и 64 ядрами и банками общего кэша, сравнимое с результатами для более сложных функций на основе матриц, деления и CRC.

    Вторая оптимизация нацелена на уменьшение дублирования на разных уровнях кэшей путем автоматического переключения на эксклюзивную схему, когда она выглядит оптимальной. Известная схема этого типа, FLEXclusion, была модифицирована для использования в NCID-кэшах и показала улучшение производительности в среднемна 3,8%, 5,4% и 7,9% для 16-, 32- и 64-ядерных конфигураций.

    Третьей оптимизацией является увеличение фактической емкости кэша использованием компрессии. Частота сжатия недорогим и быстрыма лгоритмом B DI*-HL (Base-Delta-Immediate Modified, Half-Line), разработанным для NCID, была измерена, и соответствующее увеличение емкости кэша дало около 1% среднего повышения производительности.

    Все три оптимизации могут сочетаться и продемонстрировали прирост производительности в 7,7%, 16% и 19% для конфигураций с 16, 32 и 64 ядрами и банками соответственно.

    Nedbailo Y.A., Surchenko A.V., Bychkov I.N.
    Reducing miss rate in a non-inclusive cache with inclusive directory of a chip multiprocessor
    Computer Research and Modeling, 2023, v. 15, no. 3, pp. 639-656

    Although the era of exponential performance growth in computer chips has ended, processor core numbers have reached 16 or more even in general-purpose desktop CPUs. As DRAM throughput is unable to keep pace with this computing power growth, CPU designers need to find ways of lowering memory traffic per instruction. The straightforward way to do this is to reduce the miss rate of the last-level cache. Assuming “non-inclusive cache, inclusive directory” (NCID) scheme already implemented, three ways of reducing the cache miss rate further were studied.

    The first is to achieve more uniform usage of cache banks and sets by employing hash-based interleaving and indexing. In the experiments in SPEC CPU2017 refrate tests, even the simplest XOR-based hash functions demonstrated a performance increase of 3.2%, 9.1%, and 8.2% for CPU configurations with 16, 32, and 64 cores and last-level cache banks, comparable to the results of more complex matrix-, division- and CRC-based functions.

    The second optimisation is aimed at reducing replication at different cache levels by means of automatically switching to the exclusive scheme when it appears optimal. A known scheme of this type, FLEXclusion, was modified for use in NCID caches and showed an average performance gain of 3.8%, 5.4 %, and 7.9% for 16-, 32-, and 64-core configurations.

    The third optimisation is to increase the effective cache capacity using compression. The compression rate of the inexpensive and fast BDI*-HL (Base-Delta-Immediate Modified, Half-Line) algorithm, designed for NCID, was measured, and the respective increase in cache capacity yielded roughly 1% of the average performance increase.

    All three optimisations can be combined and demonstrated a performance gain of 7.7%, 16% and 19% for CPU configurations with 16, 32, and 64 cores and banks, respectively.

  5. В данной работе показаны преимущества использования алгоритмов искусственного интеллекта для планирования эксперимента, позволяющих повысить точность идентификации параметров для эластостатической модели робота. Планирование эксперимента для робота заключается в подборе оптимальных пар «конфигурация – внешняя сила» для использования в алгоритмах идентификации, включающих в себя несколько основных этапов. На первом этапе создается эластостатическая модель робота, учитывающая все возможные механические податливости. Вторым этапом выбирается целевая функция, которая может быть представлена как классическими критериями оптимальности, так и критериями, напрямую следующими из желаемого применения робота. Третьим этапом производится поиск оптимальных конфигураций методами численной оптимизации. Четвертым этапом производится замер положения рабочего органа робота в полученных конфигурациях под воздействием внешней силы. На последнем, пятом, этапе выполняется идентификация эластостатичесих параметров манипулятора на основе замеренных данных.

    Целевая функция для поиска оптимальных конфигураций для калибровки индустриального робота является ограниченной в силу механических ограничений как со стороны возможных углов вращения шарниров робота, так и со стороны возможных прикладываемых сил. Решение данной многомерной и ограниченной задачи является непростым, поэтому предлагается использовать подходы на базе искусственного интеллекта. Для нахождения минимума целевой функции были использованы следующие методы, также иногда называемые эвристическими: генетические алгоритмы, оптимизация на основе роя частиц, алгоритм имитации отжига т. д. Полученные результаты были проанализированы с точки зрения времени, необходимого для получения конфигураций, оптимального значения, а также итоговой точности после применения калибровки. Сравнение показало преимущество рассматриваемых техник оптимизации на основе искусственного интеллекта над классическими методами поиска оптимального значения. Результаты данной работы позволяют уменьшить время, затрачиваемое на калибровку, и увеличить точность позиционирования рабочего органа робота после калибровки для контактных операций с высокими нагрузками, например таких, как механическая обработка и инкрементальная формовка.

    Popov D.I.
    Calibration of an elastostatic manipulator model using AI-based design of experiment
    Computer Research and Modeling, 2023, v. 15, no. 6, pp. 1535-1553

    This paper demonstrates the advantages of using artificial intelligence algorithms for the design of experiment theory, which makes possible to improve the accuracy of parameter identification for an elastostatic robot model. Design of experiment for a robot consists of the optimal configuration-external force pairs for the identification algorithms and can be described by several main stages. At the first stage, an elastostatic model of the robot is created, taking into account all possible mechanical compliances. The second stage selects the objective function, which can be represented by both classical optimality criteria and criteria defined by the desired application of the robot. At the third stage the optimal measurement configurations are found using numerical optimization. The fourth stage measures the position of the robot body in the obtained configurations under the influence of an external force. At the last, fifth stage, the elastostatic parameters of the manipulator are identified based on the measured data.

    The objective function required to finding the optimal configurations for industrial robot calibration is constrained by mechanical limits both on the part of the possible angles of rotation of the robot’s joints and on the part of the possible applied forces. The solution of this multidimensional and constrained problem is not simple, therefore it is proposed to use approaches based on artificial intelligence. To find the minimum of the objective function, the following methods, also sometimes called heuristics, were used: genetic algorithms, particle swarm optimization, simulated annealing algorithm, etc. The obtained results were analyzed in terms of the time required to obtain the configurations, the optimal value, as well as the final accuracy after applying the calibration. The comparison showed the advantages of the considered optimization techniques based on artificial intelligence over the classical methods of finding the optimal value. The results of this work allow us to reduce the time spent on calibration and increase the positioning accuracy of the robot’s end-effector after calibration for contact operations with high loads, such as machining and incremental forming.

  6. Жабицкая Е.И., Жабицкий М.В., Земляная Е.В., Лукьянов К.В.
    Расчет параметров микроскопического оптического потенциала упругого рассеяния π-мезонов на ядрах с применением алгоритма асинхронной дифференциальной эволюции
    Компьютерные исследования и моделирование, 2012, т. 4, № 3, с. 585-595

    Новый асинхронный алгоритм дифференциальной эволюции использован для определения параметров микроскопического оптического потенциала упругого рассеяния пионов на ядрах 28Si, 58Ni и 208Pb при энергиях 130, 162 и 180 МэВ.

    Zhabitskaya E.I., Zhabitsky M.V., Zemlyanay E.V., Lukyanov K.V.
    Calculation of the parameters of microscopic optical potential for pionnuclei elastic scattering by Asynchronous Differential Evolution algorithm
    Computer Research and Modeling, 2012, v. 4, no. 3, pp. 585-595

    New Asynchronous Differential Evolution algorithm is used to determine the parameters of microscopic optical potential of elastic pion scattering on 28Si, 58Ni and 208Pb nuclei at energy 130, 162 and 180 MeV.

    Просмотров за год: 1. Цитирований: 3 (РИНЦ).
  7. Кольцов Ю.В., Бобошко Е.В.
    Сравнительный анализ методов оптимизации для решения задачи интервальной оценки потерь электроэнергии
    Компьютерные исследования и моделирование, 2013, т. 5, № 2, с. 231-239

    Данная работа посвящена сравнительному анализу оптимизационных методов и алгоритмов для проведения интервальной оценки технических потерь электроэнергии в распределительных сетях напряжением 6–20 кВ. Задача интервальной оценки потерь сформулирована в виде задачи многомерной условной минимизации/максимизации с неявной целевой функцией. Рассмотрен ряд методов численной оптимизации первого и нулевого порядков, с целью определения наиболее подходящего для решения рассмотренной проблемы. Таким является алгоритм BOBYQA, в котором целевая функция заменяется ее квадратичной аппроксимацией в пределах доверительной области.

    Koltsov Y.V., Boboshko E.V.
    Comparative analysis of optimization methods for electrical energy losses interval evaluation problem
    Computer Research and Modeling, 2013, v. 5, no. 2, pp. 231-239

    This article is dedicated to a comparison analysis of optimization methods, in order to perform an interval estimation of electrical energy technical losses in distribution networks of voltage 6–20 kV. The issue of interval evaluation is represented as a multi-dimensional conditional minimization/maximization problem with implicit target function. A number of numerical optimization methods of first and zero orders is observed, with the aim of determining the most suitable for the problem of interest. The desired algorithm is BOBYQA, in which the target function is replaced with its quadratic approximation in some trusted region.

    Просмотров за год: 2. Цитирований: 1 (РИНЦ).
  8. Усанов М.С., Кульберг Н.С., Яковлева Т.В., Морозов С.П.
    Определение дозы излучения компьютерной томографии по анализу уровня шума
    Компьютерные исследования и моделирование, 2018, т. 10, № 4, с. 525-533

    В статье рассматривается процесс создания эффективного алгоритма для определения количества излученных квантов с рентгеновской трубки в исследованиях компьютерной томографии. Анализ отечественной и зарубежной литературы показал, что большинство работ в области радиометрии и радиографии принимают во внимание табличные значения показателей поглощения рентгеновского излучения, а индивидуальные показатели дозы не учитывают вовсе, т. к. во многих исследованиях отсутствует радиометрический отчет (Dose Report) и для облегчения расчетов статистики применяется средний показатель. В связи с этим было принято решение разработать средства выявления данных об ионизирующей нагрузке путем анализа шума компьютерной томографии (КТ). В качестве основы алгоритма принята математическая модель распределения шума собственной разработки на основе распределения Пуассона и Гаусса от логарифмической величины. Результирующая математическая модель проверялась на данных КТ калибровочного фантома, состоящего из трех пластиковых цилиндров, заполненных водой, коэффициент поглощения рентгеновского излучения которых известен из табличных значений. Данные были получены с нескольких КТ приборов различных производителей (Siemens, Toshiba, GE, Phillips). Разработанный алгоритм позволил рассчитать количество излученных квантов рентгеновского излучения за единицу времени. Эти данные, с учетом уровня шума и радиусов цилиндров, были преобразованы в величины поглощения рентгеновского излучения, после чего проводилось сравнение с табличными значениями. В результате работы алгоритма с данными КТ различных конфигураций были получены экспериментальные данные, согласующиеся с теоретической частью и математической моделью. Результаты показали хорошую точность алгоритма и математического аппарата, что может говорить о достоверности полученных данных. Данная математическая модель уже применяется в программе шумоподавления КТ собственной разработки, где она участвует в качестве средства создания динамического порога шумоподавления. В данный момент алгоритм проходит процедуру доработки для работы с реальными данными компьютерной томографии пациентов.

    Usanov M.S., Kulberg N.S., Yakovleva T.V., Morozov S.P.
    Determination of CT dose by means of noise analysis
    Computer Research and Modeling, 2018, v. 10, no. 4, pp. 525-533

    The article deals with the process of creating an effective algorithm for determining the amount of emitted quanta from an X-ray tube in computer tomography (CT) studies. An analysis of domestic and foreign literature showed that most of the work in the field of radiometry and radiography takes the tabulated values of X-ray absorption coefficients into account, while individual dose factors are not taken into account at all since many studies are lacking the Dose Report. Instead, an average value is used to simplify the calculation of statistics. In this regard, it was decided to develop a method to detect the amount of ionizing quanta by analyzing the noise of CT data. As the basis of the algorithm, we used Poisson and Gauss distribution mathematical model of owns’ design of logarithmic value. The resulting mathematical model was tested on the CT data of a calibration phantom consisting of three plastic cylinders filled with water, the X-ray absorption coefficient of which is known from the table values. The data were obtained from several CT devices from different manufacturers (Siemens, Toshiba, GE, Phillips). The developed algorithm made it possible to calculate the number of emitted X-ray quanta per unit time. These data, taking into account the noise level and the radiuses of the cylinders, were converted to X-ray absorption values, after which a comparison was made with tabulated values. As a result of this operation, the algorithm used with CT data of various configurations, experimental data were obtained, consistent with the theoretical part and the mathematical model. The results showed good accuracy of the algorithm and mathematical apparatus, which shows reliability of the obtained data. This mathematical model is already used in the noise reduction program of the CT of own design, where it participates as a method of creating a dynamic threshold of noise reduction. At the moment, the algorithm is being processed to work with real data from computer tomography of patients.

    Просмотров за год: 23. Цитирований: 1 (РИНЦ).
  9. Орлова Е.В.
    Модель оперативного оптимального управления распределением финансовых ресурсов предприятия
    Компьютерные исследования и моделирование, 2019, т. 11, № 2, с. 343-358

    В статье проведен критический анализ существующих методов и моделей, предназначенных для решения задачи планирования распределения финансовых ресурсов в цикле оперативного управления предприятием. Выявлен ряд существенных недостатков представленных моделей, ограничивающих сферу их применения: статический характер моделей, не учитывается вероятностный характер финансовых потоков, не выявляются существенно влияющие на платежеспособность и ликвидность предприятия ежедневные суммы остатков дебиторской и кредиторской задолженности. Это обуславливает необходи- мость разработки новой модели, отражающей существенные свойства системы планирования финансо- вых потоков — стохастичность, динамичность, нестационарность. Назначением такой модели является информационная поддержка принимаемых решений при формировании плана расходования финансовых ресурсов по критериям экономической эффективности.

    Разработана модель распределения финансовых потоков, основанная на принципах оптимального динамического управления и методе динамического программирования, обеспечивающая планирование распределения финансовых ресурсов с учетом достижения достаточного уровня ликвидности и платежеспособности предприятия в условиях неопределенности исходных данных. Предложена алгоритмическая схема формирования целевого остатка денежных средств на принципах обеспечения финансовой устойчивости предприятия в условиях изменяющихся финансовых ограничений.

    Особенностью предложенной модели является представление процесса распределения денежных средств в виде дискретного динамического процесса, для которого определяется план распределения финансовых ресурсов, обеспечивающий экстремум критерия эффективности. Формирование такого плана основано на согласовании платежей (финансовых оттоков) с их поступлениями (финансовыми притоками). Такой подход позволяет синтезировать разные планы, отличающиеся разным сочетанием финансовых оттоков, а затем осуществлять поиск наилучшего по заданному критерию. В качестве критерия эффективности приняты минимальные суммарные затраты, связанные с уплатой штрафов за несвоевременное финансирование расходных статей. Ограничениями в модели являются требование обеспечения минимально допустимой величины остатков накопленных денежных средств по подпериодам планового периода, а также обязательность осуществления платежей в течение планового периода с учетом сроков погашения этих платежей. Модель позволяет с высокой степенью эффективности решать задачу планирования распределения финансовых ресурсов в условиях неопределенности сроков и объемов их поступления, согласования притоков и оттоков финансовых ресурсов. Практическая значимость модели состоит в возможности улучшить качество финансового планирования, повысить эффективность управления и операционную эффективность предприятия.

    Orlova E.V.
    Model for operational optimal control of financial recourses distribution in a company
    Computer Research and Modeling, 2019, v. 11, no. 2, pp. 343-358

    A critical analysis of existing approaches, methods and models to solve the problem of financial resources operational management has been carried out in the article. A number of significant shortcomings of the presented models were identified, limiting the scope of their effective usage. There are a static nature of the models, probabilistic nature of financial flows are not taken into account, daily amounts of receivables and payables that significantly affect the solvency and liquidity of the company are not identified. This necessitates the development of a new model that reflects the essential properties of the planning financial flows system — stochasticity, dynamism, non-stationarity.

    The model for the financial flows distribution has been developed. It bases on the principles of optimal dynamic control and provides financial resources planning ensuring an adequate level of liquidity and solvency of a company and concern initial data uncertainty. The algorithm for designing the objective cash balance, based on principles of a companies’ financial stability ensuring under changing financial constraints, is proposed.

    Characteristic of the proposed model is the presentation of the cash distribution process in the form of a discrete dynamic process, for which a plan for financial resources allocation is determined, ensuring the extremum of an optimality criterion. Designing of such plan is based on the coordination of payments (cash expenses) with the cash receipts. This approach allows to synthesize different plans that differ in combinations of financial outflows, and then to select the best one according to a given criterion. The minimum total costs associated with the payment of fines for non-timely financing of expenses were taken as the optimality criterion. Restrictions in the model are the requirement to ensure the minimum allowable cash balances for the subperiods of the planning period, as well as the obligation to make payments during the planning period, taking into account the maturity of these payments. The suggested model with a high degree of efficiency allows to solve the problem of financial resources distribution under uncertainty over time and receipts, coordination of funds inflows and outflows. The practical significance of the research is in developed model application, allowing to improve the financial planning quality, to increase the management efficiency and operational efficiency of a company.

    Просмотров за год: 33.
  10. Галиев Ш.И., Хорьков А.В.
    Linear and nonlinear optimization models of multiple covering of a bounded plane domain with circles
    Компьютерные исследования и моделирование, 2019, т. 11, № 6, с. 1101-1110

    Problems of multiple covering ($k$-covering) of a bounded set $G$ with equal circles of a given radius are well known. They are thoroughly studied under the assumption that $G$ is a finite set. There are several papers concerned with studying this problem in the case where $G$ is a connected set. In this paper, we study the problem of minimizing the number of circles that form a $k$-covering, $k \geqslant 1$, provided that $G$ is a bounded convex plane domain.

    For the above-mentioned problem, we state a 0-1 linear model, a general integer linear model, and a nonlinear model, imposing a constraint on the minimum distance between the centers of covering circles. The latter constraint is due to the fact that in practice one can place at most one device at each point. We establish necessary and sufficient solvability conditions for the linear models and describe one (easily realizable) variant of these conditions in the case where the covered set $G$ is a rectangle.

    We propose some methods for finding an approximate number of circles of a given radius that provide the desired $k$-covering of the set $G$, both with and without constraints on distances between the circles’ centers. We treat the calculated values as approximate upper bounds for the number of circles. We also propose a technique that allows one to get approximate lower bounds for the number of circles that is necessary for providing a $k$-covering of the set $G$. In the general linear model, as distinct from the 0-1 linear model, we require no additional constraint. The difference between the upper and lower bounds for the number of circles characterizes the quality (acceptability) of the constructed $k$-covering.

    We state a nonlinear mathematical model for the $k$-covering problem with the above-mentioned constraints imposed on distances between the centers of covering circles. For this model, we propose an algorithm which (in certain cases) allows one to find more exact solutions to covering problems than those calculated from linear models.

    For implementing the proposed approach, we have developed computer programs and performed numerical experiments. Results of numerical experiments demonstrate the effectiveness of the method.

    Khorkov A.V., Khorkov A.V.
    Linear and nonlinear optimization models of multiple covering of a bounded plane domain with circles
    Computer Research and Modeling, 2019, v. 11, no. 6, pp. 1101-1110

    Problems of multiple covering ($k$-covering) of a bounded set $G$ with equal circles of a given radius are well known. They are thoroughly studied under the assumption that $G$ is a finite set. There are several papers concerned with studying this problem in the case where $G$ is a connected set. In this paper, we study the problem of minimizing the number of circles that form a $k$-covering, $k \geqslant 1$, provided that $G$ is a bounded convex plane domain.

    For the above-mentioned problem, we state a 0-1 linear model, a general integer linear model, and a nonlinear model, imposing a constraint on the minimum distance between the centers of covering circles. The latter constraint is due to the fact that in practice one can place at most one device at each point. We establish necessary and sufficient solvability conditions for the linear models and describe one (easily realizable) variant of these conditions in the case where the covered set $G$ is a rectangle.

    We propose some methods for finding an approximate number of circles of a given radius that provide the desired $k$-covering of the set $G$, both with and without constraints on distances between the circles’ centers. We treat the calculated values as approximate upper bounds for the number of circles. We also propose a technique that allows one to get approximate lower bounds for the number of circles that is necessary for providing a $k$-covering of the set $G$. In the general linear model, as distinct from the 0-1 linear model, we require no additional constraint. The difference between the upper and lower bounds for the number of circles characterizes the quality (acceptability) of the constructed $k$-covering.

    We state a nonlinear mathematical model for the $k$-covering problem with the above-mentioned constraints imposed on distances between the centers of covering circles. For this model, we propose an algorithm which (in certain cases) allows one to find more exact solutions to covering problems than those calculated from linear models.

    For implementing the proposed approach, we have developed computer programs and performed numerical experiments. Results of numerical experiments demonstrate the effectiveness of the method.

Страницы: « первая предыдущая следующая последняя »

Журнал индексируется в Scopus

Полнотекстовая версия журнала доступна также на сайте научной электронной библиотеки eLIBRARY.RU

Журнал включен в базу данных Russian Science Citation Index (RSCI) на платформе Web of Science

Международная Междисциплинарная Конференция "Математика. Компьютер. Образование"

Международная Междисциплинарная Конференция МАТЕМАТИКА. КОМПЬЮТЕР. ОБРАЗОВАНИЕ.