Текущий выпуск Номер 2, 2024 Том 16

Все выпуски

Результаты поиска по 'time-series':
Найдено статей: 41
  1. Коганов А.В.
    Тесты проверки параллельной организации логических вычислений, основанные на алгебре и автоматах
    Компьютерные исследования и моделирование, 2017, т. 9, № 4, с. 621-638

    Работа продолжает опубликованные ранее исследования по способности человека повышать производительность обработки информации при параллельном выполнении нескольких логических операций заданного вида. В статье предлагаются новые тесты, позволяющие выявлять указанную способность человеческого мозга в серии предъявлений. Производительность человека определяется средним количеством информации, которую обрабатывает человек в единицу времени, решая серию тестовых задач. Сложность задачи в каждой серии тестов определяется средним количеством логических операций, которые надо выполнить для решения с учетом статистических свойств серии задач. Тесты строятся таким образом, чтобы сложность контролировалась. Изучается зависимость производительности испытуемого от сложности задач в серии. Если человек использует последовательный алгоритм решения и не меняет скорости выполнения логических операций, то производительность не зависит от сложности и среднее время решения задачи в серии примерно пропорционально сложности. Если скорость выполнения операций растет с повышением сложности (растет концентрация внимания), то увеличивается и производительность. Тот же эффект возникает, если человек при достаточно высокой сложности задачи начинает выполнять несколько логических операций одновременно (параллельные вычисления). Для контроля причин роста производительности строятся контрольные тесты на том же классе логических операций, в которых параллельная организация счета малоэффективна. Если рост производительности наблюдается как на основных, так и на контрольных тестах, то причиной роста производительности является увеличение быстродействия. Если же на контрольных тестах нет роста производительности, а на основных тестах рост имеется, то причиной роста является параллельный счет. С точки зрения теории операций это означает использование одновременной работы нескольких процессоров, каждый из которых в единицу времени перерабатывает не более некоторого известного числа элементов входных данных или промежуточных результатов (производительность процессора). В данной статье предлагается система тестов, в которой используется аппарат универсальных алгебр и теории автоматов. Работа является продолжением цикла работ по исследованию способностей человека к параллельным вычислениям. Ранее использованные тесты в экспериментах показали эффективность методики. Основные предыдущие публикации на эту тему приведены в списке литературы. Задачи в новых предлагаемых тестах можно описать как вычисление результата серии последовательных однотипных операций из некоторой специальной алгебры. Если операция ассоциативная, то с помощью удачной группировки вычислений можно эффективно применить параллельный счет. Анализируется зависимость времени решения задачи от сложности. Чтобы выявлять ситуации, когда человек увеличивает быстродействие одного процессора по мере роста сложности, требуется предъявить серии задач с похожими операциями, но в неассоциативной алгебре. Для таких задач параллельный счет малоэффективен с точки зрения отношения прироста производительности к увеличению числа процессоров. Так формируется контрольная группа тестов. В статье рассмотрен еще один класс тестов, основанных на расчете траектории состояния заданного формального автомата при задании входной последовательности. Исследован специальный класс автоматов (реле), конструкция которых влияет на эффективность параллельного расчета финального состояния. Для всех тестов оценивается эффективность параллельного счета. Эксперименты с новыми тестами не входят в данную статью.

    We build new tests which permit to increase the human capacity for the information processing by the parallel execution of the several logic operations of prescribed type. For checking of the causes of the capacity increasing we develop the check tests on the same logic operations class in which the parallel organization of the calculations is low-effectively. We use the apparatus of the universal algebra and automat theory. This article is the extension of the cycle of the work, which investigates the human capacity for the parallel calculations. The general publications on this theme content in the references. The tasks in the described tests may to define in the form of the calculation of the result in the sequence of the same type operations from some algebra. If this operation is associative then the parallel calculation is effectively by successful grouping of process. In Theory of operations that is the using the simultaneous work several processors. Each processor transforms in the time unit the certain known number of the elements of the input date or the intermediate results (the processor productivity). Now it is not known what kind elements of date are using by the brain for the logical or mathematical calculation, and how many elements are treating in the time units. Therefore the test contains the sequence of the presentations of the tasks with different numbers of logical operations in the fixed alphabet. That is the measure of the complexity for the task. The analysis of the depending of the time for the task solution from the complexity gives the possible to estimate the processor productivity and the form of the calculate organization. For the sequence calculations only one processor is working, and the time of solution is a line function of complexity. If the new processors begin to work in parallel when the complexities of the task increase than the depending of the solution time from complexity is represented by the curve which is convex at the bottom. For the detection of situation when the man increases the speed of the single processor under the condition of the increasing complexity we use the task series with similar operations but in the no associate algebra. In such tasks the parallel calculation is little affectivity in the sense of the increasing efficiency by the increasing the number of processors. That is the check set of the tests. In article we consider still one class of the tests, which are based on the calculation of the trajectory of the formal automat state if the input sequence is determined. We investigate the special class of automats (relay) for which the construction affect on the affectivity of the parallel calculations of the final automat state. For all tests we estimate the affectivity of the parallel calculation. This article do not contained the experiment results.

    Просмотров за год: 14. Цитирований: 1 (РИНЦ).
  2. Любушин А.А., Фарков Ю.А.
    Синхронные компоненты финансовых временных рядов
    Компьютерные исследования и моделирование, 2017, т. 9, № 4, с. 639-655

    В статье предлагается метод совместного анализа многомерных финансовых временных рядов, основанный на оценке набора свойств котировок акций в скользящем временном окне и последующем усреднении значений свойств по всем анализируемым компаниям. Основной целью анализа является построение мер совместного поведения временных рядов, реагирующих на возникновение синхронной или когерентной составляющей. Когерентность поведения характеристик сложной системы является важным признаком, позволяющим оценить приближение системы к резким изменениям своего состояния. Фундаментом для поиска предвестников резких изменений является общая идея увеличения корреляции случайных флуктуаций параметров системы по мере ее приближения к критическому состоянию. Приращения временных рядов стоимостей акций имеют выраженный хаотический характер и обладают большой амплитудой индивидуальных помех, на фоне которых слабый общий сигнал может быть выделен лишь на основе его коррелированности в разных скалярных компонентах многомерного временного ряда. Известно, что классические методы анализа, основанные на использовании корреляций между соседними отсчетами, являются малоэффективными при обработке финансовых временных рядов, поскольку с точки зрения корреляционной теории случайных процессов приращения стоимости акций формально имеют все признаки белого шума (в частности, «плоский спектр» и «дельта-образную» автокорреляционную функцию). В связи с этим предлагается перейти от анализа исходных сигналов к рассмотрению последовательностей их нелинейных свойств, вычисленных во временных фрагментах малой длины. В качестве таких свойств используются энтропия вейвлет-коэффициентов при разложении в базис Добеши, показатели мультифрактальности и авторегрессионная мера нестационарности сигнала. Построены меры син- хронного поведения свойств временных рядов в скользящем временном окне с использованием метода главных компонент, значений модулей всех попарных коэффициентов корреляции и множественной спектральной меры когерентности, являющейся обобщением квадратичного спектра когерентности между двумя сигналами. Исследованы акции 16 крупных российских компаний с начала 2010 по конец 2016 годов. С помощью предложенного метода идентифицированы два интервала времени синхронизации российского фондового рынка: с середины декабря 2013 г. по середину марта 2014 г. и с середины октября 2014 г. по середину января 2016 г.

    Lyubushin A.A., Farkov Y.A.
    Synchronous components of financial time series
    Computer Research and Modeling, 2017, v. 9, no. 4, pp. 639-655

    The article proposes a method of joint analysis of multidimensional financial time series based on the evaluation of the set of properties of stock quotes in a sliding time window and the subsequent averaging of property values for all analyzed companies. The main purpose of the analysis is to construct measures of joint behavior of time series reacting to the occurrence of a synchronous or coherent component. The coherence of the behavior of the characteristics of a complex system is an important feature that makes it possible to evaluate the approach of the system to sharp changes in its state. The basis for the search for precursors of sharp changes is the general idea of increasing the correlation of random fluctuations of the system parameters as it approaches the critical state. The increments in time series of stock values have a pronounced chaotic character and have a large amplitude of individual noises, against which a weak common signal can be detected only on the basis of its correlation in different scalar components of a multidimensional time series. It is known that classical methods of analysis based on the use of correlations between neighboring samples are ineffective in the processing of financial time series, since from the point of view of the correlation theory of random processes, increments in the value of shares formally have all the attributes of white noise (in particular, the “flat spectrum” and “delta-shaped” autocorrelation function). In connection with this, it is proposed to go from analyzing the initial signals to examining the sequences of their nonlinear properties calculated in time fragments of small length. As such properties, the entropy of the wavelet coefficients is used in the decomposition into the Daubechies basis, the multifractal parameters and the autoregressive measure of signal nonstationarity. Measures of synchronous behavior of time series properties in a sliding time window are constructed using the principal component method, moduli values of all pairwise correlation coefficients, and a multiple spectral coherence measure that is a generalization of the quadratic coherence spectrum between two signals. The shares of 16 large Russian companies from the beginning of 2010 to the end of 2016 were studied. Using the proposed method, two synchronization time intervals of the Russian stock market were identified: from mid-December 2013 to mid- March 2014 and from mid-October 2014 to mid-January 2016.

    Просмотров за год: 12. Цитирований: 2 (РИНЦ).
  3. Кутовский Н.А., Нечаевский А.В., Ососков Г.А., Пряхина Д.И., Трофимов В.В.
    Моделирование межпроцессорного взаимодействия при выполнении MPI-приложений в облаке
    Компьютерные исследования и моделирование, 2017, т. 9, № 6, с. 955-963

    В Лаборатории информационных технологий (ЛИТ) Объединенного института ядерных исследований (ОИЯИ) планируется создание облачного центра параллельных вычислений, что позволит существенно повысить эффективность выполнения численных расчетов и ускорить получение новых физически значимых результатов за счет более рационального использования вычислительных ресурсов. Для оптимизации схемы параллельных вычислений в облачной среде эту схему необходимо протестировать при различных сочетаниях параметров оборудования (количества и частоты процессоров, уровней распараллеливания, пропускной способности коммуникационной сети и ее латентности). В качестве тестовой была выбрана весьма актуальная задача параллельных вычислений длинных джозефсоновских переходов (ДДП) с использованием технологии MPI. Проблемы оценки влияния вышеуказанных факторов вычислительной среды на скорость параллельных вычислений тестовой задачи было предложено решать методом имитационного моделирования, с использованием разработанной в ЛИТ моделирующей программы SyMSim.

    Работы, выполненные по имитационному моделированию расчетов ДДП в облачной среде с учетом межпроцессорных соединений, позволяют пользователям без проведения серии тестовых запусков в реальной компьютерной обстановке подобрать оптимальное количество процессоров при известном типе сети, характеризуемой пропускной способностью и латентностью. Это может существенно сэкономить вычислительное время на счетных ресурсах, высвободив его для решения реальных задач. Основные параметры модели были получены по результатам вычислительного эксперимента, проведенного на специальном облачном полигоне для MPI-задач из 10 виртуальных машин, взаимодействующих между собой через Ethernet-сеть с пропускной способностью 10 Гбит/с. Вычислительные эксперименты показали, что чистое время вычислений спадает обратно пропорционально числу процессоров, но существенно зависит от пропускной способности сети. Сравнение результатов, полученных эмпирическим путем, с результатами имитационного моделирования показало, что имитационная модель корректно моделирует параллельные расчеты, выполненные с использованием технологии MPI, и подтвердило нашу рекомендацию, что для быстрого счета задач такого класса надо одновременно с увеличением числа процессоров увеличивать пропускную способность сети. По результатам моделирования удалось вывести эмпирическую аналитическую формулу, выражающую зависимость времени расчета от числа процессоров при фиксированной конфигурации системы. Полученная формула может применяться и для других подобных исследований, но требует дополнительных тестов по определению значений переменных.

    Kutovskiy N.A., Nechaevskiy A.V., Ososkov G.A., Pryahina D.I., Trofimov V.V.
    Simulation of interprocessor interactions for MPI-applications in the cloud infrastructure
    Computer Research and Modeling, 2017, v. 9, no. 6, pp. 955-963

    А new cloud center of parallel computing is to be created in the Laboratory of Information Technologies (LIT) of the Joint Institute for Nuclear Research JINR) what is expected to improve significantly the efficiency of numerical calculations and expedite the receipt of new physically meaningful results due to the more rational use of computing resources. To optimize a scheme of parallel computations at a cloud environment it is necessary to test this scheme for various combinations of equipment parameters (processor speed and numbers, throughput оf а communication network etc). As a test problem, the parallel MPI algorithm for calculations of the long Josephson junctions (LDJ) is chosen. Problems of evaluating the impact of abovementioned factors of computing mean on the computing speed of the test problem are solved by simulation with the simulation program SyMSim developed in LIT.

    The simulation of the LDJ calculations in the cloud environment enable users without a series of test to find the optimal number of CPUs with a certain type of network run the calculations in a real computer environment. This can save significant computational time in countable resources. The main parameters of the model were obtained from the results of the computational experiment conducted on a special cloud-based testbed. Computational experiments showed that the pure computation time decreases in inverse proportion to the number of processors, but depends significantly on network bandwidth. Comparison of results obtained empirically with the results of simulation showed that the simulation model correctly simulates the parallel calculations performed using the MPI-technology. Besides it confirms our recommendation: for fast calculations of this type it is needed to increase both, — the number of CPUs and the network throughput at the same time. The simulation results allow also to invent an empirical analytical formula expressing the dependence of calculation time by the number of processors for a fixed system configuration. The obtained formula can be applied to other similar studies, but requires additional tests to determine the values of variables.

    Просмотров за год: 10. Цитирований: 1 (РИНЦ).
  4. Зенюк Д.А.
    Стохастическое моделирование химических реакций в субдиффузионной среде
    Компьютерные исследования и моделирование, 2021, т. 13, № 1, с. 87-104

    В последние десятилетия активно развивается теория аномальной диффузии, объединяющая различные транспортные процессы, в которых характерное среднеквадратичное рассеяние растет со временем по степенному закону, а не линейно, как для нормальной диффузии. Так, к примеру, диффузия жидкостей в пористых телах, перенос зарядов в аморфных полупроводниках и молекулярный транспорт в вязких средах демонстрируют аномальное «замедление» по сравнению со стандартной моделью.

    Удобным инструментом исследования таких процессов является прямое стохастическое моделирование. В работе описана одна из возможных схем такого рода, в основе которой лежит процесс восстановления с временами ожидания, имеющими степенную асимптотику. Аналитические построения показывают тесную связь между рассмотренным классом случайных процессов и уравнениями с производными нецелого порядка. Этот подход легко можно распространить ( соответствующий алгоритм представлен в тексте) на системы, в которых, помимо транспорта, возможны химические реакции. Актуальность исследований в этой области продиктована тем, что точный вид интегро-дифференциальных уравнений, описывающих химическую кинетику в системах с аномальной диффузией, остается пока предметом дискуссии.

    Поскольку рассматриваемый класс случайных процессов не обладает марковским свойством, здесь возникают принципиально новые проблемы по сравнению с моделированием химических реакций при нормальной диффузии. Главная из них заключается в способе, которым определяется, какие молекулы должны «погибнуть» в ходе реакции. Поскольку точная схема, отслеживающая каждую возможную комбинацию реактантов, неприемлема с вычислительной точки зрения из-за слишком большого числа таких комбинаций, было предложено несколько простых эвристических процедур. Серия вычислительных экспериментов показала, что результаты весьма чувствительны к выбору одной из этих эвристик.

    Zenyuk D.A.
    Stochastic simulation of chemical reactions in subdiffusion medium
    Computer Research and Modeling, 2021, v. 13, no. 1, pp. 87-104

    Theory of anomalous diffusion, which describe a vast number of transport processes with power law mean squared displacement, is actively advancing in recent years. Diffusion of liquids in porous media, carrier transport in amorphous semiconductors and molecular transport in viscous environments are widely known examples of anomalous deceleration of transport processes compared to the standard model.

    Direct Monte Carlo simulation is a convenient tool for studying such processes. An efficient stochastic simulation algorithm is developed in the present paper. It is based on simple renewal process with interarrival times that have power law asymptotics. Analytical derivations show a deep connection between this class of random process and equations with fractional derivatives. The algorithm is further generalized by coupling it with chemical reaction simulation. It makes stochastic approach especially useful, because the exact form of integrodifferential evolution equations for reaction — subdiffusion systems is still a matter of debates.

    Proposed algorithm relies on non-markovian random processes, hence one should carefully account for qualitatively new effects. The main question is how molecules leave the system during chemical reactions. An exact scheme which tracks all possible molecule combinations for every reaction channel is computationally infeasible because of the huge number of such combinations. It necessitates application of some simple heuristic procedures. Choosing one of these heuristics greatly affects obtained results, as illustrated by a series of numerical experiments.

  5. Минниханов Р.Н., Аникин И.В., Дагаева М.В., Файзрахманов Э.М., Большаков Т.Е.
    Транспортные данные для моделирования эффективной транспортной среды в Республике Татарстан
    Компьютерные исследования и моделирование, 2021, т. 13, № 2, с. 395-404

    Автоматизированные системы мониторинга городского трафика широко используются для решения различных задач в интеллектуальных транспортных системах различных регионов. Такие системы включают комплексы фотовидеофиксации, видеонаблюдения, управления дорожным трафиком и т. д. Для эффективного управления транспортным потоком и своевременного реагирования на дорожные инциденты необходимы непрерывный сбор и анализ потока информации, поступающей с данных комплексов, формирование прогнозных значений для дальнейшего выявления аномалий. При этом для повышения качества прогноза требуется агрегирование данных, поступающих из различных источников. Это позволяет уменьшить ошибку прогноза, связанную с ошибками и пропусками в исходных данных. В данной статье реализован подход к краткосрочному и среднесрочному прогнозированию транспортных потоков (5, 10, 15 минут) на основе агрегирования данных, поступающих от комплексов фотовидеофиксации и систем видеонаблюдения. Реализован прогноз с использованием различных архитектур рекуррентных нейронных сетей: LSTM, GRU, двунаправленной LSTM с одним и двумя слоями. Работа двунаправленной LSTM исследовалась для 64 и 128 нейронов в каждом слое. Исследовалась ошибка прогноза для различных размеров входного окна (1, 4, 12, 24, 48). Для оценки прогнозной ошибки использована метрика RMSE. В ходе проведенных исследований получено, что наименьшая ошибка прогноза (0.032405) достигается при использовании однослойной рекуррентной нейронной сети LSTM с 64 нейронами и размером входного окна, равном 24.

    Minnikhanov R.N., Anikin I.V., Dagaeva M.V., Faizrakhmanov E.M., Bolshakov T.E.
    Modeling of the effective environment in the Republic of Tatarstan using transport data
    Computer Research and Modeling, 2021, v. 13, no. 2, pp. 395-404

    Automated urban traffic monitoring systems are widely used to solve various tasks in intelligent transport systems of different regions. They include video enforcement, video surveillance, traffic management system, etc. Effective traffic management and rapid response to traffic incidents require continuous monitoring and analysis of information from these complexes, as well as time series forecasting for further anomaly detection in traffic flow. To increase the forecasting quality, data fusion from different sources is needed. It will reduce the forecasting error, related to possible incorrect values and data gaps. We implemented the approach for short-term and middle-term forecasting of traffic flow (5, 10, 15 min) based on data fusion from video enforcement and video surveillance systems. We made forecasting using different recurrent neural network architectures: LSTM, GRU, and bidirectional LSTM with one and two layers. We investigated the forecasting quality of bidirectional LSTM with 64 and 128 neurons in hidden layers. The input window size (1, 4, 12, 24, 48) was investigated. The RMSE value was used as a forecasting error. We got minimum RMSE = 0.032405 for basic LSTM with 64 neurons in the hidden layer and window size = 24.

  6. Коганов А.В., Ракчеева Т.А., Приходько Д.И.
    Сравнительный анализ адаптации человека к росту объема зрительной информации в задачах распознавания формальных символов и содержательных изображений
    Компьютерные исследования и моделирование, 2021, т. 13, № 3, с. 571-586

    Мы описываем инженерно-психологический эксперимент, продолжающий исследование способов адаптации человека к росту сложности логических задач методом предъявления серий задач нарастающей сложности, которая определяется объемом исходных данных. Задачи требуют вычислений в ассоциативной или неассоциативной системе операций. По характеру изменения времени решения задачи в зависимости от числа необходимых операций можно делать вывод о чисто последовательном способе решения задач или о подключении к решению дополнительных ресурсов мозга в параллельном режиме. В ранее опубликованной экспериментальной работе человек в процессе решения ассоциативной задачи распознавал цветные картинки с содержательными изображениями. В новом исследовании аналогичная задача решается для абстрактных монохромных геометрических фигур. Анализ результата показал, что для второго случая значительно снижается вероятность перехода испытуемого на параллельный способ обработки зрительной информации. Метод исследования основан на предъявлении человеку задач двух типов. Один тип задач содержит ассоциативные вычисления и допускает параллельный алгоритм решения. Другой тип задач контрольный, содержит задачи, в которых вычисления неассоциативные и параллельные алгоритмы решения неэффективны. Задача распознавания и поиска заданного объекта ассоциативна. Параллельная стратегия значительно ускоряет решение при сравнительно малых дополнительных затратах ресурсов. В качестве контрольной серии задач (для отделения параллельной работы от ускорения последовательного алгоритма) используется, как и в предыдущем эксперименте, неассоциативная задача сравнения в циклической арифметике, представленной в наглядной форме игры «камень, ножницы, бумага». В этой задаче параллельный алгоритм требует работы большого числа процессоров с малым коэффициентом эффективности. Поэтому переход человека на параллельный алгоритм решения этой задачи практически исключен и ускорение обработки входной информации возможно только путем повышения быстродействия. Сравнение зависимости времени решения от объема исходных данных для двух типов задач позволяет выявить четыре типа стратегий адаптации к росту сложности задачи: равномерная последовательная, ускоренная последовательная, параллельные вычисления (там, где это возможно) или неопределенная (для данного метода) стратегия. Уменьшение части испытуемых, которые переходят на параллельную стратегию при кодировании входной информации формальными изображениями, показывает эффективность кодов, вызывающих предметные ассоциации. Они повышают скорость восприятия и переработки информации человеком. Статья содержит предварительную математическую модель, которая объясняет это явление. Она основана на появлении второго набора исходных данных, который возникает у человека в результате узнавания изображенных предметов.

    Koganov A.V., Rakcheeva T.A., Prikhodko D.I.
    Comparative analysis of human adaptation to the growth of visual information in the tasks of recognizing formal symbols and meaningful images
    Computer Research and Modeling, 2021, v. 13, no. 3, pp. 571-586

    We describe an engineering-psychological experiment that continues the study of ways to adapt a person to the increasing complexity of logical problems by presenting a series of problems of increasing complexity, which is determined by the volume of initial data. Tasks require calculations in an associative or non-associative system of operations. By the nature of the change in the time of solving the problem, depending on the number of necessary operations, we can conclude that a purely sequential method of solving problems or connecting additional brain resources to the solution in parallel mode. In a previously published experimental work, a person in the process of solving an associative problem recognized color images with meaningful images. In the new study, a similar problem is solved for abstract monochrome geometric shapes. Analysis of the result showed that for the second case, the probability of the subject switching to a parallel method of processing visual information is significantly reduced. The research method is based on presenting a person with two types of tasks. One type of problem contains associative calculations and allows a parallel solution algorithm. Another type of problem is the control one, which contains problems in which calculations are not associative and parallel algorithms are ineffective. The task of recognizing and searching for a given object is associative. A parallel strategy significantly speeds up the solution with relatively small additional resources. As a control series of problems (to separate parallel work from the acceleration of a sequential algorithm), we use, as in the previous experiment, a non-associative comparison problem in cyclic arithmetic, presented in the visual form of the game “rock, paper, scissors”. In this problem, the parallel algorithm requires a large number of processors with a small efficiency coefficient. Therefore, the transition of a person to a parallel algorithm for solving this problem is almost impossible, and the acceleration of processing input information is possible only by increasing the speed. Comparing the dependence of the solution time on the volume of source data for two types of problems allows us to identify four types of strategies for adapting to the increasing complexity of the problem: uniform sequential, accelerated sequential, parallel computing (where possible), or undefined (for this method) strategy. The Reducing of the number of subjects, who switch to a parallel strategy when encoding input information with formal images, shows the effectiveness of codes that cause subject associations. They increase the speed of human perception and processing of information. The article contains a preliminary mathematical model that explains this phenomenon. It is based on the appearance of a second set of initial data, which occurs in a person as a result of recognizing the depicted objects.

  7. Любушин А.А., Копылова Г.Н., Касимова В.А., Таранова Л.Н.
    Мультифрактальные и энтропийные статистики сейсмического шума на Камчатке в связи с сильнейшими землетрясениями
    Компьютерные исследования и моделирование, 2023, т. 15, № 6, с. 1507-1521

    В основу изучения свойств сейсмического шума на Камчатке положена идея, что шум является важным источником информации о процессах, предшествующих сильным землетрясениям. Рассматривается гипотеза, что увеличение сейсмической опасности сопровождается упрощением статистической структуры сейсмического шума и увеличением пространственных корреляций его свойств. В качестве статистик, характеризующих шум, использованы энтропия распределения квадратов вейвлет-коэффициентов, ширина носителя мультифрактального спектра сингулярности и индекс Донохо–Джонстона. Значения этих параметров отражают сложность: если случайный сигнал близок по своим свойствам к белому шуму, то энтропия максимальна, а остальные два параметра минимальны. Используемые статистики вычисляются для шести кластеров станций. Для каждого кластера станций вычисляются ежесуточные медианы свойств шума в последовательных временных окнах длиной 1 сутки, в результате чего образуется 18-мерный (3 свойства и 6 кластеров станций) временной ряд свойств. Для выделения общих свойств изменения параметров шума используется метод главных компонент, который применяется для каждого кластера станций, в результате чего информация сжимается до 6-мерного ежесуточного временного ряда главных компонент. Пространственные когерентности шума оцениваются как совокупность максимальных попарных квадратичных спектров когерентности между главным компонентами кластеров станций в скользящем временном окне длиной 365 суток. С помощью вычисления гистограмм распределения номеров кластеров, в которых достигаются минимальные и максимальные значения статистик шума в скользящем временном окне длиной 365 суток, оценивалась миграция областей сейсмической опасности в сопоставлении с сильными землетрясениями с магнитудой не менее 7.

    Lyubushin A.A., Kopylova G.N., Kasimova V.A., Taranova L.N.
    Multifractal and entropy statistics of seismic noise in Kamchatka in connection with the strongest earthquakes
    Computer Research and Modeling, 2023, v. 15, no. 6, pp. 1507-1521

    The study of the properties of seismic noise in Kamchatka is based on the idea that noise is an important source of information about the processes preceding strong earthquakes. The hypothesis is considered that an increase in seismic hazard is accompanied by a simplification of the statistical structure of seismic noise and an increase in spatial correlations of its properties. The entropy of the distribution of squared wavelet coefficients, the width of the carrier of the multifractal singularity spectrum, and the Donoho – Johnstone index were used as statistics characterizing noise. The values of these parameters reflect the complexity: if a random signal is close in its properties to white noise, then the entropy is maximum, and the other two parameters are minimum. The statistics used are calculated for 6 station clusters. For each station cluster, daily median noise properties are calculated in successive 1-day time windows, resulting in an 18-dimensional (3 properties and 6 station clusters) time series of properties. To highlight the general properties of changes in noise parameters, a principal component method is used, which is applied for each cluster of stations, as a result of which the information is compressed into a 6-dimensional daily time series of principal components. Spatial noise coherences are estimated as a set of maximum pairwise quadratic coherence spectra between the principal components of station clusters in a sliding time window of 365 days. By calculating histograms of the distribution of cluster numbers in which the minimum and maximum values of noise statistics are achieved in a sliding time window of 365 days in length, the migration of seismic hazard areas was assessed in comparison with strong earthquakes with a magnitude of at least 7.

  8. Кондратьев М.А.
    Методы прогнозирования и модели распространения заболеваний
    Компьютерные исследования и моделирование, 2013, т. 5, № 5, с. 863-882

    Число работ, посвященных прогнозированию инфекционной заболеваемости, стремительно растет по мере появления статистики, позволяющей провести анализ. В настоящей статье представлен обзор основных решений, доступных сегодня для формирования как краткосрочных, так и долгосрочных проекций заболеваемости; указаны их ограничения и возможности практического применения. Рассмотрены традиционные методы анализа временных рядов — регрессионные и авторегрессионные модели; подходы, опирающиеся на машинное обучение — байесовские сети и искусственные нейронные сети; рассуждения на основе прецедентов; техники, базирующиеся на решении задачи фильтрации. Перечислены важнейшие направления разработки математических моделей распространения заболевания: классические аналитические модели, детерминированные и стохастические, а также современные имитационные модели, сетевые и агентные.

    Kondratyev M.A.
    Forecasting methods and models of disease spread
    Computer Research and Modeling, 2013, v. 5, no. 5, pp. 863-882

    The number of papers addressing the forecasting of the infectious disease morbidity is rapidly growing due to accumulation of available statistical data. This article surveys the major approaches for the shortterm and the long-term morbidity forecasting. Their limitations and the practical application possibilities are pointed out. The paper presents the conventional time series analysis methods — regression and autoregressive models; machine learning-based approaches — Bayesian networks and artificial neural networks; case-based reasoning; filtration-based techniques. The most known mathematical models of infectious diseases are mentioned: classical equation-based models (deterministic and stochastic), modern simulation models (network and agent-based).

    Просмотров за год: 71. Цитирований: 19 (РИНЦ).
  9. Прядеин Р.Б., Степанцов М.Е.
    Об одном подходе к имитационному моделированию спортивной игры с дискретным временем
    Компьютерные исследования и моделирование, 2017, т. 9, № 2, с. 271-279

    В статье предлагается подход к имитационному моделированию спортивной игры, состоящей из дискретного набора отдельных поединков, основанный на рассмотрении матча как случайного процесса, в общем случае не являющегося марковским. Первоначально ход игры рассматривается как марковский процесс, на основании чего строятся рекуррентные соотношения между вероятностями достижения состояний теннисного матча, а также между вторичными показателями, такими как математическое ожидание и дисперсия числа розыгрышей, остающихся до завершения гейма. Затем, в рамках имитационной системы, моделирующей матч, мы позволяем произвольное изменение вероятностей исходов составляющих матч поединков, в том числе и в зависимости от результатов предыдущих. Данная работа посвящена модификации модели, ранее предлагавшейся авторами для спортивных игр с непрерывным временем.

    Предлагаемый подход позволяет оценивать не только вероятность того или иного исхода матча, но и вероятности достижения каждого из возможных промежуточных результатов, а также вторичные показатели игры, такие как число таких отдельных поединков, потребовавшееся для завершения матча. Подробно изложено построение имитационной системы для гейма теннисного матча, по аналогии с которой осуществляется моделирование сета и всего матча. Доказано утверждение относительно справедливости правил подачи в теннисе, понимаемой в смысле отсутствия влиянии права первой подачи на исход матча. В качестве примера проведены моделирование и анализ планировавшейся, но не состоявшейся игры одного из турниров серии ATP. Получены наиболее вероятные промежуточные и окончательные результаты матча для трех сценариев хода игры.

    Основным результатом данной работы является предлагаемая методика имитационного моделирования матча, применимая не только к теннису, но и к другим видам спортивных игр с дискретным временем.

    Priadein R.B., Stepantsov M.Y.
    On a possible approach to a sport game with discrete time simulation
    Computer Research and Modeling, 2017, v. 9, no. 2, pp. 271-279

    The paper proposes an approach to simulation of a sport game, consisting of a discrete set of separate competitions. According to this approach, such a competition is considered as a random processes, generally — a non-Markov’s one. At first we treat the flow of the game as a Markov’s process, obtaining recursive relationship between the probabilities of achieving certain states of score in a tennis match, as well as secondary indicators of the game, such as expectation and variance of the number of serves to finish the game. Then we use a simulation system, modeling the match, to allow an arbitrary change of the probabilities of the outcomes in the competitions that compose the match. We, for instance, allow the probabilities to depend on the results of previous competitions. Therefore, this paper deals with a modification of the model, previously proposed by the authors for sports games with continuous time.

    The proposed approach allows to evaluate not only the probability of the final outcome of the match, but also the probabilities of reaching each of the possible intermediate results, as well as secondary indicators of the game, such as the number of separate competitions it takes to finish the match. The paper includes a detailed description of the construction of a simulation system for a game of a tennis match. Then we consider simulating a set and the whole tennis match by analogy. We show some statements concerning fairness of tennis serving rules, understood as independence of the outcome of a competition on the right to serve first. We perform simulation of a cancelled ATP series match, obtaining its most probable intermediate and final outcomes for three different possible variants of the course of the match.

    The main result of this paper is the developed method of simulation of the match, applicable not only to tennis, but also to other types of sports games with discrete time.

    Просмотров за год: 9.
  10. Белобородова Е.И., Тамм М.В.
    О некоторых свойствах коротковолновой статистики временных рядов FOREX
    Компьютерные исследования и моделирование, 2017, т. 9, № 4, с. 657-669

    Финансовая математика является одним из наиболее естественных приложений для статистического анализа временных рядов. Действительно, финансовые временные ряды являются порождением одновременной деятельности большого числа различных экономических агентов, что дает основания ожидать, что к ним могут быть применимы методы статистической физики и теории случайных процессов.

    В настоящей работе проведен статистический анализ временных рядов для пар валют на рынке FOREX. Особый интерес представляет сравнение поведения временного ряда как функции, с одной стороны, физического времени и, с другой стороны, условного торгового времени, измеряемого в числе элементарных актов изменения цены (тиков). Экспериментально наблюдаемая статистика рассмотренных временных рядов (пар валют «евро–доллар» для первых половин 2007 и 2009 годов и «британский фунт–доллар» для 2007 года) радикально отличается в зависимости от выбора способа измерения времени. Так, при измерении времени в единицах тиков распределение приращений цены может быть хорошо описано нормальным распределением уже на масштабе порядка десяти тиков. При этом при измерении приращений цены как функции реального физического времени распределение приращений продолжает радикально отличаться от нормального, вплоть до масштабов порядка минут и даже часов.

    Для объяснения этого явления нами исследованы статистические свойства элементарных приращений по цене и по времени. В частности, показано, что распределение времени между тиками для всех трех рассмотренных временных рядов имеет длинные (1-2 порядка по времени) степенные хвосты с экспоненциальным обрезанием на больших временах. Получены приближенные выражения для распределений времен ожидания для всех трех рассмотренных случаев. Другие статистические характеристики временного ряда (распределение элементарных изменений цены, парные корреляционные функции для приращений цены и для времен ожидания) демонстрируют достаточно простое поведение. Таким образом, именно аномально широкое распределение времен ожидания играет наиболее важную роль в наблюдаемом отклонении распределения приращений от нормального. В связи с этим результатом мы обсуждаем возможность применения модели случайного процесса с непрерывным временем (continuous time random walk, CTRW) для описания временных рядов FOREX.

    Beloborodova E.I., Tamm M.V.
    On some properties of short-wave statistics of FOREX time series
    Computer Research and Modeling, 2017, v. 9, no. 4, pp. 657-669

    Financial mathematics is one of the most natural applications for the statistical analysis of time series. Financial time series reflect simultaneous activity of a large number of different economic agents. Consequently, one expects that methods of statistical physics and the theory of random processes can be applied to them.

    In this paper, we provide a statistical analysis of time series of the FOREX currency market. Of particular interest is the comparison of the time series behavior depending on the way time is measured: physical time versus trading time measured in the number of elementary price changes (ticks). The experimentally observed statistics of the time series under consideration (euro–dollar for the first half of 2007 and for 2009 and British pound – dollar for 2007) radically differs depending on the choice of the method of time measurement. When measuring time in ticks, the distribution of price increments can be well described by the normal distribution already on a scale of the order of ten ticks. At the same time, when price increments are measured in real physical time, the distribution of increments continues to differ radically from the normal up to scales of the order of minutes and even hours.

    To explain this phenomenon, we investigate the statistical properties of elementary increments in price and time. In particular, we show that the distribution of time between ticks for all three time series has a long (1-2 orders of magnitude) power-law tails with exponential cutoff at large times. We obtained approximate expressions for the distributions of waiting times for all three cases. Other statistical characteristics of the time series (the distribution of elementary price changes, pair correlation functions for price increments and for waiting times) demonstrate fairly simple behavior. Thus, it is the anomalously wide distribution of the waiting times that plays the most important role in the deviation of the distribution of increments from the normal. As a result, we discuss the possibility of applying a continuous time random walk (CTRW) model to describe the FOREX time series.

    Просмотров за год: 10.
Страницы: предыдущая следующая последняя »

Журнал индексируется в Scopus

Полнотекстовая версия журнала доступна также на сайте научной электронной библиотеки eLIBRARY.RU

Журнал включен в базу данных Russian Science Citation Index (RSCI) на платформе Web of Science

Международная Междисциплинарная Конференция "Математика. Компьютер. Образование"

Международная Междисциплинарная Конференция МАТЕМАТИКА. КОМПЬЮТЕР. ОБРАЗОВАНИЕ.