Все выпуски
- 2026 Том 18
- 2025 Том 17
- 2024 Том 16
- 2023 Том 15
- 2022 Том 14
- 2021 Том 13
- 2020 Том 12
- 2019 Том 11
- 2018 Том 10
- 2017 Том 9
- 2016 Том 8
- 2015 Том 7
- 2014 Том 6
- 2013 Том 5
- 2012 Том 4
- 2011 Том 3
- 2010 Том 2
- 2009 Том 1
-
Применение больших языковых моделей для интеллектуального поиска и извлечения информации в корпоративных информационных системах
Компьютерные исследования и моделирование, 2025, т. 17, № 5, с. 871-888В данной статье исследуется эффективность применения технологии Retrieval-Augmented Generation (RAG) в сочетании с различными большими языковыми моделями (LLM) для поиска документов и получения информации в корпоративных информационных системах. Рассматриваются варианты использования LLM в корпоративных системах, архитектура RAG, характерные проблемы интеграции LLM в RAG-систему. Предлагается архитектура системы, включающая в себя векторный энкодер текстов и LLM. Энкодер используется для создания векторной базы данных, индексирующей библиотеку корпоративных документов. Запрос, передаваемый LLM, дополняется релевантным ему контекстом из библиотеки корпоративных документов, извлекаемым с использованием векторной базы данных и библиотеки FAISS. Большая языковая модель принимает запрос пользователя и формирует ответ на основе переданных в контексте запроса данных. Рассматриваются общая структура и алгоритм функционирования предлагаемого решения, реализующего архитектуру RAG. Обосновывается выбор LLM для исследования и проводится анализ результативности использования популярных LLM (ChatGPT, GigaChat, YandexGPT, Llama, Mistral, Qwen и др.) в качестве компонента для генерации ответов. На основе тестового набора вопросов методом экспертных оценок оцениваются точность, полнота, грамотность и лаконичность ответов, предоставляемых рассматриваемыми моделями. Анализируются характеристики отдельных моделей, полученные в результате исследования. Приводится информация о средней скорости отклика моделей. Отмечается существенное влияние объема доступной памяти графического адаптера на производительность локальных LLM. На основе интегрального показателя качества формируется общий рейтинг LLM. Полученные результаты подтверждают эффективность предложенной архитектуры RAG для поиска документов и получения информации в корпоративных информационных системах. Были определены возможные направления дальнейших исследований в этой области: дополнение контекста, передаваемого LLM, и переход к архитектуре на базе LLM-агентов. В заключении представлены рекомендации по выбору оптимальной конфигурации RAG и LLM для построения решений, обеспечивающих быстрый и точный доступ к информации в рамках корпоративных информационных систем.
Ключевые слова: искусственный интеллект, информационные системы, семантический поиск, обработка естественного языка, векторизация документов, RAG, LLM.
Using RAG technology and large language models to search for documents and obtain information in corporate information systems
Computer Research and Modeling, 2025, v. 17, no. 5, pp. 871-888This paper investigates the effectiveness of Retrieval-Augmented Generation (RAG) combined with various Large Language Models (LLMs) for document retrieval and information access in corporate information systems. We survey typical use-cases of LLMs in enterprise environments, outline the RAG architecture, and discuss the major challenges that arise when integrating LLMs into a RAG pipeline. A system architecture is proposed that couples a text-vector encoder with an LLM. The encoder builds a vector database that indexes a library of corporate documents. For every user query, relevant contextual fragments are retrieved from this library via the FAISS engine and appended to the prompt given to the LLM. The LLM then generates an answer grounded in the supplied context. The overall structure and workflow of the proposed RAG solution are described in detail. To justify the choice of the generative component, we benchmark a set of widely used LLMs — ChatGPT, GigaChat, YandexGPT, Llama, Mistral, Qwen, and others — when employed as the answer-generation module. Using an expert-annotated test set of queries, we evaluate the accuracy, completeness, linguistic quality, and conciseness of the responses. Model-specific characteristics and average response latencies are analysed; the study highlights the significant influence of available GPU memory on the throughput of local LLM deployments. An overall ranking of the models is derived from an aggregated quality metric. The results confirm that the proposed RAG architecture provides efficient document retrieval and information delivery in corporate environments. Future research directions include richer context augmentation techniques and a transition toward agent-based LLM architectures. The paper concludes with practical recommendations on selecting an optimal RAG–LLM configuration to ensure fast and precise access to enterprise knowledge assets.
-
Зависимость работы организации от ее организационной структуры в ходе неожиданных и тлеющих кризисов
Компьютерные исследования и моделирование, 2016, т. 8, № 4, с. 685-706В работе описана математическая модель функционирования организации с иерархической структурой управления на ранней стадии кризиса. Особенность развития этой стадии кризиса заключается в наличии так называемых сигналов раннего предупреждения, которые несут информацию о приближении нежелательного явления. Сотрудники организации способны улавливать эти сигналы и на их основе подготавливать ее к наступлению кризиса. Эффективность такой подготовки зависит как от параметров организации, так и от параметров кризисного явления. Предлагаемая в статье имитационная агентная модель реализована на языке программирования Java. Эта модель используется по методу Монте-Карло для сравнения децентрализованных и централизованных организационных структур, функционирующих в ходе неожиданных и тлеющих кризисов. Централизованными мы называем структуры с большим количеством уровней иерархии и малым количеством подчиненных у каждого руководителя, а децентрализованными — структуры с малым количеством уровней иерархии и большим количеством подчиненных у каждого руководителя. Под неожиданным кризисом понимается кризис со скоротечной ранней стадией и малым количеством слабых сигналов, а под тлеющим кризисом — кризис с длительной ранней стадией и большим количеством сигналов, не всегда несущих важную информацию. Эффективность функционирования организации на ранней стадии кризиса измеряется по двум параметрам: проценту сигналов раннего предупреждения, по которым были приняты решения для подготовки организации, и доле времени, отведенного руководителем организации на работу с сигналами. По результатам моделирования выявлено, что централизованные организации обрабатывают больше сигналов раннего предупреждения при тлеющих кризисах, а децентрализованные — при неожиданных кризисах. С другой стороны, занятость руководителя организации в ходе неожиданных кризисов выше для децентрализованных организаций, а в ходе тлеющих кризисов — для централизованных. В итоге, ни один из двух классов организаций не является более эффективным в ходе изученных типов кризисов сразу по обоим параметрам. Полученные в работе результаты проверены на устойчивость по параметрам, описывающим организацию и сотрудников.
Ключевые слова: кризис, антикризисное управление, слабые сигналы, математическое моделирование, имитационное моделирование, агентное моделирование, организационные структуры, метод Монте-Карло.
Relation between performance of organization and its structure during sudden and smoldering crises
Computer Research and Modeling, 2016, v. 8, no. 4, pp. 685-706Просмотров за год: 2. Цитирований: 2 (РИНЦ).The article describes a mathematical model that simulates performance of a hierarchical organization during an early stage of a crisis. A distinguished feature of this stage of crisis is presence of so called early warning signals containing information on the approaching event. Employees are capable of catching the early warnings and of preparing the organization for the crisis based on the signals’ meaning. The efficiency of the preparation depends on both parameters of the organization and parameters of the crisis. The proposed simulation agentbased model is implemented on Java programming language and is used for conducting experiments via Monte- Carlo method. The goal of the experiments is to compare how centralized and decentralized organizational structures perform during sudden and smoldering crises. By centralized organizations we assume structures with high number of hierarchy levels and low number of direct reports of every manager, while decentralized organizations mean structures with low number of hierarchy levels and high number of direct reports of every manager. Sudden crises are distinguished by short early stage and low number of warning signals, while smoldering crises are defined as crises with long lasting early stage and high number of warning signals not necessary containing important information. Efficiency of the organizational performance during early stage of a crisis is measured by two parameters: percentage of early warnings which have been acted upon in order to prepare organization for the crisis, and time spent by top-manager on working with early warnings. As a result, we show that during early stage of smoldering crises centralized organizations process signals more efficiently than decentralized organizations, while decentralized organizations handle early warning signals more efficiently during early stage of sudden crises. However, occupation of top-managers during sudden crises is higher in decentralized organizations and it is higher in centralized organizations during smoldering crises. Thus, neither of the two classes of organizational structures is more efficient by the two parameters simultaneously. Finally, we conduct sensitivity analysis to verify the obtained results.
-
Особенности применения физически информированных нейронных сетей для решения обыкновенных дифференциальных уравнений
Компьютерные исследования и моделирование, 2024, т. 16, № 7, с. 1621-1636Рассматривается применение физически информированных нейронных сетей с использованием многослойных персептронов для решения задач Коши, в которых правые части уравнения являются непрерывными монотонно возрастающими, убывающими или осциллирующими функциями. С помощью вычислительных экспериментов изучено влияние метода построения приближенного нейросетевого решения, структуры нейронной сети, алгоритмов оптимизации и средств программной реализации на процесс обучения и точность полученного решения. Выполнен анализ эффективности работы наиболее часто используемых библиотек машинного обучения при разработке программ на языках программирования Python и C#. Показано, что применение языка C# позволяет сократить время обучения нейросетей на 20–40%. Выбор различных функций активации влияет на процесс обучения и точность приближенного решения. Наиболее эффективными в рассматриваемых задачах являются сигмоида и гиперболический тангенс. Минимум функции потерь достигается при определенном количестве нейронов скрытого слоя однослойной нейронной сети за фиксированное время обучения нейросетевой модели, причем усложнение структуры сети за счет увеличения числа нейронов не приводит к улучшению результатов обучения. При этом величина шага сетки между точками обучающей выборки, обеспечивающей минимум функции потерь, в рассмотренных задачах Коши практически одинакова. Кроме того, при обучении однослойных нейронных сетей наиболее эффективными для решения задач оптимизации являются метод Adam и его модификации. Дополнительно рассмотрено применение двух- и трех-слойных нейронных сетей. Показано, что в этих случаях целесообразно использовать алгоритм LBFGS, который по сравнению с методом Adam в ряде случаев требует на порядок меньшего времени обучения при достижении одинакового порядка точности. Исследованы также особенности обучения нейронной сети в задачах Коши, в которых решение является осциллирующей функцией с монотонно убывающей амплитудой. Для них необходимо строить нейросетевое решение не с постоянными, а с переменными весовыми коэффициентами, что обеспечивает преимущество такого подхода при обучении в тех узлах, которые расположены вблизи конечной точки интервала решения задачи.
Ключевые слова: обыкновенные дифференциальные уравнения, машинное обучение, физически информированные нейронные сети, численные методы.
Analysis of the physics-informed neural network approach to solving ordinary differential equations
Computer Research and Modeling, 2024, v. 16, no. 7, pp. 1621-1636Considered the application of physics-informed neural networks using multi layer perceptrons to solve Cauchy initial value problems in which the right-hand sides of the equation are continuous monotonically increasing, decreasing or oscillating functions. With the use of the computational experiments the influence of the construction of the approximate neural network solution, neural network structure, optimization algorithm and software implementation means on the learning process and the accuracy of the obtained solution is studied. The analysis of the efficiency of the most frequently used machine learning frameworks in software development with the programming languages Python and C# is carried out. It is shown that the use of C# language allows to reduce the time of neural networks training by 20–40%. The choice of different activation functions affects the learning process and the accuracy of the approximate solution. The most effective functions in the considered problems are sigmoid and hyperbolic tangent. The minimum of the loss function is achieved at the certain number of neurons of the hidden layer of a single-layer neural network for a fixed training time of the neural network model. It’s also mentioned that the complication of the network structure increasing the number of neurons does not improve the training results. At the same time, the size of the grid step between the points of the training sample, providing a minimum of the loss function, is almost the same for the considered Cauchy problems. Training single-layer neural networks, the Adam method and its modifications are the most effective to solve the optimization problems. Additionally, the application of twoand three-layer neural networks is considered. It is shown that in these cases it is reasonable to use the LBFGS algorithm, which, in comparison with the Adam method, in some cases requires much shorter training time achieving the same solution accuracy. The specificity of neural network training for Cauchy problems in which the solution is an oscillating function with monotonically decreasing amplitude is also investigated. For these problems, it is necessary to construct a neural network solution with variable weight coefficient rather than with constant one, which improves the solution in the grid cells located near by the end point of the solution interval.
-
Статистическое моделирование производственных процессов гибкой втоматизированной сборки в среде объектно-ориентированного программирования
Компьютерные исследования и моделирование, 2015, т. 7, № 2, с. 289-300Разработана программа, которая позволяет имитировать работу конвейера гибкого автоматизированного цеха сборки персональных компьютеров (ПК), с применением современного объектно-ориентированного языка программирования C#. Приведена диаграмма классов имитационной модели ГАЦ сборки ПК в режиме массового производства. Приводится анализ результатов моделирования.
Ключевые слова: имитационная модель гибкого автоматизированного цеха, статистическое моделирование производственных процессов.
Statistical modeling of the production processes оf the flexible automated assembly in the object-oriented programming environment
Computer Research and Modeling, 2015, v. 7, no. 2, pp. 289-300Просмотров за год: 2. Цитирований: 1 (РИНЦ).Using modern object-oriented programming language C# a program for simulation of operation of the conveyor for flexible automated assembly of PC was developed. Class diagram of the simulation model of a flexible automated assembly line for PC assembly in mass production mode is presented. Simulation results analysis is presented.
-
Распространение языков в КНР на уровне провинций: оценивание при неполных данных
Компьютерные исследования и моделирование, 2016, т. 8, № 4, с. 707-716Данная работа посвящена решению практической задачи восстановления данных по распространению языков на региональном уровне на примере Китайской Народной Республики. Необходимость получения таких данных связана с задачей вычисления индексов лингвистического разнообразия, которые, в свою очередь, активно используются при эмпирическом анализе и прогнозе факторов социально-экономического развития, а также могут служить индикаторами потенциальных конфликтов на рассматриваемых территориях. В качестве исходной информации мы используем сведения из базы данных «Этнолог» (Ethnologue), дополняя их общедоступными данными переписей населения. Рассматриваемые нами данные содержат по каждому языку (а) оценку количества жителей страны, считающих этот язык родным, и (б) индикаторы наличия таких жителей в каждой из провинций КНР. Наша задача — для всех пар «язык–провинция» оценить количество жителей провинции, считающих этот язык родным. Она сводится к решению недоопределенной системы алгебраических уравнений. Специфика данных Ethnologue заключается в том, что, в силу большой трудоемкости и стоимости сбора таких данных, а также неполноты сведений по соответствующему разделу в переписях населения, имеющаяся информация по отдельным языкам в различных провинциях представлена за различные периоды времени. Одновременное использование таких данных приводит к тому, что возникающая система уравнений имеет неточно определенную правую часть, поэтому мы строим приближенное решение, характеризуемое минимальной невязкой. Учитывая неоднородность исходных данных (некоторые из языков оказываются на порядки менее распространенными), мы переходим к использованию взвешенной невязки, определяя в каждом уравнении весовые коэффициенты как величины, обратно пропорциональные правой части. Такой способ формирования невязки позволяет восстановить искомые переменные. Более 92% переменных оказываются устойчивыми к изменениям правой части при вероятностном моделировании ошибок записей в исходных данных.
Ключевые слова: использование языков в регионах, индексы неоднородности, восстановление неполных данных.
Languages in China provinces: quantitative estimation with incomplete data
Computer Research and Modeling, 2016, v. 8, no. 4, pp. 707-716Просмотров за год: 3.This paper formulates and solves a practical problem of data recovery regarding the distribution of languages on regional level in context of China. The necessity of this recovery is related to the problem of the determination of the linguistic diversity indices, which, in turn, are used to analyze empirically and to predict sources of social and economic development as well as to indicate potential conflicts at regional level. We use Ethnologue database and China census as the initial data sources. For every language spoken in China, the data contains (a) an estimate of China residents who claim this language to be their mother tongue, and (b) indicators of the presence of such residents in China provinces. For each pair language/province, we aim to estimate the number of the province inhabitants that claim the language to be their mother tongue. This base problem is reduced to solving an undetermined system of algebraic equations. Given additional restriction that Ethnologue database introduces data collected at different time moments because of gaps in Ethnologue language surveys and accompanying data collection expenses, we relate those data to a single time moment, that turns the initial task to an ’ill-posed’ system of algebraic equations with imprecisely determined right hand side. Therefore, we are looking for an approximate solution characterized by a minimal discrepancy of the system. Since some languages are much less distributed than the others, we minimize the weighted discrepancy, introducing weights that are inverse to the right hand side elements of the equations. This definition of discrepancy allows to recover the required variables. More than 92% of the recovered variables are robust to probabilistic modelling procedure for potential errors in initial data.
-
Модель формирования карты радиосреды для когнитивной системы связи на базе сотовой сети LTE
Компьютерные исследования и моделирование, 2022, т. 14, № 1, с. 127-146Статья посвящена вторичному использованию спектра в телекоммуникационных сетях. Акцентируется внимание, что одним из решений данной проблемы является применение технологий когнитивного радио и динамического доступа к спектру, для успешного функционирования которых необходим большой объем информации, включающий параметры базовых станций и абонентов сети. Хранение и обработка информации должны осуществляться при помощи карты радиосреды, которая представляет собой пространственно-временную базу данных всех активностей в сети и позволяет определять доступные для использования в заданное время частоты. В работе представлена двухуровневая модель для формирования карты радиосреды системы сотовой связи LTE, в которой выделены локальный и глобальный уровни, описываемая следующими параметрами: набор частот, ослабление сигнала, карта распространения сигналов, шаг сетки, текущий временной отсчет. Ключевыми объектами модели являются базовая станция и абонентское устройство. К основным параметрам базовой станции отнесены: наименование, идентификатор, координаты ячейки, номер, диапазон, мощность излучения, номера подключенных абонентских устройств, выделенные им ресурсные блоки. Для абонентских устройств в качестве параметров используются: наименование, идентификатор, местоположение, текущие координаты ячейки устройства, идентификатор рабочей базовой станции, частотный диапазон, номера ресурсных блоков для связи со станцией, мощность излучения, статус передачи данных, список номеров ближайших станций, расписания перемещения и сеансов связи устройств. Представлен алгоритм для реализации модели с учетом сценариев перемещения и сеансов связи абонентских устройств. Приводится методика расчета карты радиосреды в точке координатной сетки с учетом потерь при распространении радиосигналов от излучающих устройств. Программная реализация модели выполнена с использованием пакета MatLab. Описаны подходы, позволяющие повысить быстродействие ее работы. При моделировании выбор параметров осуществлялся с учетом данных действующих систем связи и экономии вычислительных ресурсов. Продемонстрированы результаты исследований программной реализации алгоритма формирования карты радиосреды, подтверждающие корректность разработанной модели.
Model for building of the radio environment map for cognitive communication system based on LTE
Computer Research and Modeling, 2022, v. 14, no. 1, pp. 127-146The paper is devoted to the secondary use of spectrum in telecommunication networks. It is emphasized that one of the solutions to this problem is the use of cognitive radio technologies and dynamic spectrum access for the successful functioning of which a large amount of information is required, including the parameters of base stations and network subscribers. Storage and processing of information should be carried out using a radio environment map, which is a spatio-temporal database of all activity in the network and allows you to determine the frequencies available for use at a given time. The paper presents a two-level model for forming a map of the radio environment of a cellular communication system LTE, in which the local and global levels are highlighted, which is described by the following parameters: a set of frequencies, signal attenuation, signal propagation map, grid step, current time count. The key objects of the model are the base station and the subscriber unit. The main parameters of the base station include: name, identifier, cell coordinates, range number, radiation power, numbers of connected subscriber devices, dedicated resource blocks. For subscriber devices, the following parameters are used: name, identifier, location, current coordinates of the device cell, base station identifier, frequency range, numbers of resource blocks for communication with the station, radiation power, data transmission status, list of numbers of the nearest stations, schedules movement and communication sessions of devices. An algorithm for the implementation of the model is presented, taking into account the scenarios of movement and communication sessions of subscriber devices. A method for calculating a map of the radio environment at a point on a coordinate grid, taking into account losses during the propagation of radio signals from emitting devices, is presented. The software implementation of the model is performed using the MatLab package. The approaches are described that allow to increase the speed of its work. In the simulation, the choice of parameters was carried out taking into account the data of the existing communication systems and the economy of computing resources. The experimental results of the algorithm for the formation of a radio environment map are demonstrated, confirming the correctness of the developed model.
-
Deriving specifications of dependable systems
Компьютерные исследования и моделирование, 2024, т. 16, № 7, с. 1637-1650Although human skills are heavily involved in the Requirements Engineering process, in particular, in requirements elicitation, analysis and specification, still methodology and formalism play a determining role in providing clarity and enabling analysis. In this paper, we propose a method for deriving formal specifications, which are applicable to dependable software systems. First, we clarify what the method itself is. Computer science has a proliferation of languages and methods, but the difference between the two is not always clear. This is a conceptual contribution. Furthermore, we propose the idea of Layered Fault Tolerant Specification (LFTS). The principle consists in layering specifications in (at least) two different layers: one for normal behaviors and others (if more than one) for abnormal behaviors. Abnormal behaviors are described in terms of an Error Injector (EI), which represent a model of the expected erroneous interference coming from the environment. This structure has been inspired by the notion of an idealized Fault Tolerant component, but the combination of LFTS and EI using rely guarantee thinking to describe interference is our second contribution. The overall result is the definition of a method for the specification of systems that do not run in isolation but in the real, physical world. We propose an approach that is pragmatic to its target audience: techniques must scale and be usable by non-experts, if they are to make it into an industrial setting. This article is making tentative steps, but the recent trends in Software Engineering such as Microservices, smart and software-defined buildings, M2M micropayments and Devops are relevant fields continue the investigation concerning dependability and rely guarantee thinking.
Ключевые слова: formal methods, dependability.
Deriving specifications of dependable systems
Computer Research and Modeling, 2024, v. 16, no. 7, pp. 1637-1650Although human skills are heavily involved in the Requirements Engineering process, in particular, in requirements elicitation, analysis and specification, still methodology and formalism play a determining role in providing clarity and enabling analysis. In this paper, we propose a method for deriving formal specifications, which are applicable to dependable software systems. First, we clarify what the method itself is. Computer science has a proliferation of languages and methods, but the difference between the two is not always clear. This is a conceptual contribution. Furthermore, we propose the idea of Layered Fault Tolerant Specification (LFTS). The principle consists in layering specifications in (at least) two different layers: one for normal behaviors and others (if more than one) for abnormal behaviors. Abnormal behaviors are described in terms of an Error Injector (EI), which represent a model of the expected erroneous interference coming from the environment. This structure has been inspired by the notion of an idealized Fault Tolerant component, but the combination of LFTS and EI using rely guarantee thinking to describe interference is our second contribution. The overall result is the definition of a method for the specification of systems that do not run in isolation but in the real, physical world. We propose an approach that is pragmatic to its target audience: techniques must scale and be usable by non-experts, if they are to make it into an industrial setting. This article is making tentative steps, but the recent trends in Software Engineering such as Microservices, smart and software-defined buildings, M2M micropayments and Devops are relevant fields continue the investigation concerning dependability and rely guarantee thinking.
Keywords: formal methods, dependability. -
Структура моделей перколяции узлов на трехмерных квадратных решетках
Компьютерные исследования и моделирование, 2013, т. 5, № 4, с. 607-622В работе рассматривается структура моделей перколяции узлов на трехмерных квадратных решеткахпри различныхфор мах (1,π)-окрестности. Для этихмо делей предложены изо- и анизотропные модификации алгоритма инвазивной перколяции с (1,0)- и (1,π)-окрестностями. Все рассмотренные алгоритмы являются частными случаями анизотропного алгоритма инвазивной перколяции на n-мерной решетке с (1,π)-окрестностью. Данный алгоритм положен в основу библиотеки SPSL, выпущенной под лицензией GNU GPL-3 с использованием свободного языка программирования R.
Ключевые слова: перколяция узлов, n-мерная квадратная решетка, неметрическое расстояние Минковского, язык программирования R, библиотека SPSL.
The structure of site percolation models on three-dimensional square lattices
Computer Research and Modeling, 2013, v. 5, no. 4, pp. 607-622Просмотров за год: 8. Цитирований: 5 (РИНЦ).In this paper we consider the structure of site percolation models on three-dimensional square lattices with various shapes of (1,π)-neighborhood. For these models, are proposed iso- and anisotropic modifications of the invasion percolation algorithm with (1,0)- and (1,π)-neighborhoods. All the above algorithms are special cases of the anisotropic invasion percolation algorithm on the n-dimensional lattice with a (1,π)-neighborhood. This algorithm is the basis for the package SPSL, released under GNU GPL-3 using the free programming language R.
-
Моделирование трендов динамики объема и структуры накопленной кредитной задолженности в банковской системе
Компьютерные исследования и моделирование, 2019, т. 11, № 5, с. 965-978Объем и структура накопленной кредитной задолженности перед банковской системой зависят от множества факторов, важнейшим из которых является текущий и ожидаемый уровень процентных ставок. Изменения в поведении заемщиков в ответ на сигналы денежно-кредитной политики позволяют разрабатывать эконометрические модели, представляющие динамику структуры кредитного портфеля банковской системы по срокам размещения средств. Эти модели помогают рассчитать показатели, характеризующие влияние регулирующих действий со стороны центрального банка на уровень процентного риска в целом. В работе проводилась идентификация четырех видов моделей: дискретной линейной модели, основанной на передаточных функциях, модели в пространстве состояний, классической эконометрической модели ARMAX и нелинейной модели типа Гаммерштейна – Винера. Для их описания использовался формальный язык теории автоматического управления, а для идентификации — программный пакет MATLAB. В ходе исследования было выявлено, что для краткосрочного прогнозирования объема и структуры кредитной задолженности больше всего подходит дискретная линейная модель в пространстве состояний, позволяющая прогнозировать тренды по структуре накопленной кредитной задолженности на прогнозном горизонте в 1 год. На примере реальных данных по российской банковской системе модель показывает высокую чувствительность реакции на изменения в денежно-кредитной политике, проводимой центральным банком РФ, структуры кредитной задолженности по срокам ее погашения. Так, при резком повышении процентных ставок в ответ на внешние рыночные шоки заемщики предпочитают сокращать сроки кредитования, при этом общий уровень задолженности повышается прежде всего за счет возрастающей переоценки номинального долга. При формировании устойчивого тренда снижения процентных ставок структура задолженности смещается в сторону долгосрочных кредитов.
Ключевые слова: кредитная задолженность, процентная ставка, динамическое моделирование, модель в пространстве состояний, прогнозирование.
Modelling of trends in the volume and structure of accumulated credit indebtedness in the banking system
Computer Research and Modeling, 2019, v. 11, no. 5, pp. 965-978The volume and structure of accumulated credit debt to the banking system depends on many factors, the most important of which is the level of interest rates. The correct assessment of borrowers’ reaction to the changes in the monetary policy allows to develop econometric models, representing the structure of the credit portfolio in the banking system by terms of lending. These models help to calculate indicators characterizing the level of interest rate risk in the whole system. In the study, we carried out the identification of four types of models: discrete linear model based on transfer functions; the state-space model; the classical econometric model ARMAX, and a nonlinear Hammerstein –Wiener model. To describe them, we employed the formal language of automatic control theory; to identify the model, we used the MATLAB software pack-age. The study revealed that the discrete linear state-space model is most suitable for short-term forecasting of both the volume and the structure of credit debt, which in turn allows to predict trends in the structure of accumulated credit debt on the forecasting horizon of 1 year. The model based on the real data has shown a high sensitivity of the structure of credit debt by pay back periods reaction to the changes in the Ñentral Bank monetary policy. Thus, a sharp increase in interest rates in response to external market shocks leads to shortening of credit terms by borrowers, at the same time the overall level of debt rises, primarily due to the increasing revaluation of nominal debt. During the stable falling trend of interest rates, the structure shifts toward long-term debts.
-
Разработка и исследование жесткого алгоритма анализа публикаций в Twitter и их влияния на движение рынка криптовалют
Компьютерные исследования и моделирование, 2023, т. 15, № 1, с. 157-170Посты в социальных сетях являются важным индикатором, отображающим положение активов на финансовом рынке. В статье описывается жесткое решение задачи классификации для определения влияния активности в социальных сетях на движение финансового рынка. Отбираются аккаунты авторитетных в сообществе крипто-трейдеров-инфлюенсеров. В качестве данных используются специальные пакеты сообщений, которые состоят из текстовых постов, взятых из Twitter. Приведены способы предобработки текста, заключающиеся в лемматизации Stanza и применении регулярных выражений, для очищения зашумленных текстов, особенностью которых является многочисленное употребление сленговых слов и сокращений. Решается задача бинарной классификации, где слово рассматривается как элемент вектора единицы данных. Для более точного описания криптовалютной активности ищутся наилучшие параметры разметки для обработки свечей Binance. Методы выявления признаков, необходимых для точного описания текстовых данных и последующего процесса установления зависимости, представлены в виде машинного обучения и статистического анализа. В качестве первого используется отбор признаков на основе критерия информативности, который применяется при разбиении решающего дерева на поддеревья. Такой подход реализован в модели случайного леса и актуален для задачи выбора значимых для «стрижки деревьев» признаков. Второй же основан на жестком составлении бинарного вектора в ходе грубой проверки наличия либо отсутствия слова в пакете и подсчете суммы элементов этого вектора. Затем принимается решение в зависимости от преодоления этой суммой порогового значения, базирующегося на уровне, предварительно подобранном с помощью анализа частотного распределения упоминаний слова. Алгоритм, используемый для решения проблемы, был назван бенчмарком и проанализирован в качестве инструмента. Подобные алгоритмы часто используются в автоматизированных торговых стратегиях. В процессе исследования также описаны наблюдения влияния часто встречающихся в тексте слов, которые используются в качестве базиса размерностью 2 и 3 при векторизации.
Ключевые слова: анализ текста, обработка естественного языка, активность в Twitter, ча- стотный анализ, отбор признаков, задача классификации, финансовые рынки, бенчмарк, случайный лес, решающие деревья.
Development of and research into a rigid algorithm for analyzing Twitter publications and its influence on the movements of the cryptocurrency market
Computer Research and Modeling, 2023, v. 15, no. 1, pp. 157-170Social media is a crucial indicator of the position of assets in the financial market. The paper describes the rigid solution for the classification problem to determine the influence of social media activity on financial market movements. Reputable crypto traders influencers are selected. Twitter posts packages are used as data. The methods of text, which are characterized by the numerous use of slang words and abbreviations, and preprocessing consist in lemmatization of Stanza and the use of regular expressions. A word is considered as an element of a vector of a data unit in the course of solving the problem of binary classification. The best markup parameters for processing Binance candles are searched for. Methods of feature selection, which is necessary for a precise description of text data and the subsequent process of establishing dependence, are represented by machine learning and statistical analysis. First, the feature selection is used based on the information criterion. This approach is implemented in a random forest model and is relevant for the task of feature selection for splitting nodes in a decision tree. The second one is based on the rigid compilation of a binary vector during a rough check of the presence or absence of a word in the package and counting the sum of the elements of this vector. Then a decision is made depending on the superiority of this sum over the threshold value that is predetermined previously by analyzing the frequency distribution of mentions of the word. The algorithm used to solve the problem was named benchmark and analyzed as a tool. Similar algorithms are often used in automated trading strategies. In the course of the study, observations of the influence of frequently occurring words, which are used as a basis of dimension 2 and 3 in vectorization, are described as well.
Журнал индексируется в Scopus
Полнотекстовая версия журнала доступна также на сайте научной электронной библиотеки eLIBRARY.RU
Журнал входит в систему Российского индекса научного цитирования.
Журнал включен в базу данных Russian Science Citation Index (RSCI) на платформе Web of Science
Международная Междисциплинарная Конференция "Математика. Компьютер. Образование"





