Все выпуски
- 2026 Том 18
- 2025 Том 17
- 2024 Том 16
- 2023 Том 15
- 2022 Том 14
- 2021 Том 13
- 2020 Том 12
- 2019 Том 11
- 2018 Том 10
- 2017 Том 9
- 2016 Том 8
- 2015 Том 7
- 2014 Том 6
- 2013 Том 5
- 2012 Том 4
- 2011 Том 3
- 2010 Том 2
- 2009 Том 1
-
Биоматематическая система методов описания нуклеиновых кислот
Компьютерные исследования и моделирование, 2020, т. 12, № 2, с. 417-434Статья посвящена применению методов математического анализа, поиска паттернов и изучения состава нуклеотидов в последовательностях ДНК на геномном уровне. Изложены новые методы математической биологии, которые позволили обнаружить и отобразить скрытую упорядоченность генетических нуклеотидных последовательностей, находящихся в клетках живых организмов. Исследования основаны на работах по алгебраической биологии доктора физико-математических наук С. В. Петухова, которым впервые были введены и обоснованы новые алгебры и гиперкомплексные числовые системы, описывающие генетические явления. В данной работе описана новая фаза развития матричных методов в генетике для исследования свойств нуклеотидных последовательностей (и их физико-химических параметров), построенная на принципах конечной геометрии. Целью исследования является демонстрация возможностей новых алгоритмов и обсуждение обнаруженных свойств генетических молекул ДНК и РНК. Исследование включает три этапа: параметризация, масштабирование и визуализация. Параметризация — определение учитываемых параметров, которые основаны на структурных и физико-химических свойствах нуклеотидов как элементарных составных частей генома. Масштабирование играет роль «фокусировки» и позволяет исследовать генетические структуры в различных масштабах. Визуализация включает выбор осей координатной системы и способа визуального отображения. Представленные в работе алгоритмы выдвигаются на роль расширенного инструментария для развития научно-исследовательского программного обеспечения анализа длинных нуклеотидных последовательностей с возможностью отображения геномов в параметрических пространствах различной размерности. Одним из значимых результатов исследования является то, что были получены новые биологически интерпретируемые критерии классификации геномов различных живых организмов для выявления межвидовых взаимосвязей. Новая концепция позволяет визуально и численно оценить вариативность физико-химических параметров нуклеотидных последовательностей. Эта концепция также позволяет обосновать связь параметров молекул ДНК и РНК с фрактальными геометрическими мозаиками, обнаруживает упорядоченность и симметрии полинуклеотидов и их помехоустойчивость. Полученные результаты стали обоснованием для введения новых научных терминов: «генометрия» как методология вычислительных стратегий и «генометрика» как конкретные параметры того или иного генома или нуклеотидной последовательности. В связи с результатами исследования затронуты вопросы биосемиотики и уровни иерархичности организации живой материи.
Ключевые слова: генетические алгоритмы, вариативность, многомерный анализ данных, физико-химические параметры нуклеиновых кислот, конечная геометрия.
Biomathematical system of the nucleic acids description
Computer Research and Modeling, 2020, v. 12, no. 2, pp. 417-434The article is devoted to the application of various methods of mathematical analysis, search for patterns and studying the composition of nucleotides in DNA sequences at the genomic level. New methods of mathematical biology that made it possible to detect and visualize the hidden ordering of genetic nucleotide sequences located in the chromosomes of cells of living organisms described. The research was based on the work on algebraic biology of the doctor of physical and mathematical sciences S. V. Petukhov, who first introduced and justified new algebras and hypercomplex numerical systems describing genetic phenomena. This paper describes a new phase in the development of matrix methods in genetics for studying the properties of nucleotide sequences (and their physicochemical parameters), built on the principles of finite geometry. The aim of the study is to demonstrate the capabilities of new algorithms and discuss the discovered properties of genetic DNA and RNA molecules. The study includes three stages: parameterization, scaling, and visualization. Parametrization is the determination of the parameters taken into account, which are based on the structural and physicochemical properties of nucleotides as elementary components of the genome. Scaling plays the role of “focusing” and allows you to explore genetic structures at various scales. Visualization includes the selection of the axes of the coordinate system and the method of visual display. The algorithms presented in this work are put forward as a new toolkit for the development of research software for the analysis of long nucleotide sequences with the ability to display genomes in parametric spaces of various dimensions. One of the significant results of the study is that new criteria were obtained for the classification of the genomes of various living organisms to identify interspecific relationships. The new concept allows visually and numerically assessing the variability of the physicochemical parameters of nucleotide sequences. This concept also allows one to substantiate the relationship between the parameters of DNA and RNA molecules with fractal geometric mosaics, reveals the ordering and symmetry of polynucleotides, as well as their noise immunity. The results obtained justified the introduction of new terms: “genometry” as a methodology of computational strategies and “genometrica” as specific parameters of a particular genome or nucleotide sequence. In connection with the results obtained, biosemiotics and hierarchical levels of organization of living matter are raised.
-
Generating database schema from requirement specification based on natural language processing and large language model
Компьютерные исследования и моделирование, 2024, т. 16, № 7, с. 1703-1713A Large Language Model (LLM) is an advanced artificial intelligence algorithm that utilizes deep learning methodologies and extensive datasets to process, understand, and generate humanlike text. These models are capable of performing various tasks, such as summarization, content creation, translation, and predictive text generation, making them highly versatile in applications involving natural language understanding. Generative AI, often associated with LLMs, specifically focuses on creating new content, particularly text, by leveraging the capabilities of these models. Developers can harness LLMs to automate complex processes, such as extracting relevant information from system requirement documents and translating them into a structured database schema. This capability has the potential to streamline the database design phase, saving significant time and effort while ensuring that the resulting schema aligns closely with the given requirements. By integrating LLM technology with Natural Language Processing (NLP) techniques, the efficiency and accuracy of generating database schemas based on textual requirement specifications can be significantly enhanced. The proposed tool will utilize these capabilities to read system requirement specifications, which may be provided as text descriptions or as Entity-Relationship Diagrams (ERDs). It will then analyze the input and automatically generate a relational database schema in the form of SQL commands. This innovation eliminates much of the manual effort involved in database design, reduces human errors, and accelerates development timelines. The aim of this work is to provide a tool can be invaluable for software developers, database architects, and organizations aiming to optimize their workflow and align technical deliverables with business requirements seamlessly.
Ключевые слова: large language model, natural language processing entity-relationship diagrams, SQL.
Generating database schema from requirement specification based on natural language processing and large language model
Computer Research and Modeling, 2024, v. 16, no. 7, pp. 1703-1713A Large Language Model (LLM) is an advanced artificial intelligence algorithm that utilizes deep learning methodologies and extensive datasets to process, understand, and generate humanlike text. These models are capable of performing various tasks, such as summarization, content creation, translation, and predictive text generation, making them highly versatile in applications involving natural language understanding. Generative AI, often associated with LLMs, specifically focuses on creating new content, particularly text, by leveraging the capabilities of these models. Developers can harness LLMs to automate complex processes, such as extracting relevant information from system requirement documents and translating them into a structured database schema. This capability has the potential to streamline the database design phase, saving significant time and effort while ensuring that the resulting schema aligns closely with the given requirements. By integrating LLM technology with Natural Language Processing (NLP) techniques, the efficiency and accuracy of generating database schemas based on textual requirement specifications can be significantly enhanced. The proposed tool will utilize these capabilities to read system requirement specifications, which may be provided as text descriptions or as Entity-Relationship Diagrams (ERDs). It will then analyze the input and automatically generate a relational database schema in the form of SQL commands. This innovation eliminates much of the manual effort involved in database design, reduces human errors, and accelerates development timelines. The aim of this work is to provide a tool can be invaluable for software developers, database architects, and organizations aiming to optimize their workflow and align technical deliverables with business requirements seamlessly.
-
Методика сравнения эффективности методов компьютерной массовой оценки
Компьютерные исследования и моделирование, 2015, т. 7, № 1, с. 185-196Одним из направлений построения компьютеризированной массовой оценки (КМО) объектов недвижимости является учет местоположения объекта. При учете местоположения объекта с использованием пространственных авторегрессионных моделей структура модели (тип пространственной автокорреляции, выбор числа «ближайших» соседей) не всегда может быть определена однозначно до ее построения. Кроме того, на практике имеются ситуации, когда более эффективными являются методы, учитывающие другой тип зависимости цены объекта от его местоположения. В связи с этим в рамках исследования эффективности применения методов оценки, использующих пространственные методы, важными вопросами являются:
– области эффективности применения методов различной структуры;
– чувствительность методов, использующих пространственные модели, относительно выбора типа пространственной модели и числа ближайших соседей.
В статье проведен сравнительный анализ оценки эффективности методов КМО объектов недвижимости, использующих информацию о местоположении объекта, приведены результаты апробации, выделены области эффективного применения рассматриваемых методов.
Ключевые слова: компьютерная массовая оценка объектов недвижимости, пространственные авторегрессионные модели, центр влияния, имитационная модель, чувствительность методов.
Comparing the effectiveness of computer mass appraisal methods
Computer Research and Modeling, 2015, v. 7, no. 1, pp. 185-196Просмотров за год: 2.Location-based models — one of areas of CAMA (computer-assisted mass apriasal) building. When taking into account the location of the object using spatial autoregressive models structure of models (type of spatial autocorrelation, choice of “nearest neighbors”) cannot always be determined before its construction. Moreover, in practice there are situations where more efficient methods are taking into account different rates depending on the type of the object from its location. In this regard there are important issues in spatial methods area:
– fields of methods efficacy;
– sensitivity of the methods on the choice of the type of spatial model and on the selected number of nearest neighbors.
This article presents a methodology for assessing the effectiveness of computer evaluation of real estate objects. There are results of approbation on methods based on location information of the objects.
-
Новый метод стилеметрии на основе статистики числительных
Компьютерные исследования и моделирование, 2017, т. 9, № 5, с. 837-850Предложен новый метод статистического анализа текстов. Исследовано распределение частот различных первых значащих цифр в числительных англоязычных текстов. Учитываются количественные и порядковые числительные, выраженные как цифрами, так и словесно. Предварительно из текста удаляются случайно попавшие в него числительные, не отражающие авторский замысел (номера страниц, маркеры списков, идиоматические выражения, устойчивые обороты речи и тому подобное). Обнаружено, что для сборных текстов разного авторства частоты первых значащих цифр приближенно соответствуют известному закону Бенфорда, но с резким преобладанием встречаемости единицы. В связных авторских текстах возникают характерные отклонения от закона Бенфорда; показано, что эти отклонения являются статистически устойчивыми и значимыми авторскими особенностями, позволяющими при определенных условиях ответить на вопрос об авторстве и различить тексты разных авторов. Требуется, чтобы текст был достаточно длинным (не менее чем порядка 200 кБ). Распределение первых значащих цифр конца ряда $\{1, 2, \ldots, 8, 9\}$ подвержено сильным флуктуациям и не показательно для нашей цели. Цель теоретического обоснования найденной эмпирической закономерности в работе не ставится, но продемонстрировано ее практическое использование для атрибуции текстов. Предлагаемый подход и сделанные выводы подкреплены примерами компьютерного анализа художественных текстов У. М. Теккерея, М. Твена, Р. Л. Стивенсона, Дж.Джойса, сестер Бронте, Дж.Остин. На основе разработанной методологии рассмотрены проблемы авторства текста, ранее приписывавшегося Л.Ф. Бауму (результат согласуется с полученным другими методами), а также известного романа Харпер Ли «Убить пересмешника»; показано, что к написанию первоначального варианта этой книги («Пойди, поставь сторожа») мог быть причастен Трумен Капоте, но финальный текст, вероятно, принадлежит Харпер Ли. Результаты подтверждены на основе параметрического критерия Пирсона, а также непараметрических U-критерия Манна–Уитни и критерия Крускала–Уоллиса.
Ключевые слова: атрибуция текстов, первая значащая цифра числительных.
A novel method of stylometry based on the statistic of numerals
Computer Research and Modeling, 2017, v. 9, no. 5, pp. 837-850A new method of statistical analysis of texts is suggested. The frequency distribution of the first significant digits in numerals of English-language texts is considered. We have taken into account cardinal as well as ordinal numerals expressed both in figures, and verbally. To identify the author’s use of numerals, we previously deleted from the text all idiomatic expressions and set phrases accidentally containing numerals, as well as itemizations and page numbers, etc. Benford’s law is found to hold approximately for the frequencies of various first significant digits of compound literary texts by different authors; a marked predominance of the digit 1 is observed. In coherent authorial texts, characteristic deviations from Benford’s law arise which are statistically stable significant author peculiarities that allow, under certain conditions, to consider the problem of authorship and distinguish between texts by different authors. The text should be large enough (at least about 200 kB). At the end of $\{1, 2, \ldots, 9\}$ digits row, the frequency distribution is subject to strong fluctuations and thus unrepresentative for our purpose. The aim of the theoretical explanation of the observed empirical regularity is not intended, which, however, does not preclude the applicability of the proposed methodology for text attribution. The approach suggested and the conclusions are backed by the examples of the computer analysis of works by W.M. Thackeray, M. Twain, R. L. Stevenson, J. Joyce, sisters Bront¨e, and J.Austen. On the basis of technique suggested, we examined the authorship of a text earlier ascribed to L. F. Baum (the result agrees with that obtained by different means). We have shown that the authorship of Harper Lee’s “To Kill a Mockingbird” pertains to her, whereas the primary draft, “Go Set a Watchman”, seems to have been written in collaboration with Truman Capote. All results are confirmed on the basis of parametric Pearson’s chi-squared test as well as non-parametric Mann –Whitney U test and Kruskal –Wallis test.
Keywords: text attribution, first significant digit of numerals.Просмотров за год: 10. -
Автоматизированное выявление противоречивости в контенте социальных медиа: подход на основе предварительно обученных моделей
Компьютерные исследования и моделирование, 2026, т. 18, № 2, с. 501-517Обнаружение противоречивости в онлайн-дискурсе имеет важное значение для управления связями с общественностью, что позволяет информировать различные процессы от законотворчества до предпринимательства. В данной работе предлагается подход к обнаружению противоречивости в онлайн-контенте на основе анализа выражаемых эмоций. Противоречивость онлайн-контента определяется как феномен провоцирования разногласий и конфликтов в обсуждениях. Данная работа развивает предыдущие семантические методы, анализируя численные оценки именно эмоционального окраса сообщений. В качестве инструментов обнаружения противоречивости рассматриваются современные языковые модели для распознавания эмоций и распознавания именованных сущностей. Результаты работы этих моделей были агрегированы по сущностям для оценки их эмоциональной коннотации. Был предложен показатель эмоциональной дивергенции, основанный на дисперсии эмоций, для количественной оценки противоречивости контента. Затем сущности с достаточно высокой эмоциональной дивергенцией по отношению к специфике коммуникаций в рамках сообщества были отобраны в качестве маркеров противоречивости. Проведены эксперименты на данных Reddit, связанных с политическим кризисом в Шри-Ланке 2022 года, которые подтверждают возможность показателя эмоциональной дивергенции обнаруживать противоречивость. Всего было собрано два набора данных с использованием различных методологий: одна была направлена на извлечение более ранних сообщений, а другая была предназначена для сбора более свежих записей. Собранные данные включали обсуждения политики, общественных деятелей, организаций и локаций, связанных с обозначенным кризисом. При измерении на данных с ручной разметкой, предложенный метод достиг значения полноты 0,705 и точности около 0,496 для первого набора данных, в то время как для второго набора были зафиксированы значения полноты 0,716 и точности 0,436. Основными факторами, ограничивающими точность, стали качество низлежащих моделей и ложные срабатывания: широко обсуждаемые, но непротиворечивые маркеры. Наконец, было установлено, что изучение типичного распределения эмоций в контенте социальных медиа может быть полезным для повышения качества обнаружения противоречивости.
Ключевые слова: обнаружение противоречивости, социальные медиа, обработка естественного языка, анализ тональности, распознавание именованных сущностей.
Semi-automated detection of controversy in social media content: an approach based on pre-trained models
Computer Research and Modeling, 2026, v. 18, no. 2, pp. 501-517Detecting controversy in online discussions is critical for managing public relations, as it helps inform various processes from policymaking to business. This work aims to expand approaches to online controversy detection based on the expressed emotions. Controversy was defined as an online content phenomenon of provoking disagreements and conflict. This study builds upon prior semantic methods by analyzing estimates of emotional connotations of messages. Modern language models for emotion recognition and named entity recognition are explored as tools of controversy detection. The outputs of these models were aggregated by entity to estimate the entity’s emotional connotation. The emotional divergence score based on the dispersion of emotions was proposed to quantify controversy in user content. Then, entities with sufficiently high emotional divergence relative to the domain of discussions were selected as markers of controversy. A case study of Reddit data related to Sri-Lankan 2022 political crisis was conducted, showing the capabilities of emotional divergence score in controversy detection. A total of two datasets were collected with different methodologies: one aimed at collecting earlier messages and another aimed at collecting more recent ones. The collected data contained discussions of policy, public figures, organizations and locations tied to the crisis. When measured on manually annotated data samples, the proposed method achieved a recall value of 0.705 and a precision value close to 0.496 for the first dataset, while recall of 0.716 and precision of 0.436 were recorded for the second dataset. The main factors that limit the precision were found to be the quality of underlying models and false positives: highly discussed non-controversial markers. Lastly, it was identified that a study of regular emotional distribution of social media content may be helpful for improving controversy detection quality.
-
Методика оценки эффективности систем мониторинга вычислительных ресурсов
Компьютерные исследования и моделирование, 2012, т. 4, № 3, с. 661-668В данной статье рассмотрен вклад, вносимый системой мониторинга вычислительных ресурсов в работу распределенной вычислительной системы, и предложена методика оценки этого вклада и эффективности работы системы мониторинга на основе меры определенности состояния подконтрольной системы. Рассмотрено применение этой методики в ходе разработки и развития системы локального мониторинга Центрального информационно-вычислительного комплекса Объединенного института ядерных исследований.
Ключевые слова: мониторинг вычислительных ресурсов, системы управления, эффективность системы мониторинга.
Methods of evaluating the effectiveness of systems for computing resources monitoring
Computer Research and Modeling, 2012, v. 4, no. 3, pp. 661-668Просмотров за год: 2. Цитирований: 2 (РИНЦ).This article discusses the contribution of computing resources monitoring system to the work of a distributed computing system. Method of evaluation of this contribution and performance monitoring system based on measures of certainty the state-controlled system is proposed. The application of this methodology in the design and development of local monitoring of the Central Information and Computing Complex, Joint Institute for Nuclear Research is listed.
-
Школы по математической биологии 1973–1992 гг.
Компьютерные исследования и моделирование, 2016, т. 8, № 2, с. 411-422В кратком обзоре описаны тематика и выборочные доклады Школ по моделированию сложных биологических систем. Школы явились естественным развитием этого направления науки в нашей стране, местом коллективного мозгового штурма, вдохновляемого такими выдающимися фигурами современности, как А. А. Ляпунов, Н. В. Тимофеев-Ресовский, А. М. Молчанов. На школах в острой дискуссионной форме поднимались общие вопросы методологии математического моделирования в биологии и экологии, обсуждались фундаментальные принципы структурной организации и функции сложных биологических и экологических систем. Школы служили важным примером междисциплинарного взаимодействия ученых разных не только и не столько специальностей, сколько разных мироощущений, подходов и способов отодвигать границу непознанного. Что тем не менее объединяло математиков и биологов, участников школ, так это общее понимание плодотворности данного союза. Доклады, дискуссии, размышления, сохранившиеся в материалах Школ, не потеряли актуальность до сих пор и могут служить определенными ориентирами для современного поколения ученых.
Ключевые слова: математическое моделирование, сложные биологические системы, уровни организации биологических систем, биосфера, экологическое моделирование.
Schools on mathematical biology 1973–1992
Computer Research and Modeling, 2016, v. 8, no. 2, pp. 411-422Просмотров за год: 2.This is a brief review of the subjects, and an impression of some talks, which were given at the Schools on modelling complex biological systems. Those Schools reflected a logical progress in this way of thinking in our country and provided a place for collective “brain-storming” inspired by prominent scientists of the last century, such as A. A. Lyapunov, N. V. Timofeeff-Ressovsky, A. M. Molchanov. At the Schools, general issues of methodology of mathematical modeling in biology and ecology were raised in the form of heated debates, the fundamental principles for how the structure of matter is organized and how complex biological systems function and evolve were discussed. The Schools served as an important sample of interdisciplinary actions by the scientists of distinct perceptions of the World, or distinct approaches and modes to reach the boundaries of the Unknown, rather than of different specializations. What was bringing together the mathematicians and biologists attending the Schools was the common understanding that the alliance should be fruitful. Reported in the issues of School proceedings, the presentations, discussions, and reflections have not yet lost their relevance so far and might serve as certain guidance for the new generation of scientists.
-
Обнаружение точек разворота на финансовых данных с помощью методов глубокого машинного обучения
Компьютерные исследования и моделирование, 2024, т. 16, № 2, с. 555-575Цель настоящего исследования заключается в разработке методологии выявления точек разворота на временных рядах, включая в том числе финансовые данные. Теоретической основой исследования послужили работы, посвященные анализу структурных изменений на финансовых рынках, описанию предложенных алгоритмов обнаружения точек разворота и особенностям построения моделей классического и глубокого машинного обучения для решения данного типа задач. Разработка подобного инструментария представляет интерес для инвесторов и других заинтересованных сторон, предоставляя дополнительные подходы к эффективному анализу финансовых рынков и интерпретации доступных данных.
Для решения поставленной задачи была обучена нейронная сеть. В ходе исследования было рассмотрено несколько способов формирования тренировочных выборок, которые различаются характером статистических параметров. Для повышения качества обучения и получения более точных результатов была разработана методология формирования признаков, служащих входными данными для нейронной сети. В свою очередь, эти признаки формируются на основе анализа математического ожидания и стандартного отклонения временных рядов на некоторых интервалах. Также исследуется возможностьих комбинации для достижения более стабильных результатов.
Результаты модельных экспериментов анализируются с целью сравнения эффективности предложенной модели с другими существующими алгоритмами обнаружения точек разворота, получившими широкое применение в решении практических задач. В качестве тренировочных и тестовых данных используется специально созданный датасет, генерация которого осуществляется с использованием собственных методов. Кроме того, обученная на различных признаках модельте стируется на дневных данных индекса S&P 500 в целях проверки ее эффективности в реальном финансовом контексте.
По мере описания принципов работы модели рассматриваются возможности для дальнейшего ее усовершенствования: модернизации структуры предложенного механизма, генерации тренировочных данных и формирования признаков. Кроме того, перед авторами стоит задача развития существующих концепций определения точек изменения в режиме реального времени.
Ключевые слова: точки разворота, временные ряды, финансовые рынки, машинное обучение, нейронные сети.
Changepoint detection on financial data using deep learning approach
Computer Research and Modeling, 2024, v. 16, no. 2, pp. 555-575The purpose of this study is to develop a methodology for change points detection in time series, including financial data. The theoretical basis of the study is based on the pieces of research devoted to the analysis of structural changes in financial markets, description of the proposed algorithms for detecting change points and peculiarities of building classical and deep machine learning models for solving this type of problems. The development of such tools is of interest to investors and other stakeholders, providing them with additional approaches to the effective analysis of financial markets and interpretation of available data.
To address the research objective, a neural network was trained. In the course of the study several ways of training sample formation were considered, differing in the nature of statistical parameters. In order to improve the quality of training and obtain more accurate results, a methodology for feature generation was developed for the formation of features that serve as input data for the neural network. These features, in turn, were derived from an analysis of mathematical expectations and standard deviations of time series data over specific intervals. The potential for combining these features to achieve more stable results is also under investigation.
The results of model experiments were analyzed to compare the effectiveness of the proposed model with other existing changepoint detection algorithms that have gained widespread usage in practical applications. A specially generated dataset, developed using proprietary methods, was utilized as both training and testing data. Furthermore, the model, trained on various features, was tested on daily data from the S&P 500 index to assess its effectiveness in a real financial context.
As the principles of the model’s operation are described, possibilities for its further improvement are considered, including the modernization of the proposed model’s structure, optimization of training data generation, and feature formation. Additionally, the authors are tasked with advancing existing concepts for real-time changepoint detection.
-
Применение статистических методов для выявления аномалий в результатах экзаменов на уровне образовательной организации
Компьютерные исследования и моделирование, 2026, т. 18, № 2, с. 537-552В работе рассматривается задача составления методики выявления аномалий с помощью методов математической статистики в результатах экзаменов на примере Основного государственного экзамена (ОГЭ) по математике 2023–2024 учебного года. Актуальность исследования обусловлена отсутствием обязательного видеоконтроля на ОГЭ в рассматриваемый период, что создает предпосылки для потенциальных процедурных нарушений как со стороны отдельных учащихся, так и в масштабах целых образовательных организаций. На основе анализа распределений первичных баллов были выявлены характерные особенности учебных заведений, свидетельствующие о возможной нечестности при проведении экзамена, в частности резкие скачки функции распределения в области перехода между неудовлетворительной и удовлетворительной оценками. С целью определения наиболее подозрительных результатов были построены два критерия аномальности. Первый критерий основан на сравнении величины скачка эмпирической функции распределения результатов школы с общерегиональным уровнем и позволяет выделить 47 организаций с аномально высокими значениями. Для построения второго (общего) критерия проведено сравнение баллов, полученных учениками школы на ОГЭ и диагностической работе по математике, проведенной в 8 классе с использованием видеоконтроля. Проведение такой аналогии является корректным, так как контингент обучающихся, принимавших участие в каждой из работ, практически совпадает. Данный подход позволяет сузить число выявленных аномалий, отделив те, которые более похожи на нарушения протоколов, от вызванных особенностями конкретного набора обучающихся и их подготовки к экзаменам в определенном учебном заведении. В результате применения одноклассового метода опорных векторов выявлены 12 образовательных организаций с нехарактерными аномальными результатами. Предложенная методика позволяет обнаруживать потенциальные случаи нечестного поведения при проведении экзамена и может быть использована для предотвращения нарушений протоколов с помощью проведения адресной профилактической работы с учебными заведениями.
Ключевые слова: выявление аномалий, статистический анализ, эмпирическая функция распределения, одноклассовый метод опорных векторов, ОГЭ, выявление нарушений.
Statistical methods for detecting anomalies in examination results at the institutional level
Computer Research and Modeling, 2026, v. 18, no. 2, pp. 537-552This study proposes a methodology for anomaly detection in educational assessment data, demonstrated on the case of the 2023–2024 Basic State Exam (BSE) in mathematics in Russia. The relevance of the study is related to the absence of mandatory video surveillance during the examination period, which creates a risk of potential rule violations both by individual students and by entire educational institutions. By analyzing the distribution of primary scores, we identify a big spike in the area between grades 2 and 3 as a specific pattern in results that may indicate cases of cheating during the exam. To determine the most suspicious results, two anomaly criteria were constructed. The first criterion relies on comparing the magnitude of the spike in empirical distribution function in school’s results with the corresponding regional average level. This criterion made it possible to identify 47 educational institutions with abnormally high values of the spike. The second (general) criterion was derived from comparing students’ scores on the examination with their performance on a diagnostic mathematics test conducted in grade 8 under video surveillance. This comparison is appropriate because almost the same group of students took part in both assessments. This approach helps reduce the number of detected anomalies by distinguishing those more likely to reflect actual protocol violations from those arising due to the specific characteristics of a particular student population and their exam preparation within a given educational institution. The application of the oneclass support vector machine method enabled the identification of 12 schools with atypical anomalous results. The proposed methodology could be useful for the detection of potential cases of cheating during exams and the development of methods for preventing such behavior. In particular, it can be used to support targeted preventive work with specific schools in order to reduce the risk of exam rule violations.
-
Оптимальное управление вложением средств банка как фактор экономической стабильности
Компьютерные исследования и моделирование, 2012, т. 4, № 4, с. 959-967В работе представлена модель пополнения банковской ликвидности собственными средствами банков. Дано методологическое обоснование необходимости создания банковских стабилизационных фондов для покрытия убытков в период кризиса в экономике. Приводится эконометрический вывод уравнений описывающих поведение банка в финансовой и операционной деятельности. В соответствии с поставленной целью создания стабилизационного фонда вводится критерий оптимальности осуществляемого управления. На основе полученных уравнений поведения банка, методом динамического программирования выводится вектор оптимальных управлений.
Ключевые слова: банковская ликвидность, стабилизационный фонд, нелинейная регрес- сия, доход функция, критерий, оптимальное управление, динамическое программирование.
Optimal control of bank investment as a factorof economic stability
Computer Research and Modeling, 2012, v. 4, no. 4, pp. 959-967Просмотров за год: 5.This paper presents a model of replenishment of bank liquidity by additional income of banks. Given the methodological basis for the necessity for bank stabilization funds to cover losses during the economy crisis. An econometric derivation of the equations describing the behavior of the bank financial and operating activity performed. In accordance with the purpose of creating a stabilization fund introduces an optimality criterion used controls. Based on the equations of the behavior of the bank by the method of dynamic programming is derived a vector of optimal controls.
Журнал индексируется в Scopus
Полнотекстовая версия журнала доступна также на сайте научной электронной библиотеки eLIBRARY.RU
Журнал входит в систему Российского индекса научного цитирования.
Журнал включен в базу данных Russian Science Citation Index (RSCI) на платформе Web of Science
Международная Междисциплинарная Конференция "Математика. Компьютер. Образование"





