Текущий выпуск Номер 2, 2026 Том 18

Все выпуски

Результаты поиска по 'k-means':
Найдено статей: 150
  1. Кудров А.И., Шеремет М.А.
    Численный анализ естественной конвекции кориума в условиях внутрикорпусной локализации с учетом переменного тепловыделения
    Компьютерные исследования и моделирование, 2021, т. 13, № 4, с. 807-822

    В представленном исследовании проводится численное моделирование охлаждения кориума, расплава керамического топлива ядерного реактора и оксидов конструкционных материалов, в горизонтальной полуцилиндрической полости, стенки которой поддерживаются при постоянной температуре, в условиях естественной конвекции.

    Охлаждение кориума — это процесс характерный для тяжелой аварии на ядерном реакторе, которая может быть локализована путем удержания кориума внутри корпуса реактора, испытывающего внешнее охлаждение. Такой подход обеспечивает не только сравнительно простой способ удержания радиоактивности в пределах первого контура, но и возможность реализации на действующих блоках. Это выступает альтернативой ловушке расплава, еще одному методу локализации. Точный анализ и моделирование процесса охлаждения в таких условиях оказываются перспективной областью исследований в настоящее время.

    В начальный момент времени температура кориума принимается равной температуре стенки. Кориум, несмотря на останов реактора, обладает остаточным тепловыделением, которое уменьшается со временем согласно формуле Вэя–Вигнера. Процесс естественной конвекции внутри полости описывается системой уравнений в приближении Буссинеска, которая включает в себя уравнение движения, уравнение неразрывности и уравнение энергии. Конвективные потоки считаются ламинарными и двумерными, теплофизические свойства жидкости считаются независимыми от температуры.

    Краевая задача математической физики формулируется в безразмерных переменных «функция тока – завихренность». Полученные дифференциальные уравнения решаются численно при помощи метода конечных разностей c использованием локально-одномерной схемы Самарского применительно к уравнениям параболического типа.

    В результате исследований получены временные зависимости среднего числа Нуссельта на верхней и нижней стенках полости в широком диапазоне изменения числа Рэлея от 103 до 106. Указанные зависимости также были проанализированы при различных значениях безразмерного времени работы реактора до аварии. Исследования проведены как на основе распределений изолиний функции тока и температуры, так и с использованием временных профилей интенсивности конвективного течения и теплообмена.

    Kudrov A.I., Sheremet M.A.
    Numerical simulation of corium cooling driven by natural convection in case of in-vessel retention and time-dependent heat generation
    Computer Research and Modeling, 2021, v. 13, no. 4, pp. 807-822

    Represented study considers numerical simulation of corium cooling driven by natural convection within a horizontal hemicylindrical cavity, boundaries of which are assumed isothermal. Corium is a melt of ceramic fuel of a nuclear reactor and oxides of construction materials.

    Corium cooling is a process occurring during severe accident associated with core melt. According to invessel retention conception, the accident may be restrained and localized, if the corium is contained within the vessel, only if it is cooled externally. This conception has a clear advantage over the melt trap, it can be implemented at already operating nuclear power plants. Thereby proper numerical analysis of the corium cooling has become such a relevant area of studies.

    In the research, we assume the corium is contained within a horizontal semitube. The corium initially has temperature of the walls. In spite of reactor shutdown, the corium still generates heat owing to radioactive decays, and the amount of heat released decreases with time accordingly to Way–Wigner formula. The system of equations in Boussinesq approximation including momentum equation, continuity equation and energy equation, describes the natural convection within the cavity. Convective flows are taken to be laminar and two-dimensional.

    The boundary-value problem of mathematical physics is formulated using the non-dimensional nonprimitive variables «stream function – vorticity». The obtained differential equations are solved numerically using the finite difference method and locally one-dimensional Samarskii scheme for the equations of parabolic type.

    As a result of the present research, we have obtained the time behavior of mean Nusselt number at top and bottom walls for Rayleigh number ranged from 103 to 106. These mentioned dependences have been analyzed for various dimensionless operation periods before the accident. Investigations have been performed using streamlines and isotherms as well as time dependences for convective flow and heat transfer rates.

  2. Суздальцев В.А., Суздальцев И.В., Тахавова Э.Г.
    Извлечение нечетких знаний при разработке экспертных прогнозных диагностических систем
    Компьютерные исследования и моделирование, 2022, т. 14, № 6, с. 1395-1408

    Экспертные системы имитируют профессиональный опыт и мыслительный процесс специалиста при решении задач в различных предметных областях, в том числе в прогнозной диагностике в медицине и технике. При решении подобных задач применяются нечеткие модели принятия решений, что позволяет использовать профессиональные экспертные знания при формировании прогноза, исключая анализ данных непосредственных экспериментов. При построении нечетких моделей принятия решений используются типовые нечеткие ситуации, анализ которых позволяет сделать вывод специалистам о возникновении в будущем времени нештатных ситуаций. При разработке базы знаний экспертной системы прибегают к опросу экспертов: инженеры по знаниям используют мнение экспертов для оценки соответствия между типовой текущей ситуацией и риском возникновения чрезвычайной ситуации в будущем. В большинстве работ рассматриваются методы извлечения знаний с точки зрения психологических, лингвистических аспектов. Множественные исследования по священы проблемам контактного, процедурного или когнитивного слоев процесса извлечения знаний. Однако в процессе извлечения знаний следует отметить значительную трудоемкость процесса взаимодействия инженеров по знаниям с экспертами при определении типовых нечетких ситуаций и оценок рисков нештатных ситуаций. Причиной трудоемкости является то, что число вопросов, на которые должен ответить эксперт, очень велико. В статье обосновывается метод, который позволяет инженеру по знаниям сократить количество вопросов, задаваемых эксперту, а следовательно, снизить трудоемкость разработки базы знаний. Метод предполагает наличие отношения предпочтения, определяемое на множестве нечетких ситуаций, что позволяет частично автоматизировать формирование оценок частоты наступленияне четких ситуаций и тем самым сократить трудоемкость созданий базы знаний. Для подтверждения проверки и целесообразности предложенного метода проведены модельные эксперименты, результаты которых приведены в статье. На основе предложенного метода разработаны и внедрены в эксплуатацию несколько экспертных систем для прогнозирования групп риска патологий беременных и новорожденных.

    Suzdaltsev V.A., Suzdaltsev I.V., Tarhavova E.G.
    Fuzzy knowledge extraction in the development of expert predictive diagnostic systems
    Computer Research and Modeling, 2022, v. 14, no. 6, pp. 1395-1408

    Expert systems imitate professional experience and thinking process of a specialist to solve problems in various subject areas. An example of the problem that it is expedient to solve with the help of the expert system is the problem of forming a diagnosis that arises in technology, medicine, and other fields. When solving the diagnostic problem, it is necessary to anticipate the occurrence of critical or emergency situations in the future. They are situations, which require timely intervention of specialists to prevent critical aftermath. Fuzzy sets theory provides one of the approaches to solve ill-structured problems, diagnosis-making problems belong to which. The theory of fuzzy sets provides means for the formation of linguistic variables, which are helpful to describe the modeled process. Linguistic variables are elements of fuzzy logical rules that simulate the reasoning of professionals in the subject area. To develop fuzzy rules it is necessary to resort to a survey of experts. Knowledge engineers use experts’ opinion to evaluate correspondence between a typical current situation and the risk of emergency in the future. The result of knowledge extraction is a description of linguistic variables that includes a combination of signs. Experts are involved in the survey to create descriptions of linguistic variables and present a set of simulated situations.When building such systems, the main problem of the survey is laboriousness of the process of interaction of knowledge engineers with experts. The main reason is the multiplicity of questions the expert must answer. The paper represents reasoning of the method, which allows knowledge engineer to reduce the number of questions posed to the expert. The paper describes the experiments carried out to test the applicability of the proposed method. An expert system for predicting risk groups for neonatal pathologies and pregnancy pathologies using the proposed knowledge extraction method confirms the feasibility of the proposed approach.

  3. Бернадотт А.К., Мазурин А.Д.
    Оптимизация словаря команд на основе статистического критерия близости в задаче распознавания невербальной речи
    Компьютерные исследования и моделирование, 2023, т. 15, № 3, с. 675-690

    В исследовании мы сосредоточились на задаче классификации невербальной речи для разработки интерфейса «мозг–компьютер» (ИМК) на основе электроэнцефалографии (ЭЭГ), который будет способен помочь людям с ограниченными возможностями и расширить возможности человека в повседневной жизни. Ранее наши исследования показали, что беззвучная речь для некоторых слов приводит к почти идентичным распределениям ЭЭГ-данных. Это явление негативно влияет на точность классификации нейросетевой модели. В этой статье предлагается метод обработки данных, который различает статисти- чески удаленные и неразделимые классы данных. Применение предложенного подхода позволяет достичь цели максимального увеличения смысловой нагрузки словаря, используемого в ИМК.

    Кроме того, мы предлагаем статистический прогностический критерий точности бинарной классификации слов в словаре. Такой критерий направлен на оценку нижней и верхней границ поведения классификаторов только путем измерения количественных статистических свойств данных (в частности, с использованием метода Колмогорова – Смирнова). Показано, что более высокие уровни точности классификации могут быть достигнуты за счет применения предложенного прогностического критерия, позволяющего сформировать оптимизированный словарь с точки зрения семантической нагрузки для ИМК на основе ЭЭГ. Кроме того, использование такого обучающего набора данных для задач классификации по словарю обеспечивает статистическую удаленность классов за счет учета семантических и фонетических свойств соответствующих слов и улучшает поведение классификации моделей распознавания беззвучной речи.

    Bernadotte A., Mazurin A.D.
    Optimization of the brain command dictionary based on the statistical proximity criterion in silent speech recognition task
    Computer Research and Modeling, 2023, v. 15, no. 3, pp. 675-690

    In our research, we focus on the problem of classification for silent speech recognition to develop a brain– computer interface (BCI) based on electroencephalographic (EEG) data, which will be capable of assisting people with mental and physical disabilities and expanding human capabilities in everyday life. Our previous research has shown that the silent pronouncing of some words results in almost identical distributions of electroencephalographic signal data. Such a phenomenon has a suppressive impact on the quality of neural network model behavior. This paper proposes a data processing technique that distinguishes between statistically remote and inseparable classes in the dataset. Applying the proposed approach helps us reach the goal of maximizing the semantic load of the dictionary used in BCI.

    Furthermore, we propose the existence of a statistical predictive criterion for the accuracy of binary classification of the words in a dictionary. Such a criterion aims to estimate the lower and the upper bounds of classifiers’ behavior only by measuring quantitative statistical properties of the data (in particular, using the Kolmogorov – Smirnov method). We show that higher levels of classification accuracy can be achieved by means of applying the proposed predictive criterion, making it possible to form an optimized dictionary in terms of semantic load for the EEG-based BCIs. Furthermore, using such a dictionary as a training dataset for classification problems grants the statistical remoteness of the classes by taking into account the semantic and phonetic properties of the corresponding words and improves the classification behavior of silent speech recognition models.

  4. Вавилова Д.Д., Кетова К.В., Зерари Р.
    Компьютерное моделирование динамики валового регионального продукта: сравнительный анализ нейросетевых моделей
    Компьютерные исследования и моделирование, 2025, т. 17, № 6, с. 1219-1236

    Анализ экономических показателей региона играет важную роль в управлении и планировании развития, при этом валовой региональный продукт (ВРП) является одним из ключевых индикаторов экономической деятельности. Применение искусственного интеллекта, в том числе нейросетевых технологий, позволяет значительно повысить точность и надежность прогнозов экономических процессов. В данном исследовании сравниваются три модели нейросетевых алгоритмов для прогнозирования ВРП одного из типичных регионов РФ — Удмуртской Республики — на основе временных рядов за период с 2000 по 2023 год. В качестве моделей выбраны нейронная сеть с алгоритмом летучей мыши (BA-LSTM), модель нейронной сети обратного распространения ошибки, оптимизированная с помощью генетического алгоритма (GA-BPNN), и нейросетевая модель Элмана, оптимизированная алгоритмом роя частиц (PSO-Elman). В ходе исследования были выполнены такие этапы нейросетевого моделирования, как подготовка исходных данных, обучение моделей и их сравнительный анализ по показателям точности и качества прогнозов. Такой подход позволяет оценить преимущества и недостатки каждой модели в контексте прогнозирования ВРП, а также определить наиболее перспективные направления для дальнейших исследований. Использование современных нейросетевых методов открывает новые возможности для автоматизации анализа региональной экономики и повышения качества прогнозных оценок, что особенно актуально при ограниченных данных и для оперативного принятия решений. В исследовании в качестве входных данных для прогнозирования ВРП используются такие факторы, как величина производственного капитала, среднегодовая численность трудовых ресурсов, доля продукции высокотехнологичных и наукоемких отраслей в ВРП, а также показатель, учитывающий инфляцию. Высокая точность прогнозов, достигнутая в результате включения этих факторов в нейросетевые модели, подтверждает наличие сильной связи между этими факторами и ВРП. Результаты исследования показали высокую точность нейросетевой модели BA-LSTM на валидационной выборке: коэффициент детерминации составил 0,82, средняя абсолютная процентная ошибка — 4,19%. Качество и надежность этой модели свидетельствуют о ее способности эффективно предсказы- вать динамику ВРП. В прогнозном периоде до 2030 года в Удмуртской Республике ожидается ежегодное увеличение ВРП +4,6% в текущих ценах или +2,5% в сопоставимых ценах 2023 года. К 2030 году прогнозируется ВРП на уровне 1264,5 млрд руб.

    Vavilova D.D., Ketova K.V., Zerari R.
    Computer modeling of the gross regional product dynamics: a comparative analysis of neural network models
    Computer Research and Modeling, 2025, v. 17, no. 6, pp. 1219-1236

    Analysis of regional economic indicators plays a crucial role in management and development planning, with Gross Regional Product (GRP) serving as one of the key indicators of economic activity. The application of artificial intelligence, including neural network technologies, enables significant improvements in the accuracy and reliability of forecasts of economic processes. This study compares three neural network algorithm models for predicting the GRP of a typical region of the Russian Federation — the Udmurt Republic — based on time series data from 2000 to 2023. The selected models include a neural network with the Bat Algorithm (BA-LSTM), a neural network model based on backpropagation error optimized with a Genetic Algorithm (GA-BPNN), and a neural network model of Elman optimized using the Particle Swarm Optimization algorithm (PSO-Elman). The research involved stages of neural network modeling such as data preprocessing, training model, and comparative analysis based on accuracy and forecast quality metrics. This approach allows for evaluating the advantages and limitations of each model in the context of GRP forecasting, as well as identifying the most promising directions for further research. The utilization of modern neural network methods opens new opportunities for automating regional economic analysis and improving the quality of forecast assessments, which is especially relevant when data are limited and for rapid decision-making. The study uses factors such as the amount of production capital, the average annual number of labor resources, the share of high-tech and knowledge-intensive industries in GRP, and an inflation indicator as input data for predicting GRP. The high accuracy of the predictions achieved by including these factors in the neural network models confirms the strong correlation between these factors and GRP. The results demonstrate the exceptional accuracy of the BA-LSTM neural network model on validation data: the coefficient of determination was 0.82, and the mean absolute percentage error was 4.19%. The high performance and reliability of this model confirm its capacity to predict effectively the dynamics of the GRP. During the forecast period up to 2030, the Udmurt Republic is expected to experience an annual increase in Gross Regional Product (GRP) of +4.6% in current prices or +2.5% in comparable 2023 prices. By 2030, the GRP is projected to reach 1264.5 billion rubles.

  5. Аристов В.В., Ильин О.В.
    Описание быстрых процессов вторжения на основе кинетической модели
    Компьютерные исследования и моделирование, 2014, т. 6, № 5, с. 829-838

    В последние годы моделирование социальных, социо-биологических и исторических процессов получило большое развитие. В настоящей работе на основе кинетического подхода моделируются исторические процессы: агрессивное вторжение нацистской Германии в Польшу, Францию и СССР. Показано, что изучаемая система нелинейных уравнений полностью интегрируема: общее решение строится в виде квадратур. Вторжение (блицкриг) описывается краевой задачей Коши для двухэлементной кинетической модели с однородными по двум частям пространства начальными условиями. Решение данной задачи имеет вид бегущей волны, а скорость смещения линии фронта зависит от отношения начальных концентраций войск. Полученные оценки скорости распространения фронта согласуются с историческими фактами.

    Aristov V.V., Ilyin O.V.
    Description of the rapid invasion processes by means of the kinetic model
    Computer Research and Modeling, 2014, v. 6, no. 5, pp. 829-838

    Recently many investigations have been devoted to theoretical models in new areas concerning description of different biological, sociological and historical processes. In the present paper we investigate the nazi Germany invasion in Poland, France and USSR from the kinetic theory point of view. We model this process with the Cauchy boundary problem for the two-element kinetic equations with spatial uniform initial conditions. The solution of the problem is given in the form of the traveling wave and the propagation velocity of a frontline depends on the quotient between initial forces concentrations. Moreover it is obtained that the general solution of the model can be obtained in terms of the quadratures and elementary functions. Finally it is shown that the frontline velocities are complied with the historical data.

    Просмотров за год: 4. Цитирований: 1 (РИНЦ).
  6. Баранов А.В., Кореньков В.В., Юрченко В.В., Балашов Н.А., Кутовский Н.А., Семёнов Р.Н., Свистунов С.Я.
    Подходы к интеграции облачных инфраструктур
    Компьютерные исследования и моделирование, 2016, т. 8, № 3, с. 583-590

    Одним из важных направлений развития облачных технологий на данный момент является разработка методов интеграции различных облачных инфраструктур. В научной сфере актуальность данного направления обусловлена в первую очередь часто возникающей проблемой нехватки собственных вычислительных ресурсов и необходимостью привлечения дополнительных мощностей. В данной статье рассматриваются существующие подходы к интеграции облачных инфраструктур между собой: федеративные объединения и так называемая модель cloud bursting. Федеративное объединение на базе облачной платформы OpenNebula строится по схеме «одна главная зона и несколько управляемых зон», где под «зоной» понимается каждая из инфраструктур федерации. В подобной интеграции все облачные инфраструктуры имеют единую базу пользователей, а управление всей федерацией осуществляется централизованно с главной зоны. Данная схема наиболее подходит для объединения территориально разнесенных облачных инфраструктур, например подразделений одной организации, но не подходит для объединения инфраструктур разных организаций ввиду присущего данному подходу централизованного управления, а в случае использования организациями разных облачных платформ — невозможна. Модель федеративного объединения, реализованная в европейской грид-инфраструктуре «EGI Federated Cloud», хотя и позволяет интегрировать между собой облачные инфраструктуры на базе разных платформ, однако для интеграции подобным способом требуются установка и настройка существенного дополнительного набора специфических для данной конкретной европейской грид-инфраструктуры сервисов, что лишает данный подход универсальности. Модель cloud bursting лишена ограничений перечисленных федеративных подходов, однако в случае OpenNebula, на базе которой построена облачная инфраструктура Лаборатории информационных технологий Объединенного института ядерных исследований (ЛИТ ОИЯИ), такая модель была реализована только для интеграции с фиксированным набором коммерческих поставщиков облачных ресурсов. С учетом этого, а также на основании полученного авторами статьи опыта как по объединению облачных инфраструктур представляемых ими организаций, так и интеграции с европейским облаком EGI Federated Cloud командой ЛИТ ОИЯИ был разработан драйвер для объединения облаков партнерских организаций по модели cloud bursting на базе платформы OpenNebula как с аналогичным, так и с облаками на базе OpenStack. В статье описывается архитектура этого драйвера, используемые в нем технологии и протоколы, а также опыт его применения для объединения облачных инфраструктур организаций из стран-участниц ОИЯИ.

    Baranov A.V., Korenkov V.V., Yurchenko V.V., Balashov N.A., Kutovskiy N.A., Semenov R.N., Svistunov S.Y.
    Approaches to cloud infrastructures integration
    Computer Research and Modeling, 2016, v. 8, no. 3, pp. 583-590

    One of the important direction of cloud technologies development nowadays is a creation of methods for integration of various cloud infrastructures. An actuality of such direction in academic field is caused by a frequent lack of own computing resources and a necessity to attract additional ones. This article is dedicated to existing approaches to cloud infrastructures integration with each other: federations and so called ‘cloud bursting’. A ‘federation’ in terms of OpenNebula cloud platform is built on a ‘one master zone and several slave ones’ schema. A term ‘zone’ means a separate cloud infrastructure in the federation. All zones in such kind of integration have a common database of users and the whole federation is managed via master zone only. Such approach is most suitable for a case when cloud infrastructures of geographically distributed branches of a single organization need to be integrated. But due to its high centralization it's not appropriate when one needs to join cloud infrastructures of different organizations. Moreover it's not acceptable at all in case of clouds based on different software platforms. A model of federative integration implemented in EGI Federated Cloud allows to connect clouds based on different software platforms but it requires a deployment of sufficient amount of additional services which are specific for EGI Federated Cloud only. It makes such approach is one-purpose and uncommon one. A ‘cloud bursting’ model has no limitations listed above but in case of OpenNebula platform what the Laboratory of Information Technologies of Joint Institute for Nuclear Research (LIT JINR) cloud infrastructure is based on such model was implemented for an integration with a certain set of commercial cloud resources providers. Taking into account an article authors’ experience in joining clouds of organizations they represent as well as with EGI Federation Cloud a ‘cloud bursting’ driver was developed by LIT JINR cloud team for OpenNebula-based clouds integration with each other as well as with OpenStack-based ones. The driver's architecture, technologies and protocols it relies on and an experience of its usage are described in the article.

    Просмотров за год: 6. Цитирований: 11 (РИНЦ).
  7. Elaraby A.E.
    A framework for medical image segmentation based on measuring diversity of pixel’s intensity utilizing interval approach
    Компьютерные исследования и моделирование, 2021, т. 13, № 5, с. 1059-1066

    Segmentation of medical image is one of the most challenging tasks in analysis of medical image. It classifies the organs pixels or lesions from medical images background like MRI or CT scans, that is to provide critical information about the human organ’s volumes and shapes. In scientific imaging field, medical imaging is considered one of the most important topics due to the rapid and continuing progress in computerized medical image visualization, advances in analysis approaches and computer-aided diagnosis. Digital image processing becomes more important in healthcare field due to the growing use of direct digital imaging systems for medical diagnostics. Due to medical imaging techniques, approaches of image processing are now applicable in medicine. Generally, various transformations will be needed to extract image data. Also, a digital image can be considered an approximation of a real situation includes some uncertainty derived from the constraints on the process of vision. Since information on the level of uncertainty will influence an expert’s attitude. To address this challenge, we propose novel framework involving interval concept that consider a good tool for dealing with the uncertainty, In the proposed approach, the medical images are transformed into interval valued representation approach and entropies are defined for an image object and background. Then we determine a threshold for lower-bound image and for upper-bound image, and then calculate the mean value for the final output results. To demonstrate the effectiveness of the proposed framework, we evaluate it by using synthetic image and its ground truth. Experimental results showed how performance of the segmentation-based entropy threshold can be enhanced using proposed approach to overcome ambiguity.

    Segmentation of medical image is one of the most challenging tasks in analysis of medical image. It classifies the organs pixels or lesions from medical images background like MRI or CT scans, that is to provide critical information about the human organ’s volumes and shapes. In scientific imaging field, medical imaging is considered one of the most important topics due to the rapid and continuing progress in computerized medical image visualization, advances in analysis approaches and computer-aided diagnosis. Digital image processing becomes more important in healthcare field due to the growing use of direct digital imaging systems for medical diagnostics. Due to medical imaging techniques, approaches of image processing are now applicable in medicine. Generally, various transformations will be needed to extract image data. Also, a digital image can be considered an approximation of a real situation includes some uncertainty derived from the constraints on the process of vision. Since information on the level of uncertainty will influence an expert’s attitude. To address this challenge, we propose novel framework involving interval concept that consider a good tool for dealing with the uncertainty, In the proposed approach, the medical images are transformed into interval valued representation approach and entropies are defined for an image object and background. Then we determine a threshold for lower-bound image and for upper-bound image, and then calculate the mean value for the final output results. To demonstrate the effectiveness of the proposed framework, we evaluate it by using synthetic image and its ground truth. Experimental results showed how performance of the segmentation-based entropy threshold can be enhanced using proposed approach to overcome ambiguity.

  8. Петров А.П., Подлипская О.Г., Подлипский О.К.
    Моделирование динамики политических позиций: плотность сети и шансы меньшинства
    Компьютерные исследования и моделирование, 2024, т. 16, № 3, с. 785-796

    Некоторые информационные противоборства завершаются тем, что практически все общество принимает одну точку зрения, другие приводят к тому, что партия большинства получает лишь небольшой перевес над партией меньшинства. Возникает вопрос о том, какие сетевые характеристики общества способствуют тому, чтобы меньшинство могло сохранять некоторую значимую численность. С учетом того, что некоторые общества являются более связными, чем другие, в смысле того, что они имеют более высокую плотность социальных связей, данный вопрос конкретизируется следующим образом: какой эффект плотности социальных связей оказывается на шансы меньшинства сохранить не слишком малую численность? Способствует ли более высокая плотность более полной победе большинства или, наоборот, шансам меньшинства? Для изучения этого вопроса рассматривается информационное противоборство двух партий, называемых левой и правой, в населении, представленном в виде сети, узлами которой являются индивиды, а связи соответствуют их знакомству и описывают взаимное влияние. В каждый из дискретных моментов времени каждый индивид принимает решение о поддержке той или иной партии, основываясь на своей установке, т.е. предрасположенности к левой либо правой партии, и учитывая влияние своих соседей по сети. Влияние состоит в том, что каждый сосед с определенной вероятностью посылает данному индивиду сигнал в пользу той партии, которую сам в данный момент поддерживает. Если сосед меняет свою партийность, то он начинает агитировать данного индивида за свою «новую» партию. Такие процессы создают динамику, т.е. протяженное во времени изменение партийности индивидов. Продолжительность противоборства является экзогенно заданной, последний момент может быть условно ассоциирован с днем выборов. Изложенная модель численно реализована на безмасштабной сети. Проведены численные эксперименты для различных значений плотности сети. Ввиду наличия стохастических элементов в модели, для каждого значения плотности проведено 200 прогонов, для каждого из которых определена конечная численность сторонников каждой изпа ртий. Получено, что при увеличении плотности увеличиваются шансы того, что победившая точка зрения охватит практически все население. И наоборот, низкая плотность сети способствует шансам меньшинства сохранить значимую численность.

    Petrov A.P., Podlipskaia O.G., Podlipskii O.K.
    Modeling the dynamics of political positions: network density and the chances of minority
    Computer Research and Modeling, 2024, v. 16, no. 3, pp. 785-796

    In some cases, information warfare results in almost whole population accepting one of two contesting points of view and rejecting the other. In other cases, however, the “majority party” gets only a small advantage over the “minority party”. The relevant question is which network characteristics of a population contribute to the minority being able to maintain some significant numbers. Given that some societies are more connected than others, in the sense that they have a higher density of social ties, this question is specified as follows: how does the density of social ties affect the chances of a minority to maintain a significant number? Does a higher density contribute to a landslide victory of majority, or to resistance of minority? To address this issue, we consider information warfare between two parties, called the Left and the Right, in the population, which is represented as a network, the nodes of which are individuals, and the connections correspond to their acquaintance and describe mutual influence. At each of the discrete points in time, each individual decides which party to support based on their attitude, i. e. predisposition to the Left or Right party and taking into account the influence of his network ties. The influence means here that each tie sends a cue with a certain probability to the individual in question in favor of the party that themselves currently support. If the tie switches their party affiliation, they begin to agitate the individual in question for their “new” party. Such processes create dynamics, i. e. the process of changing the partisanship of individuals. The duration of the warfare is exogenously set, with the final time point roughly associated with the election day. The described model is numerically implemented on a scale-free network. Numerical experiments have been carried out for various values of network density. Because of the presence of stochastic elements in the model, 200 runs were conducted for each density value, for each of which the final number of supporters of each of the parties was calculated. It is found that with higher density, the chances increase that the winner will cover almost the entire population. Conversely, low network density contributes to the chances of a minority to maintain significant numbers.

  9. Жаркова В.В., Щеляев А.Е., Фишер Ю.В.
    Численное моделирование внешнего обтекания спортсмена
    Компьютерные исследования и моделирование, 2017, т. 9, № 2, с. 331-344

    В работе описывается численное моделирование процесса внешнего обтекания подвижного спортсмена с целью определения его интегральных характеристик при различных режимах набегающего потока и режимах его движения. Численное моделирование выполнено с помощью программного комплекса вычислительной гидродинамики FlowVision, построенного на решении набора уравнений, описывающих движение жидкости и/или газа в расчетной области, в том числе уравнений сохранения массы, импульса и энергии, уравнений состояния, уравнений моделей турбулентности. Также учитываются подвижные границы расчетной области, изменяющаяся геометрическая форма которых моделирует фазы движения спортсмена, при прохождении трассы. Решение системы уравнений выполняется на декартовой сетке с локальной адаптацией в области высоких градиентов давлений или сложной геометрической формы границы расчетной области. Решение уравнений выполняется с помощью метода конечных объемов, с использованием расщепления по физическим процессам. Разработанная методика была апробирована на примере спортсменов, совершающих прыжки на лыжах с трамплина, в рамках подготовки к Олимпиаде в Сочи в 2014 году. Сравнение результатов численного и натурного эксперимента показало хорошую корреляцию. Технология моделирования состоит из следующих этапов:

    1) разработка постановки задачи внешнего обтекания спортсмена в обращенной постановке, где неподвижный объект исследования обтекается набегающим потоком, со скоростью, равной скорости движения объекта;

    2) разработка технологии изменения геометрической формы границы расчетной области в зависимости от фазы движения спортсмена; разработка методики численного моделирования, включающей в себя определение дискретизации по времени и пространству за счет выбора шага интегрирования и измельчения объемной расчетной сетки;

    3) проведение серии расчетов с использованием геометрических и динамических данных спортсмена из сборной команды.

    Описанная методика универсальна и применима для любых других видов спорта, биомеханических, природных и подобных им технических объектов.

    Zharkova V.V., Schelyaev A.E., Fisher J.V.
    Numerical simulation of sportsman's external flow
    Computer Research and Modeling, 2017, v. 9, no. 2, pp. 331-344

    Numerical simulation of moving sportsman external flow is presented. The unique method is developed for obtaining integral aerodynamic characteristics, which were the function of the flow regime (i.e. angle of attack, flow speed) and body position. Individual anthropometric characteristics and moving boundaries of sportsman (or sports equipment) during the race are taken into consideration.

    Numerical simulation is realized using FlowVision CFD. The software is based on the finite volume method, high-performance numerical methods and reliable mathematical models of physical processes. A Cartesian computational grid is used by FlowVision, the grid generation is a completely automated process. Local grid adaptation is used for solving high-pressure gradient and object complex shape. Flow simulation process performed by solutions systems of equations describing movement of fluid and/or gas in the computational domain, including: mass, moment and energy conservation equations; state equations; turbulence model equations. FlowVision permits flow simulation near moving bodies by means of computational domain transformation according to the athlete shape changes in the motion. Ski jumper aerodynamic characteristics are studied during all phases: take-off performance in motion, in-run and flight. Projected investigation defined simulation method, which includes: inverted statement of sportsman external flow development (velocity of the motion is equal to air flow velocity, object is immobile); changes boundary of the body technology defining; multiple calculations with the national team member data projecting. The research results are identification of the main factors affected to jumping performance: aerodynamic forces, rotating moments etc. Developed method was tested with active sportsmen. Ski jumpers used this method during preparations for Sochi Olympic Games 2014. A comparison of the predicted characteristics and experimental data shows a good agreement. Method versatility is underlined by performing swimmer and skater flow simulation. Designed technology is applicable for sorts of natural and technical objects.

    Просмотров за год: 29.
  10. Зенков А.В.
    Новый метод стилеметрии на основе статистики числительных
    Компьютерные исследования и моделирование, 2017, т. 9, № 5, с. 837-850

    Предложен новый метод статистического анализа текстов. Исследовано распределение частот различных первых значащих цифр в числительных англоязычных текстов. Учитываются количественные и порядковые числительные, выраженные как цифрами, так и словесно. Предварительно из текста удаляются случайно попавшие в него числительные, не отражающие авторский замысел (номера страниц, маркеры списков, идиоматические выражения, устойчивые обороты речи и тому подобное). Обнаружено, что для сборных текстов разного авторства частоты первых значащих цифр приближенно соответствуют известному закону Бенфорда, но с резким преобладанием встречаемости единицы. В связных авторских текстах возникают характерные отклонения от закона Бенфорда; показано, что эти отклонения являются статистически устойчивыми и значимыми авторскими особенностями, позволяющими при определенных условиях ответить на вопрос об авторстве и различить тексты разных авторов. Требуется, чтобы текст был достаточно длинным (не менее чем порядка 200 кБ). Распределение первых значащих цифр конца ряда $\{1, 2, \ldots, 8, 9\}$ подвержено сильным флуктуациям и не показательно для нашей цели. Цель теоретического обоснования найденной эмпирической закономерности в работе не ставится, но продемонстрировано ее практическое использование для атрибуции текстов. Предлагаемый подход и сделанные выводы подкреплены примерами компьютерного анализа художественных текстов У. М. Теккерея, М. Твена, Р. Л. Стивенсона, Дж.Джойса, сестер Бронте, Дж.Остин. На основе разработанной методологии рассмотрены проблемы авторства текста, ранее приписывавшегося Л.Ф. Бауму (результат согласуется с полученным другими методами), а также известного романа Харпер Ли «Убить пересмешника»; показано, что к написанию первоначального варианта этой книги («Пойди, поставь сторожа») мог быть причастен Трумен Капоте, но финальный текст, вероятно, принадлежит Харпер Ли. Результаты подтверждены на основе параметрического критерия Пирсона, а также непараметрических U-критерия Манна–Уитни и критерия Крускала–Уоллиса.

    Zenkov A.V.
    A novel method of stylometry based on the statistic of numerals
    Computer Research and Modeling, 2017, v. 9, no. 5, pp. 837-850

    A new method of statistical analysis of texts is suggested. The frequency distribution of the first significant digits in numerals of English-language texts is considered. We have taken into account cardinal as well as ordinal numerals expressed both in figures, and verbally. To identify the author’s use of numerals, we previously deleted from the text all idiomatic expressions and set phrases accidentally containing numerals, as well as itemizations and page numbers, etc. Benford’s law is found to hold approximately for the frequencies of various first significant digits of compound literary texts by different authors; a marked predominance of the digit 1 is observed. In coherent authorial texts, characteristic deviations from Benford’s law arise which are statistically stable significant author peculiarities that allow, under certain conditions, to consider the problem of authorship and distinguish between texts by different authors. The text should be large enough (at least about 200 kB). At the end of $\{1, 2, \ldots, 9\}$ digits row, the frequency distribution is subject to strong fluctuations and thus unrepresentative for our purpose. The aim of the theoretical explanation of the observed empirical regularity is not intended, which, however, does not preclude the applicability of the proposed methodology for text attribution. The approach suggested and the conclusions are backed by the examples of the computer analysis of works by W.M. Thackeray, M. Twain, R. L. Stevenson, J. Joyce, sisters Bront¨e, and J.Austen. On the basis of technique suggested, we examined the authorship of a text earlier ascribed to L. F. Baum (the result agrees with that obtained by different means). We have shown that the authorship of Harper Lee’s “To Kill a Mockingbird” pertains to her, whereas the primary draft, “Go Set a Watchman”, seems to have been written in collaboration with Truman Capote. All results are confirmed on the basis of parametric Pearson’s chi-squared test as well as non-parametric Mann –Whitney U test and Kruskal –Wallis test.

    Просмотров за год: 10.
Страницы: « первая предыдущая следующая последняя »

Журнал индексируется в Scopus

Полнотекстовая версия журнала доступна также на сайте научной электронной библиотеки eLIBRARY.RU

Журнал включен в базу данных Russian Science Citation Index (RSCI) на платформе Web of Science

Международная Междисциплинарная Конференция "Математика. Компьютер. Образование"

Международная Междисциплинарная Конференция МАТЕМАТИКА. КОМПЬЮТЕР. ОБРАЗОВАНИЕ.