Текущий выпуск Номер 1, 2026 Том 18

Все выпуски

Результаты поиска по 'testing':
Найдено статей: 160
  1. Пантелеев М.А., Бершадский Е.С., Шибеко А.М., Нечипуренко Д.Ю.
    Актуальные проблемы компьютерного моделирования тромбоза, фибринолиза и тромболизиса
    Компьютерные исследования и моделирование, 2024, т. 16, № 4, с. 975-995

    Система гемостаза представляет собой одну из ключевых защитных систем организма, которая присутствует практически во всех его жидких тканях, но наиболее важна в крови. Она активируется при различных повреждениях стенки сосуда, и взаимодействие ее специализированных клеток и гуморальных систем приводит сначала к формированию гемостатического сгустка, останавливающего потерю крови, а затем к постепенному растворению этого сгустка. Образование гемостатического тромба — уникальный с точки зрения физиологии процесс, так как за время порядка минуты система гемостаза образует сложные структуры, имеющие пространственный масштаб от микрометров (в случае повреждения микрососудов или стыков между отдельными эндотелиальными клетками) до сантиметра (в случае повреждения крупных магистральных артерий). Гемостатический ответ зависит от множества скоординированных и параллельно идущих процессов, включающих адгезию тромбоцитов, их активацию, агрегацию, секрецию различных гранул, изменение формы, состава внешней части липидного бислоя, контракцию тромба и образование фибриновой сети в результате работы каскада свертывания крови. Компьютерное моделирование представляет собой мощный инструмент для исследования этой сложной системы и решения практических задач в этой области на разных уровнях организации: от внутриклеточной сигнализации в тромбоцитах, моделирования гуморальных систем свертывания крови и фибринолиза и до разработки многомасштабных моделей тромбообразования. Проблемы, связанные с компьютерным моделированием биологических процессов, можно разделить на две основные категории: отсутствие адекватного физико-математического описания имеющихся в литературе экспериментальных данных из-за сложности биологических систем (проблема отсутствия адекватной теоретической модели биологических процессов) и проблема высокой вычислительной сложности некоторых моделей, которая не позволяет применять их для исследования физиологически интересных сценариев. Здесь мы рассмотрим как некоторые принципиальные проблемы в области моделирования свертывания крови, которые до сих пор остаются нерешенными, так и прогресс в экспериментальных исследованиях гемостаза и тромбоза, ведущий к пересмотру многих ранее принятых представлений, что необходимо отразить в новых компьютерных моделях этих процессов. Особое внимание будет уделено нюансам артериального, венозного и микрососудистого тромбоза, а также проблемам фибринолиза и тромболизиса. В обзоре также кратко обсуждаются основные типы используемых математических моделей, их сложность с точки зрения вычислений, а также принципиальные вопросы, связанные с возможностью описания процессов тромбообразования в артериях.

    Panteleev M.A., Bershadsky E.S., Shibeko A.M., Nechipurenko D.Y.
    Current issues in computational modeling of thrombosis, fibrinolysis, and thrombolysis
    Computer Research and Modeling, 2024, v. 16, no. 4, pp. 975-995

    Hemostasis system is one of the key body’s defense systems, which is presented in all the liquid tissues and especially important in blood. Hemostatic response is triggered as a result of the vessel injury. The interaction between specialized cells and humoral systems leads to the formation of the initial hemostatic clot, which stops bleeding. After that the slow process of clot dissolution occurs. The formation of hemostatic plug is a unique physiological process, because during several minutes the hemostatic system generates complex structures on a scale ranging from microns for microvessel injury or damaged endothelial cell-cell contacts, to centimeters for damaged systemic arteries. Hemostatic response depends on the numerous coordinated processes, which include platelet adhesion and aggregation, granule secretion, platelet shape change, modification of the chemical composition of the lipid bilayer, clot contraction, and formation of the fibrin mesh due to activation of blood coagulation cascade. Computer modeling is a powerful tool, which is used to study this complex system at different levels of organization. This includes study of intracellular signaling in platelets, modelling humoral systems of blood coagulation and fibrinolysis, and development of the multiscale models of thrombus growth. There are two key issues of the computer modeling in biology: absence of the adequate physico-mathematical description of the existing experimental data due to the complexity of the biological processes, and high computational complexity of the models, which doesn’t allow to use them to test physiologically relevant scenarios. Here we discuss some key unresolved problems in the field, as well as the current progress in experimental research of hemostasis and thrombosis. New findings lead to reevaluation of the existing concepts and development of the novel computer models. We focus on the arterial thrombosis, venous thrombosis, thrombosis in microcirculation and the problems of fibrinolysis and thrombolysis. We also briefly discuss basic types of the existing mathematical models, their computational complexity, and principal issues in simulation of thrombus growth in arteries.

  2. Марченко Л.Н., Косенок Я.А., Гайшун В.Е., Бруттан Ю.В.
    Моделирование реологических характеристик водных суспензий на основе наноразмерных частиц диоксида кремния
    Компьютерные исследования и моделирование, 2024, т. 16, № 5, с. 1217-1252

    Реологическое поведение водных суспензий на основе наноразмерных частиц диоксида кремния сильно зависит от динамической вязкости, которая непосредственно влияет на применение наножидкостей. Целью данной работы являются разработка и валидация моделей для прогнозирования динамической вязкости от независимых входных параметров: концентрации диоксида кремния SiO2, кислотности рН, а также скорости сдвига $\gamma$. Проведен анализ влияния состава суспензии на ее динамическую вязкость. Выявлены статистически однородные по составу группы суспензий, в рамках которых возможна взаимозаменяемость составов. Показано, что при малых скоростях сдвига реологические свойства суспензий существенно отличаются от свойств, полученных на более высоких скоростях. Установлены значимые положительные корреляции динамической вязкости суспензии с концентрацией SiO2 и кислотностью рН, отрицательные — со скоростью сдвига $\gamma$. Построены регрессионные модели с регуляризацией зависимости динамической вязкости $\eta$ от концентраций SiO2, NaOH, H3PO4, ПАВ (поверхностно-активное вещество), ЭДА (этилендиамин), скорости сдвига $\gamma$. Для более точного прогнозирования динамической вязкости были обучены модели с применением алгоритмов нейросетевых технологий и машинного обучения (многослойного перцептрона MLP, сети радиальной базисной функции RBF, метода опорных векторов SVM, метода случайного леса RF). Эффективность построенных моделей оценивалась с использованием различных статистических метрик, включая среднюю абсолютную ошибку аппроксимации (MAE), среднюю квадратическую ошибку (MSE), коэффициент детерминации $R^2$, средний процент абсолютного относительного отклонения (AARD%). Модель RF показала себя как лучшая модель на обучающей и тестовой выборках. Определен вклад каждой компоненты в построенную модель, показано, что наибольшее влияние на динамическую вязкость оказывает концентрация SiO2, далее кислотность рН и скорость сдвига $\gamma$. Точность предлагаемых моделей сравнивается с точностью ранее опубликованных в литературе моделей. Результаты подтверждают, что разработанные модели можно рассматривать как практический инструмент для изучения поведения наножидкостей, в которых используются водные суспензии на основе наноразмерных частиц диоксида кремния.

    Marchanko L.N., Kasianok Y.A., Gaishun V.E., Bruttan I.V.
    Modeling of rheological characteristics of aqueous suspensions based on nanoscale silicon dioxide particles
    Computer Research and Modeling, 2024, v. 16, no. 5, pp. 1217-1252

    The rheological behavior of aqueous suspensions based on nanoscale silicon dioxide particles strongly depends on the dynamic viscosity, which affects directly the use of nanofluids. The purpose of this work is to develop and validate models for predicting dynamic viscosity from independent input parameters: silicon dioxide concentration SiO2, pH acidity, and shear rate $\gamma$. The influence of the suspension composition on its dynamic viscosity is analyzed. Groups of suspensions with statistically homogeneous composition have been identified, within which the interchangeability of compositions is possible. It is shown that at low shear rates, the rheological properties of suspensions differ significantly from those obtained at higher speeds. Significant positive correlations of the dynamic viscosity of the suspension with SiO2 concentration and pH acidity were established, and negative correlations with the shear rate $\gamma$. Regression models with regularization of the dependence of the dynamic viscosity $\eta$ on the concentrations of SiO2, NaOH, H3PO4, surfactant (surfactant), EDA (ethylenediamine), shear rate γ were constructed. For more accurate prediction of dynamic viscosity, the models using algorithms of neural network technologies and machine learning (MLP multilayer perceptron, RBF radial basis function network, SVM support vector method, RF random forest method) were trained. The effectiveness of the constructed models was evaluated using various statistical metrics, including the average absolute approximation error (MAE), the average quadratic error (MSE), the coefficient of determination $R^2$, and the average percentage of absolute relative deviation (AARD%). The RF model proved to be the best model in the training and test samples. The contribution of each component to the constructed model is determined. It is shown that the concentration of SiO2 has the greatest influence on the dynamic viscosity, followed by pH acidity and shear rate γ. The accuracy of the proposed models is compared to the accuracy of models previously published. The results confirm that the developed models can be considered as a practical tool for studying the behavior of nanofluids, which use aqueous suspensions based on nanoscale particles of silicon dioxide.

  3. Оконича О., Садовых А.
    Автоматизированная проверка соответствия соглашений об обработке данных регламенту по защите данных
    Компьютерные исследования и моделирование, 2024, т. 16, № 7, с. 1667-1685

    В современном мире соблюдение нормативных требований по защите данных, таких как GDPR, является ключевым для организаций. Другой важной проблемой, выявленной при анализе, является то, что соблюдение осложняется сложностью правовых документов и постоянными изменениями в регулировании. В данной статье описываются способы, с помощью которых NLP (обработка естественного языка) способствует упрощению соблюдения GDPR путем автоматического сканирования на соответствие, оценки политик конфиденциальности и повышения уровня прозрачности. Работа не ограничивается исследованием применения NLP для работы с политиками конфиденциальности и улучшения понимания обмена данными с третьими сторонами, но также проводит предварительные исследования для оценки различий между несколькими моделями NLP. В статье описывается реализация и исполнение моделей для выявления той, которая демонстрирует наилучшую производительность по эффективности и скорости автоматизации процесса проверки соответствия и анализа политики конфиденциальности. Кроме того, в исследовании обсуждаются возможности использования автоматических инструментов и анализа данных для соблюдения GDPR, например, создание машиночитаемых моделей, которые помогают в оценке соответствия. Среди моделей, оцененных в нашем исследовании, SBERT показала лучшие результаты на уровне политики с точностью 0,57, прецизионностью 0,78, полнотой 0,83 и F1-метрикой 0,80. Модель BERT продемонстрировала наивысшую производительность на уровне предложений, достигнув точности 0,63, прецизионности 0,70, полноты 0,50 и F1-метрики 0,55. Таким образом, данная статья подчеркивает важность NLP в помощи организациям преодолеть трудности соблюдения GDPR, создавая дорожную карту к более ориентированному на клиента режиму защиты данных. В этом отношении, сравнивая предварительные исследования и демонстрируя производительность лучших моделей, работа способствует усилению мер по соблюдению и защите прав личности в киберпространстве.

    Okonicha O., Sadovykh A.
    NLP-based automated compliance checking of data processing agreements against General Data Protection Regulation
    Computer Research and Modeling, 2024, v. 16, no. 7, pp. 1667-1685

    As it stands in the contemporary world, compliance with regulations concerning data protection such as GDPR is central to organizations. Another important issue analysis identified is the fact that compliance is hampered by the fact that legal documents are often complex and that regulations are ever changing. This paper aims to describe the ways in which NLP aids in keeping GDPR compliance effortless through automated scanning for compliance, evaluating privacy policies, and increasing the level of transparency. The work does not only limit to exploring the application of NLP for dealing with the privacy policies and facilitate better understanding of the third-party data sharing but also proceed to perform the preliminary studies to evaluate the difference of several NLP models. They implement and execute the models to distinguish the one that performs the best based on the efficiency and speed at which it automates the process of compliance verification and analyzing the privacy policy. Moreover, some of the topics discussed in the research deal with the possibility of using automatic tools and data analysis to GDPR, for instance, generation of the machine readable models that assist in evaluation of compliance. Among the evaluated models from our studies, SBERT performed best at the policy level with an accuracy of 0.57, precision of 0.78, recall of 0.83, and F1-score of 0.80. BERT showed the highest performance at the sentence level, achieving an accuracy of 0.63, precision of 0.70, recall of 0.50, and F1-score of 0.55. Therefore, this paper emphasizes the importance of NLP to help organizations overcome the difficulties of GDPR compliance, create a roadmap to a more client-oriented data protection regime. In this regard, by comparing preliminary studies done in the test and showing the performance of the better model, it helps enhance the measures taken in compliance and fosters the defense of individual rights in the cyberspace.

  4. Максимова М.З., Барбин Н.М.
    Моделирование эвакуации людей различных возрастных групп
    Компьютерные исследования и моделирование, 2013, т. 5, № 3, с. 483-490

    Предложена и опробована программа для оценки расчетного времени эвакуации с возможностью выбора возрастной группы людей. Исследовано влияние возрастного состава групп людей на результаты расчета.

    Maksimova M.Z., Barbin N.M.
    Modeling of evacuation of people of various age groups
    Computer Research and Modeling, 2013, v. 5, no. 3, pp. 483-490

    The program for an assessment of an estimated time of evacuation with possibility of a choice of age group of people is offered and tested. Influence of age structure of groups of people on results of calculation is investigated.

    Просмотров за год: 2. Цитирований: 2 (РИНЦ).
  5. Платонов Д.В., Минаков А.В., Дектерев А.А., Сентябов А.В.
    Численное моделирование пространственных течений с закруткой потока
    Компьютерные исследования и моделирование, 2013, т. 5, № 4, с. 635-648

    Данная работа посвящена исследованию закрученных течений. Течения с закруткой потока находят широкое применение в различных технологических процессах. Закрученные течения могут сопровождаться такими нестационарными эффектами, как прецессия вихревого ядра. В свою очередь крупномасштабные пульсации, вызванные прецессией вихря, могут привести к повреждению конструкций и снижению надежности оборудования. Таким образом, для инженерных расчетов требуются подходы, достаточно хорошо описывающие подобные течения. В данной работе представлена методика описания закрученных потоков апробированная в рамках программных комплексов Fluent и SigmaFlow. Проведено численное моделирование нескольких тестовых задач с закруткой потока. Полученные результаты сопоставлены между собой, а также с экспериментальными данными.

    Platonov D.V., Minakov A.V., Dekterev A.A., Sentyabov A.V.
    Numerical modeling of flows with flow swirling
    Computer Research and Modeling, 2013, v. 5, no. 4, pp. 635-648

    This paper is devoted to investigation of the swirl flows. Such flows are widely used in various industrial processes. Swirl flows can be accompanied by time-dependent effects, for example, precession of the vortex core. In turn, the large-scale fluctuations due to the precession of the vortex can cause damage of structures and reduce of equipment reliability. Thus, for engineering calculations approaches that sufficiently well described such flows are required. This paper presents the technique of swirl flows calculation, tested for CFD packages Fluent and SigmaFlow. A numerical simulation of several swirl flow test problems was carried out. Obtained results are compared with each other and with the experimental data.

    Просмотров за год: 4. Цитирований: 2 (РИНЦ).
  6. Коганов А.В., Злобин А.И., Ракчеева Т.А.
    Задача вычисления траектории с равномерным распределением ответов
    Компьютерные исследования и моделирование, 2014, т. 6, № 5, с. 803-828

    Рассматривается новая серия тестов, предназначенных для выявления способности человека к параллельным вычислениям. В отличие от задач, рассмотренных в предыдущих работах, в новых сериях ответы распределены статистически равномерно. Это упрощает анализ полученных результатов и уменьшает оценку статистической погрешности. Новые экспериментальные данные близки к результатам, полученным в предыдущих опытах.

    Koganov A.V., Zlobin A.I., Rakcheeva T.A.
    The task of trajectory calculation with the homogenous distribution of results
    Computer Research and Modeling, 2014, v. 6, no. 5, pp. 803-828

    We consider a new set of tests which assigns to detection of human capability for parallel calculation. The new tests support the homogenous statistical distribution of results in distinction to the tests discussed in our previous works. This feature simplifies the analysis of test results and decreases the estimate of statistical error. The new experimental data is close to results obtained in previous experiments.

    Цитирований: 3 (РИНЦ).
  7. Богданов А.В., Ганкевич И.Г., Гайдучок В.Ю., Южанин Н.В.
    Запуск приложений на гибридном кластере
    Компьютерные исследования и моделирование, 2015, т. 7, № 3, с. 475-483

    Гибридный кластер подразумевает использование вычислительных ресурсов с различными архитектурами. Как правило, в таких системах используется CPU распространенной архитектуры (например, x86_64) и GPU (например, NVIDIA CUDA). Создание и эксплуатация подобного кластера требует определенного опыта: для того чтобы задействовать все вычислительные мощности такой системы и получить существенное ускорение на задачах, требуется учесть множество факторов. К таким факторам относятся как характеристики оборудования (например, особенности сетевой инфраструктуры, хранилища, архитектуры GPU), так и характеристики программного обеспечения (например, реализация MPI, библиотеки для работы с GPU). Таким образом для эффективных научных расчетов на подобных системах требуется помнить о характеристиках ускорителя (GPU), особенностях программного обеспечения, характеристиках задачи и о многих других факторах.

    В этой статье анализируются достоинства и недостатки гибридных вычислений. Будут приведены результаты запуска некоторых тестов и научных приложений, использующих GPGPU. Основное внимание уделено программных продуктах с открытым исходным кодом, которые поддерживают работу с GPGPU.

    Существует несколько подходов для организации гетерогенных вычислений. В данной статье мы рассмотрим приложения, использующие CUDA и OpenCL. CUDA довольно часто используется в подобных гибридных системах, в то время как переносимость OpenCL-приложений может сыграть решающую роль при выборе средства для разработки. Мы также уделим внимание системам с несколькими GPU, которые все чаще используются в рамках подобных кластеров. Вычисления проводились на гибридном кластере ресурсного центра «Вычислительный центр СПбГУ».

    Bogdanov A.V., Gankevich I.G., Gayduchok V.Yu., Yuzhanin N.V.
    Running applications on a hybrid cluster
    Computer Research and Modeling, 2015, v. 7, no. 3, pp. 475-483

    A hybrid cluster implies the use of computational devices with radically different architectures. Usually, these are conventional CPU architecture (e.g. x86_64) and GPU architecture (e. g. NVIDIA CUDA). Creating and exploiting such a cluster requires some experience: in order to harness all computational power of the described system and get substantial speedup for computational tasks many factors should be taken into account. These factors consist of hardware characteristics (e.g. network infrastructure, a type of data storage, GPU architecture) as well as software stack (e.g. MPI implementation, GPGPU libraries). So, in order to run scientific applications GPU capabilities, software features, task size and other factors should be considered.

    This report discusses opportunities and problems of hybrid computations. Some statistics from tests programs and applications runs will be demonstrated. The main focus of interest is open source applications (e. g. OpenFOAM) that support GPGPU (with some parts rewritten to use GPGPU directly or by replacing libraries).

    There are several approaches to organize heterogeneous computations for different GPU architectures out of which CUDA library and OpenCL framework are compared. CUDA library is becoming quite typical for hybrid systems with NVIDIA cards, but OpenCL offers portability opportunities which can be a determinant factor when choosing framework for development. We also put emphasis on multi-GPU systems that are often used to build hybrid clusters. Calculations were performed on a hybrid cluster of SPbU computing center.

    Просмотров за год: 4.
  8. Усанов Д.А., Скрипаль А.В., Аверьянов А.П., Добдин С.Ю., Кащавцев Е.О.
    Метод оценки риска возникновения сердечно-сосудистой недостаточности при физической нагрузке с использованием лазерной автодинной интерферометрии
    Компьютерные исследования и моделирование, 2017, т. 9, № 2, с. 311-321

    Представлены результаты исследования риска возникновения сердечно-сосудистой недостаточности юных спортсменов и подростков при стрессовой физической нагрузке. Описан метод скрининг-диагностики риска развития коллапсоидных осложнений. Приведены результаты бесконтактного измерения формы пульсовой волны лучевой артерии в области запястья с использованием полупроводникового лазерного автодина. При измерениях использовался лазерный диод типа RLD-650 со следующими характеристиками: мощность излучения — 5 мВт, длина волны излучения — 654 нм. Была решена задача по восстановлению формы движения отражателя, в качестве которого выступала поверхность кожи над артерией человека, апробирован метод оценки риска возникновения сердечно-сосудистой недостаточности при физической нагрузке и проведен анализ результатов его применения для оценки риска развития коллапсоидной реакции у юных спортсменов. В качестве анализируемых параметров были выбраны следующие показатели: крутизна систолического подъема на участке быстрой и медленной фазы, скорость изменения пульсовой волны на катакроте, вариабельность кардиоинтервалов, определяемая по временным интервалам между максимумами пульсовых волн. Форма пульсовой волны анализировалась по ее первой и второй производной по времени. Нули первой производной пульсовой волны позволяют выделить время систолического подъема. Минимум второй производной соответствует окончанию фазы быстрого и началу фазы медленного нарастания давления в систолу. Использование первой и второй производной пульсовой волны позволило раздельно анализировать форму пульсовой волны в фазе быстрого и в фазе медленного роста давления во время систолического подъема. Показано, что наличие аномалий в форме пульсовой волны в сочетании с ваготоническим типом нервной регуляции сердечно-сосудистой системы является признаком возникновения опасности коллапсоидной реакции при физической нагрузке.

    Usanov D.A., Skripal A.V., Averyanov A.P., Dobdin S.Yu., Kashchavtsev E.O.
    Method of estimation of heart failure during a physical exercise
    Computer Research and Modeling, 2017, v. 9, no. 2, pp. 311-321

    The results of determination of the risk of cardiovascular failure of young athletes and adolescents in stressful physical activity have been demonstrated. The method of screening diagnostics of the risk of developing heart failure has been described. The results of contactless measurement of the form of the pulse wave of the radial artery using semiconductor laser autodyne have been presented. In the measurements used laser diode type RLD-650 specifications: output power of 5 mW, emission wavelength 654 nm. The problem was solved by the reduced form of the reflector movement, which acts as the surface of the skin of the human artery, tested method of assessing the risk of cardiovascular disease during exercise and the analysis of the results of its application to assess the risk of cardiovascular failure reactions of young athletes. As analyzed parameters were selected the following indicators: the steepness of the rise in the systolic portion of the fast and slow phase, the rate of change in the pulse wave catacrota variability of cardio intervals as determined by the time intervals between the peaks of the pulse wave. It analyzed pulse wave form on its first and second derivative with respect to time. The zeros of the first derivative of the pulse wave allow to set aside time in systolic rise. A minimum of the second derivative corresponds to the end of the phase and the beginning of the slow pressure build-up in the systole. Using the first and second derivative of the pulse wave made it possible to separately analyze the pulse wave form phase of rapid and slow pressure increase phase during systolic expansion. It has been established that the presence of anomalies in the form of the pulse wave in combination with vagotonic nervous regulation of the cardiovascular system of a patient is a sign of danger collapse of circulation during physical exercise.

    Просмотров за год: 8. Цитирований: 1 (РИНЦ).
  9. Решитько М.А., Угольницкий Г.А., Усов А.Б.
    Численный метод нахождения равновесий Нэша и Штакельберга в моделях контроля качества речных вод
    Компьютерные исследования и моделирование, 2020, т. 12, № 3, с. 653-667

    В статье рассмотрена задача построения равновесий Нэша и Штакельберга при исследовании динамической системы контроля качества речных вод. Учитывается влияние субъектов управления двух уровней: одного ведущего и нескольких ведомых. В качестве ведущего (супервайзера) выступает природоохранный орган, а в роли ведомых (агентов) — промышленные предприятия. Основной целью супервайзера является поддержание допустимой концентрации загрязняющих веществ в речной воде. Добиться этого он может не единственным образом, поэтому, кроме того, супервайзер стремится к оптимизации своего целевого функционала. Супервайзер воздействует на агентов, назначая величину платы за сброс загрязнений в водоток. Плата за загрязнение от агента поступает в федеральный и местные бюджеты, затем распределяется на общих основаниях. Таким образом, плата увеличивает бюджет супервайзера, что и отражено в его целевом функционале. Причем плата за сброс загрязнений начисляется за количество и/или качество сброшенных загрязнений. К сожалению, для большинства систем контроля качества речных вод такая практика неэффективна из-за малого размера платы за сброс загрязнений. В статье и решается задача определения оптимального размера платы за сброс загрязнений, который позволяет поддерживать качество речной воды в заданном диапазоне.

    Агенты преследуют только свои эгоистические цели, выражаемые их целевыми функционалами, и не обращают внимания на состояние речной системы. Управление агента можно рассматривать как часть стока, которую агент очищает, а управление супервайзера — как назначаемый размер платы за сброс оставшихся загрязнений в водоток.

    Для описания изменения концентраций загрязняющих веществ в речной системе используется обыкновенное дифференциальное уравнение. Проблема поддержания заданного качества речной воды в рамках предложенной модели исследуется как с точки зрения агентов, так и с точки зрения супервайзера. В первом случае возникает дифференциальная игра в нормальной форме, в которой строится равновесие Нэша, во втором — иерархическая дифференциальная игра, разыгрываемая в соответствии с информационным регламентом игры Штакельберга. Указаны алгоритмы численного построения равновесий Нэша и Штакельберга для широкого класса входных функций. При построении равновесия Нэша возникает необходимость решения задач оптимального управления. Решение этих задач проводится в соответствии с принципом максимума Понтрягина. Строится функция Гамильтона, полученная система дифференциальных уравнений решается численно методом стрельбы и методом конечных разностей. Проведенные численные расчеты показывают, что низкий размер платы за единицу сброшенных в водоток загрязнений приводит к росту концентрации загрязняющих веществ в водотоке, а высокий — к банкротству предприятий. Это приводит к задаче нахождения оптимальной величины платы за сброс загрязнений, то есть к рассмотрению проблемы с точки зрения супервайзера. В этом случае возникает иерархическая дифференциальная игра супервайзера и агентов, в которой ищется равновесие Штакельберга. Возникает задача максимизации целевого функционала супервайзера с учетом управлений агентов, образующих равновесие Нэша. При нахождении оптимальных управлений супервайзера используется метод качественно репрезентативных сценариев, а для агентов — принцип максимума Понтрягина. Проведены численные эксперименты, найден коэффициент системной согласованности. Полученные численные результаты позволяют сделать вывод, что система контроля качества речных вод плохо системно согласована и для достижения стабильного развития системы необходимо иерархическое управление.

    Reshitko M.A., Ougolnitsky G.A., Usov A.B.
    Numerical method for finding Nash and Shtakelberg equilibria in river water quality control models
    Computer Research and Modeling, 2020, v. 12, no. 3, pp. 653-667

    In this paper we consider mathematical model to control water quality. We study a system with two-level hierarchy: one environmental organization (supervisor) at the top level and a few industrial enterprises (agents) at the lower level. The main goal of the supervisor is to keep water pollution level below certain value, while enterprises pollute water, as a side effect of the manufacturing process. Supervisor achieves its goal by charging a penalty for enterprises. On the other hand, enterprises choose how much to purify their wastewater to maximize their income.The fee increases the budget of the supervisor. Moreover, effulent fees are charged for the quantity and/or quality of the discharged pollution. Unfortunately, in practice, such charges are ineffective due to the insufficient tax size. The article solves the problem of determining the optimal size of the charge for pollution discharge, which allows maintaining the quality of river water in the rear range.

    We describe system members goals with target functionals, and describe water pollution level and enterprises state as system of ordinary differential equations. We consider the problem from both supervisor and enterprises sides. From agents’ point a normal-form game arises, where we search for Nash equilibrium and for the supervisor, we search for Stackelberg equilibrium. We propose numerical algorithms for finding both Nash and Stackelberg equilibrium. When we construct Nash equilibrium, we solve optimal control problem using Pontryagin’s maximum principle. We construct Hamilton’s function and solve corresponding system of partial differential equations with shooting method and finite difference method. Numerical calculations show that the low penalty for enterprises results in increasing pollution level, when relatively high penalty can result in enterprises bankruptcy. This leads to the problem of choosing optimal penalty, which requires considering problem from the supervisor point. In that case we use the method of qualitatively representative scenarios for supervisor and Pontryagin’s maximum principle for agents to find optimal control for the system. At last, we compute system consistency ratio and test algorithms for different data. The results show that a hierarchical control is required to provide system stability.

  10. Суздальцев В.А., Суздальцев И.В., Тахавова Э.Г.
    Извлечение нечетких знаний при разработке экспертных прогнозных диагностических систем
    Компьютерные исследования и моделирование, 2022, т. 14, № 6, с. 1395-1408

    Экспертные системы имитируют профессиональный опыт и мыслительный процесс специалиста при решении задач в различных предметных областях, в том числе в прогнозной диагностике в медицине и технике. При решении подобных задач применяются нечеткие модели принятия решений, что позволяет использовать профессиональные экспертные знания при формировании прогноза, исключая анализ данных непосредственных экспериментов. При построении нечетких моделей принятия решений используются типовые нечеткие ситуации, анализ которых позволяет сделать вывод специалистам о возникновении в будущем времени нештатных ситуаций. При разработке базы знаний экспертной системы прибегают к опросу экспертов: инженеры по знаниям используют мнение экспертов для оценки соответствия между типовой текущей ситуацией и риском возникновения чрезвычайной ситуации в будущем. В большинстве работ рассматриваются методы извлечения знаний с точки зрения психологических, лингвистических аспектов. Множественные исследования по священы проблемам контактного, процедурного или когнитивного слоев процесса извлечения знаний. Однако в процессе извлечения знаний следует отметить значительную трудоемкость процесса взаимодействия инженеров по знаниям с экспертами при определении типовых нечетких ситуаций и оценок рисков нештатных ситуаций. Причиной трудоемкости является то, что число вопросов, на которые должен ответить эксперт, очень велико. В статье обосновывается метод, который позволяет инженеру по знаниям сократить количество вопросов, задаваемых эксперту, а следовательно, снизить трудоемкость разработки базы знаний. Метод предполагает наличие отношения предпочтения, определяемое на множестве нечетких ситуаций, что позволяет частично автоматизировать формирование оценок частоты наступленияне четких ситуаций и тем самым сократить трудоемкость созданий базы знаний. Для подтверждения проверки и целесообразности предложенного метода проведены модельные эксперименты, результаты которых приведены в статье. На основе предложенного метода разработаны и внедрены в эксплуатацию несколько экспертных систем для прогнозирования групп риска патологий беременных и новорожденных.

    Suzdaltsev V.A., Suzdaltsev I.V., Tarhavova E.G.
    Fuzzy knowledge extraction in the development of expert predictive diagnostic systems
    Computer Research and Modeling, 2022, v. 14, no. 6, pp. 1395-1408

    Expert systems imitate professional experience and thinking process of a specialist to solve problems in various subject areas. An example of the problem that it is expedient to solve with the help of the expert system is the problem of forming a diagnosis that arises in technology, medicine, and other fields. When solving the diagnostic problem, it is necessary to anticipate the occurrence of critical or emergency situations in the future. They are situations, which require timely intervention of specialists to prevent critical aftermath. Fuzzy sets theory provides one of the approaches to solve ill-structured problems, diagnosis-making problems belong to which. The theory of fuzzy sets provides means for the formation of linguistic variables, which are helpful to describe the modeled process. Linguistic variables are elements of fuzzy logical rules that simulate the reasoning of professionals in the subject area. To develop fuzzy rules it is necessary to resort to a survey of experts. Knowledge engineers use experts’ opinion to evaluate correspondence between a typical current situation and the risk of emergency in the future. The result of knowledge extraction is a description of linguistic variables that includes a combination of signs. Experts are involved in the survey to create descriptions of linguistic variables and present a set of simulated situations.When building such systems, the main problem of the survey is laboriousness of the process of interaction of knowledge engineers with experts. The main reason is the multiplicity of questions the expert must answer. The paper represents reasoning of the method, which allows knowledge engineer to reduce the number of questions posed to the expert. The paper describes the experiments carried out to test the applicability of the proposed method. An expert system for predicting risk groups for neonatal pathologies and pregnancy pathologies using the proposed knowledge extraction method confirms the feasibility of the proposed approach.

Страницы: « первая предыдущая следующая последняя »

Журнал индексируется в Scopus

Полнотекстовая версия журнала доступна также на сайте научной электронной библиотеки eLIBRARY.RU

Журнал включен в базу данных Russian Science Citation Index (RSCI) на платформе Web of Science

Международная Междисциплинарная Конференция "Математика. Компьютер. Образование"

Международная Междисциплинарная Конференция МАТЕМАТИКА. КОМПЬЮТЕР. ОБРАЗОВАНИЕ.