Все выпуски
- 2025 Том 17
- 2024 Том 16
- 2023 Том 15
- 2022 Том 14
- 2021 Том 13
- 2020 Том 12
- 2019 Том 11
- 2018 Том 10
- 2017 Том 9
- 2016 Том 8
- 2015 Том 7
- 2014 Том 6
- 2013 Том 5
- 2012 Том 4
- 2011 Том 3
- 2010 Том 2
- 2009 Том 1
Обоснование гипотезы об оптимальных оценках скорости сходимости численных методов выпуклой оптимизации высоких порядков
Список литературы:
- , , , . Безградиентные двухточечные методы решения задач стохастической негладкой выпуклой оптимизации при наличии малых шумов не случайной природы // Автоматика и Телемеханика. — 2018. — № 9. — (в печати). — https://arxiv.org/ftp/arxiv/papers/1701/1701.03821.pdf . — (дата обращения: 03.09.2018).
- , , , . Gradientfree two-points optimal method for non smooth stochastic convex optimization problem with additional small noise // Automation and Remote Control. — 2018. — no. 9. — (in print). — https://arxiv.org/ftp/arxiv/papers/1701/1701.03821.pdf. — (accessed: 03.09.2018). — in Russian.
- . Методы оптимизации. — М: МЦНМО, 2011. — Т. 2. — 433 с.
- . Methods of Optimization. — Moscow: MTSNMO, 2011. — V. 2. — 433 p. — in Russian.
- , , . Ускоренные спуски по случайному направлению с неевклидовой прокс-структурой // Автоматика и Телемеханика. — 2019. — (в печати). — https://arxiv.org/pdf/1710.00162.pdf. — (дата обращения: 03.09.2018).
- , , . Accelerated Directional Search with non-Euclidean prox-structure // Automation and Remote Control. — 2019. — (in print). — https://arxiv.org/pdf/1710.00162.pdf. — (accessed: 03.09.2018). — in Russian.
- . Современные численные методы оптимизации. Метод универсального градиентного спуска. — М: МФТИ, 2018. — 166 с.
- . Universal gradient descent. — Moscow: MIPT, 2018. — 166 p. — in Russian.
- , . Гипотеза об оптимальных оценках скорости сходимости численных методов выпуклой оптимизации высоких порядков // Компьютерные исследования и моделирование. — 2018. — Т. 10, № 3. — С. 305–314. — DOI: 10.20537/2076-7633-2018-10-3-305-314
- , . Hypothesis of optimal estimates of the rate of convergence of numerical methods of convex optimization of high orders // Computer Research and Modeling. — 2018. — V. 10, no. 3. — P. 305–314. — in Russian. — DOI: 10.20537/2076-7633-2018-10-3-305-314.
- . Исчисление конечных разностей. — М: ГИФМЛ, 1959. — 400 с.
- . Calculus of finite differences. — Moscow: GIFML, 1959. — 400 p. — in Russian. — MathSciNet: MR0342890.
- . Оптимизация и быстрое автоматическое дифференцирование. — М: ВЦ РАН, 2013. — 144 с. — http://www.ccas.ru/personal/evtush/p/198.pdf. — (дата обращения: 03.09.2018).
- . Optimization and fast automatic differentiation. — Moscow: VC RAN, 2013. — 144 p. — http://www.ccas.ru/personal/evtush/p/198.pdf. — (accessed: 03.09.2018). — in Russian.
- , . Численные методы безусловной оптимизации и решения нелинейных уравнений. — М: Мир, 1988. — 440 с.
- , . Numerical methods for unconditional optimization and nonlinear equations. — Moscow: Mir, 1988. — 440 p. — in Russian. — MathSciNet: MR0956645.
- , . Численные методы оптимизации. — М: Физматлит, 2005. — 304 с.
- , . Numerical Optimization Methods. — Moscow: Fizmatlit, 2005. — 304 p. — in Russian. — MathSciNet: MR2071073.
- . Математическое программирование. — М: Наука, 1986. — 288 с.
- . Mathematical programming. — Moscow: Nauka, 1986. — 288 p. — in Russian. — MathSciNet: MR0411559.
- , , , . Алгоритмы. Построение и анализ:. — пер. с англ. — М: Издательский дом Вильямс, 2009.
- , , , . Introduction to algorithms. — Moscow: Izdatelskii dom Vilyams, 2009. — in Russian. — MathSciNet: MR2572804.
- , . Сложность задач и эффективность методов оптимизации. — М: Наука, 1979.
- , . Problem Complexity and method Efficiency in Optimization. — Moscow: Nauka, 1979. — in Russian. — MathSciNet: MR0702836.
- . Введение в выпуклую оптимизацию. — М: МЦНМО, 2010. — 262 с.
- . Introduction to convex optimization. — Moscow: MTSNMO, 2010. — 262 p. — in Russian.
- . К вопросу об алгоритмах приближенного вычисления минимума выпуклой функции по ее значениям // Мат. заметки. — 1996. — Т. 59, № 1. — С. 95–102.
- . On the question of algorithms for the approximate calculation of a minimum of a convex function from its values // Math. notes. — 1996. — V. 59, no. 1. — P. 95–102. — in Russian. — DOI: 10.1007/BF02312467. — Math-Net: Mi eng/mzm1697. — MathSciNet: MR1391825.
- , , . Oracle complexity of second-order methods for smooth convex optimization // Mathematical Programming. — 2017. — P. 1–34.
- . Estimate sequence methods: extensions and approximations. — 2009. — http://www.optimization-online.org/DB_FILE/2009/08/2372.pdf. — (accessed: 03.09.2018).
- . Convex optimization: algorithms and complexity // Foundations and Trends in Machine Learning. — 2015. — V. 8, no. 3–4. — P. 231–357. — DOI: 10.1561/2200000050.
- , , . Trust region methods. — Philadelphia: SIAM, 2000. — MathSciNet: MR1774899.
- , , . Randomized Similar Triangles Method: A Unifying Framework for Accelerated Randomized Optimization Methods (Coordinate Descent, Directional Search, Derivative-Free Method). — 2017. — https://arxiv.org/pdf/1707.08486.pdf. — (accessed: 03.09.2018).
- , , . Second-order methods with cubic regularization under inexact information. — 2017. — https://arxiv.org/pdf/1710.05782.pdf. — (accessed: 03.09.2018).
- , . Regularized Newton methods for minimizing functions with H ¨older continuous Hessian // SIAM J. Optim. — 2017. — V. 27, no. 1. — P. 478–506. — DOI: 10.1137/16M1087801. — MathSciNet: MR3625807.
- , , . Accelerated Bregman proximal gradient method for relatively smooth functions. — 2018. — https://arxiv.org/pdf/1808.03045.pdf. — (accessed: 03.09.2018).
- , , . A faster cutting plane method and its implications for combinatorial and convex optimization. — 2015. — https://arxiv.org/pdf/1508.04874.pdf . — (accessed: 03.09.2018). — MathSciNet: MR3473356.
- , , . Catalyst Acceleration for First-order Convex Optimization: from Theory to Practice // Journal of Machine Learning Research. — 2018. — V. 18. — P. 1–54. — 212. — MathSciNet: MR3827100. — ads: 2018JSR...135....1L.
- , . An accelerated hybrid proximal extragradient method for convex optimization and its implications to second-order methods // SIAM Journal on Optimization. — 2013. — V. 23, no. 2. — P. 1092–1125. — DOI: 10.1137/110833786. — MathSciNet: MR3063151.
- . Lectures on modern convex optimization analysis, algorithms, and engineering applications. — Philadelphia: SIAM, 2015. — http://www2.isye.gatech.edu/�..nemirovs/Lect_ModConvOpt.pdf. — (accessed: 03.09.2018).
- . Accelerating the cubic regularization of Newton’s method on convex problems // Math. Prog., Ser. A. — 2008. — V. 112. — P. 159–181. — DOI: 10.1007/s10107-006-0089-x. — MathSciNet: MR2327005.
- . Implementable tensor methods in unconstrained convex optimization. — Universit´e catholique de Louvain, Center for Operations Research and Econometrics (CORE), 2018. — CORE discussion paper 2018/05.
- . Lectures on convex optimization. — Springer, 2018. — MathSciNet: MR2142598.
- . Minimizing functions with bounded variation of subgradients. — 2005. — 13 p. — CORE Discussion Papers 2005/79. — http://webdoc.sub.gwdg.de/ebook/serien/e/CORE/dp2005_79.pdf. — (accessed : 03.09.2018).
- , . Cubic regularization of Newton method and its global performance // Mathematical Programming. — 2006. — V. 108, no. 1. — P. 177–205. — DOI: 10.1007/s10107-006-0706-8. — MathSciNet: MR2229459.
- , . Random gradient-free minimization of convex functions // Foundations of Computational Mathematics. — 2017. — V. 17, no. 2. — P. 527–566. — DOI: 10.1007/s10208-015-9296-2. — MathSciNet: MR3627456.
- , . Numerical optimization. — Springer, 2006.
Журнал индексируется в Scopus
Полнотекстовая версия журнала доступна также на сайте научной электронной библиотеки eLIBRARY.RU
Журнал входит в систему Российского индекса научного цитирования.
Журнал включен в базу данных Russian Science Citation Index (RSCI) на платформе Web of Science
Международная Междисциплинарная Конференция "Математика. Компьютер. Образование"





