МЕТОДЫ РАНДОМИЗИРОВАННОГО МАШИННОГО ОБУЧЕНИЯ ДЛЯ ГЕНЕРАЦИИ АНСАМБЛЕЙ СЛУЧАЙНЫХ ДАННЫХ С ЗАДАННЫМИ ЧИСЛОВЫМИ ХАРАКТЕРИСТИКАМИ

Обложка

Цитировать

Полный текст

Открытый доступ Открытый доступ
Доступ закрыт Доступ предоставлен
Доступ закрыт Доступ платный или только для подписчиков

Аннотация

Рассматривается задача генерации случайных ансамблей данных с заданными числовыми характеристиками. Развивается метод ее решения, использующий процедуры рандомизированного машинного обучения, которые строятся на последовательности задач функционального энтропийно-линейного программирования. В качестве ограничений в них рассматриваются нормированные моменты. Задача генерации сводится к системе нелинейных уравнений с интегральными компонентами. Адаптируется разработанный авторами асимптотический аналитический метод преобразования указанных уравнений к системе уравнений с полиномиальной левой частью. Развитые аналитические методы применены для генерации случайных ансамблей данных, прогнозирующих динамику стоимости финансовых активов.

Об авторах

Ю. С Попков

Федеральный исследовательский центр “Информатика и управление” РАН; Институт проблем управления им. В.А. Трапезникова РАН

Email: popkov@isa.ru
д-р техн. наук Москва, Россия

А. Ю Попков

Федеральный исследовательский центр “Информатика и управление” РАН

Email: apopkov@isa.ru
канд. техн. наук Москва, Россия

Ю. А Дубнов

Федеральный исследовательский центр “Информатика и управление” РАН

Email: yury.dubnov@phystech.edu
Москва, Россия

Список литературы

  1. Rubinstein R.Y., Kroese D.P. Simulation and the Monte Carlo Method, 2016, John Wiley & Sons.
  2. Vapnik V.N. Statistical Learning Theory, Wiley, 1998.
  3. Bishop C.M. Pattern Recognition and Machine Learning, Springer, 2006.
  4. Hastie T., Tibshirani R., Friedman J. The Elements of Statistical Learning, Springer, 2009.
  5. Vovk V., Shafer G. Good Randomized sequential probability forecasting is always possible // J. Royal. Stat. Soc. B. 2005. V. 67. No. 5. P. 747–763.
  6. Hong T., Prinson P., Fan S., Zareipour H., Triccoli A., Hyndman R.J. Probabilistic energy forecasting: Global Energy Forecasting Competition 2014 and beyond // Int. J. Forecast. 2016. V. 32. No. 3. P. 896–913.
  7. Zhang et al. Stock priceprediction via discovering multy-frequency trading patterns // Proc. 23rd ACM SIGKDD international Conference on Knowledge Discovery and Data Mining. 2017. P. 2141–2149.
  8. Myers G.J. The Art of Software Testing. John Wiley & Sons, 1979.
  9. Городецкий В.И., Грушицкий М.С., Хабалов А.В. Многодетные системы (обзор) // Новости искусственного интеллекта, 1998, № 2, С. 116.
  10. Patton R. Software Testing, SAWS Publishers, 2005.
  11. Лысенков А.И., Бупп Г.С., Диденко Д.А. Система для разработки компьютерных тестов. http://www.bytic.ru/cue99m/cf7pvke.html, 2002.
  12. Мицель А.А., Позудов А.А. Нейросетевой подход к задаче тестирования // Прикладная информатика, 2011. № 5 (35). С. 60–67.
  13. Заозерская Л.А., Платонова В.А. Математические модели формирования оптимального комплекса структур тестов для контроля знаний // Омский научный вестник. 2012. № 3.
  14. Campi M.C., Garatti S., Prandini M. The scenario approach for systems and control design // Ann. Rev. Control. 2009. V. 33. No. 2. P. 149–157.
  15. Chi Z., Liu Y., Turrini A., Zhang L., Jansen D.N. A scenario approach for parametric Markov decision processes / In Principles of Verification: Cycling the Probabilistic Landscape: Essay Dedicated to Joost-Pieter Katoen on the Occasion of His 60th Birthday, Part II. Cham, Springer Nature Switzerland. 2024. P. 234–266.
  16. Boltzmann L. Vorlesungen über Gastheory. Leipzig, 1896, V. 1, J.A.Barth; 1898, V. 2, J.A.Barth.
  17. Jaynes E.T. Information theory and statistical Mechanics // Phys. Rev. 1957. V. 104. No. 4. P. 620–630.
  18. Jaynes E.T. Gibbs vs Boltzmann entropy // Amer. J. Phys. 1965. V. 33. P. 391–398.
  19. Rosenkrantz R.D., Jaynes E.T. Paper on Probability, Statistics,and Statistical Physics. Kluwer Academic Publishers, 1989.
  20. Jaynes E.T. Probability theory: the logic of science. Cambridge Uni. Press, 2003.
  21. Попков Ю.С. Асимптотическая эффективность оценок максимальной энтропии // Докл. AH. 2020. Т. 493. С. 100–103.
  22. Popkov Yu.S., Popkov A.Yu., Dubnov Yu.A. Entropy Randomization in Machine Learning. CRC Press, 2023.
  23. Красносельский М.А., Вайникко Г.М., Забрейко П.П., Руппицкий Я.Б., Отвеченко В.Я. Приближенные решения операторных уравнений. М.: Наука, 1969.
  24. Малкин И.Г. Некоторые задачи теории нелинейных колебаний. М.: УРСС, 2004.
  25. Darkhovsky, B.S., Popkov, Y.S., Popkov, A.Y., Aliev, A.S. A Method of Generating Random Vectors with a Given Probability Density Function // Autom. Remote Control. 2018. V. 79. No. 9. P. 1569–1581. https://doi.org/10.1134/S0005117918090035
  26. Avellaneda M. Minimum-relative-entropy calibration of asset-pricing models // Int. J. Theor. App. Finance. 1998. V. 1. No. 04. P. 447–472.
  27. Jackwerth J.C. Recovering Risk Aversion from OptionPrices and Realized Returns // Rev. Financ. Stud. 2000. V. 11. No. 2. P. 437.
  28. Ant-Sahalia Y., Lo A.W. Nonparametric Risk Management and Implied Risk Aversion // J. Econom. 2000. V. 94. P. 4–5.
  29. Рорkov Yu.S. Analytic Method for Solving One Class of Nonlinear Equations // Doklady Mathematics. 2024. https://doi.org/10.1134/S1064562424601392
  30. Фигтенсомун Г.М. Курс дифференциального и интегрального исчисления. М.: Физматгиз, 1962.
  31. Фелер В. Введение в теорию вероятностей и ее приложения. М.: Мир, 1967.
  32. Соболь И.М. Численные методы Монте-Карло. М.: Наука, 1973.
  33. Багдалов Н.С., Жидков Н.П., Кобельков Г.М. Численные методы. М.: Бином, 2003.

Дополнительные файлы

Доп. файлы
Действие
1. JATS XML

© Российская академия наук, 2025