Известия Саратовского университета. Новая серия.

Серия Математика. Механика. Информатика

ISSN 1816-9791 (Print)
ISSN 2541-9005 (Online)


Для цитирования:

Смирнова В. В. Разработка и валидация программно-аппаратного комплекса для количественной оценки осанки с использованием цифровых видеоданных // Известия Саратовского университета. Новая серия. Серия: Математика. Механика. Информатика. 2026. Т. 26, вып. 1. С. 91-100. DOI: 10.18500/1816-9791-2026-26-1-91-100, EDN: PDPEPN

Статья опубликована на условиях лицензии Creative Commons Attribution 4.0 International (CC-BY 4.0).
Опубликована онлайн: 
02.03.2026
Полный текст:
(downloads: 5)
Язык публикации: 
русский
Рубрика: 
Тип статьи: 
Научная статья
УДК: 
004.932
EDN: 
PDPEPN

Разработка и валидация программно-аппаратного комплекса для количественной оценки осанки с использованием цифровых видеоданных

Авторы: 
Смирнова Виктория Владимировна, Казанский (Приволжский) федеральный университет
Аннотация: 

В статье представлено исследование, направленное на верификацию точности разработанного программно-аппаратного комплекса для анализа осанки человека с использованием цифровой видеокамеры. Цель работы заключалась в сравнении результатов, полученных с помощью разработанного комплекса, с данными системы захвата движения Vicon Nexus. Исследование включало разработку методики обработки видеоизображений для определения параметров осанки, создание программного обеспечения для автоматического анализа видео и расчета метрик, а также проведение экспериментального исследования с участием 14 испытуемых (7 мужчин и 7 женщин). Съемка осуществлялась одновременно с использованием цифровой видеокамеры (разрешение 4K, частота 30 fps) и системы Vicon Nexus с инфракрасными камерами и светоотражающими маркерами. Для анализа данных применялись методы компьютерного зрения, включая использование предобученной нейронной модели SAM для сегментации изображений и вычисление угловых характеристик осанки. Статистический анализ показал высокую степень согласованности между двумя системами (коэффициент кросс-корреляции $r = 0.81$), при этом процент расхождения результатов составил 4–5%. Основные факторы, влияющие на точность, включают технические ограничения видеокамеры, погрешности математических моделей и дисторсию оптической системы. Полученные результаты подтверждают возможность применения разработанного комплекса для оценки осанки в клинических условиях, что открывает перспективы для его использования в спортивной медицине, реабилитации и биомеханике.

Благодарности: 
Исследование выполнено при финансовой поддержке, выделяемой Казанскому федеральному университету по государственному заданию в сфере научной деятельности (проект № FZSM-2023-0009).
Список источников: 
  1. Wei S. E., Ramakrishna V., Kanade T., Sheikh Y. Convolutional pose machines. 2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). Las Vegas, NV, USA, 2016, pp. 4724–4732. DOI: https://doi.org/10.1109/cvpr.2016.511
  2. Baker R. Gait analysis methods in rehabilitation. Journal of NeuroEngineering and Rehabilitation, 2006, vol. 3, iss. 1, art. 4. DOI: https://doi.org/10.1186/1743-0003-3-4
  3. Hensley C. P., Lenihan E. M., Pratt K., Shah A., O’Donnell E., Nee P.-C., Lee J., Yang A., Chang A. H. Patterns of video-based motion analysis use among sports physical therapists. Physical Therapy in Sport, 2021, vol. 50, pp. 159–165. DOI: https://doi.org/10.1016/j.ptsp.2021.05.003
  4. Scataglini S., Abts E., Van Bocxlaer C., Van den Bussche M., Meletani S., Truijen S. Accuracy, validity, and reliability of markerless camera-based 3D motion capture systems versus marker-based 3D motion capture systems in gait analysis: A systematic review and meta-analysis. Sensors, 2024, vol. 24, iss. 11, art. 3686. DOI: https://doi.org/10.3390/s24113686
  5. Das K., de Paula Oliveira T., Newell J. Comparison of markerless and marker-based motion capture systems using 95% functional limits of agreement in a linear mixed-effects modelling framework. Scientific Reports, 2023, vol. 13, iss. 1, art. 22880. DOI: https://doi.org/10.1038/s41598-023-49360-2
  6. Ma Y., Mithraratne K., Wilson N. C., Wang X., Zhang Y. The validity and reliability of a kinect v2-based gait analysis system for children with cerebral palsy. Sensors, 2019, vol. 19, iss. 7, art. 1660. DOI: https://doi.org/10.3390/s19071660
  7. Fiorentino N. M., Kutschke M. J., Atkins P. R., Foreman K. B., Kapron A. L., Anderson A. E. Accuracy of functional and predictive methods to calculate the hip joint center in young nonpathologic asymptomatic adults with dual fluoroscopy as a reference standard. Annals of Biomedical Engineering, 2015, vol. 44, iss. 7, pp. 2168–2180. DOI: https://doi.org/10.1007/s10439-015-1522-1
  8. Tao W., Liu T., Zheng R., Feng H. Gait analysis using wearable sensors. Sensors, 2012, vol. 12, iss. 2, pp. 2255–2283. DOI: https://doi.org/10.3390/s120202255
  9. Vincent A. C., Furman H., Slepian R. C., Ammann K. R., Di Maria C., Chien J. H., Siu K.-C., Slepian M. J. Smart phone-based motion capture and analysis: Importance of operating envelope definition and application to clinical use. Applied Sciences, 2022, vol. 12, iss. 12, art. 6173. DOI: https://doi.org/10.3390/app12126173
  10. Zult T., Allsop J., Tabernero J., Pardhan S. A low-cost 2-D video system can accurately and reliably assess adaptive gait kinematics in healthy and low vision subjects. Scientific Reports, 2019, vol. 9, iss. 1, art. 18385. DOI: https://doi.org/10.1038/s41598-019-54913-5
  11. Chou C.-J., Chien J.-T., Chen H.-T. Self adversarial training for human pose estimation. 2018 Asia-Pacific Signal and Information Processing Association Annual Summit and Conference (APSIPA ASC). Honolulu, HI, USA, 2018, pp. 17–30. DOI: https://doi.org/10.23919/apsipa.2018.8659538
  12. Fan X., Zheng K., Lin Y., Wang S. Combining local appearance and holistic view: Dual-Source Deep Neural Networks for human pose estimation. 2015 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). Boston, MA, 2015, pp. 1347–1355. DOI: https://doi.org/10.1109/CVPR.2015.7298740
  13. Newell A., Yang K., Deng J. Stacked hourglass networks for human pose estimation. In: Leibe B., Matas J., Sebe N., Welling M. (eds.) Computer Vision – ECCV 2016. ECCV 2016. Lecture Notes in Computer Science, vol 9912. Cham, Springer, 2016, pp. 483–499. DOI: https://doi.org/10.1007/978-3-319-46484-8_29
  14. Kirillov A., Mintun E., Ravi N., Mao H., Rolland C., Gustafson L., Xiao T., Whitehead S., Berg A., Lo W., Dollar P., Girshick R. Segment anything. 2023 IEEE/CVF International Conference on Computer Vision (ICCV). Paris, France, 2023, pp. 3992–4003. DOI: https://doi.org/10.1109/iccv51070.2023.00371
  15. Li F., Zhang H., Sun P., Zou X., Liu S., Yang J., Li C., Zhang L., Gao J. Segment and recognize anything at any granularity. In: Leonardis A., Ricci E., Roth S., Russakovsky O., Sattler T., Varol G. (eds.) Computer Vision– ECCV 2024. Lecture Notes in Computer Science, vol. 15106. Cham, Springer, 2025, pp. 467–484. DOI: https://doi.org/10.1007/978-3-031-73195-2_27
  16. Smirnova V., Khamatnurova R., Kharin N., Yaikova E., Baltina T., Sachenkov O. The automatization of the gait analysis by the Vicon video system: A pilot study. Sensors, 2022, vol. 22, iss. 19, art. 7178. DOI: https://doi.org/10.3390/s22197178
  17. Zhang Z. A flexible new technique for camera calibration. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2000, vol. 22, iss. 11, pp. 1330–1334. DOI: https://doi.org/10.1109/34.888718
  18. Devernay F., Faugeras O. Straight lines have to be straight. Machine Vision and Applications, 2001, vol. 13, iss. 1, pp. 14–24. DOI: https://doi.org/10.1007/pl00013269
Поступила в редакцию: 
11.04.2025
Принята к публикации: 
27.09.2025
Опубликована: 
02.03.2026