Для цитирования:
Смирнова В. В. Разработка и валидация программно-аппаратного комплекса для количественной оценки осанки с использованием цифровых видеоданных // Известия Саратовского университета. Новая серия. Серия: Математика. Механика. Информатика. 2026. Т. 26, вып. 1. С. 91-100. DOI: 10.18500/1816-9791-2026-26-1-91-100, EDN: PDPEPN
Разработка и валидация программно-аппаратного комплекса для количественной оценки осанки с использованием цифровых видеоданных
В статье представлено исследование, направленное на верификацию точности разработанного программно-аппаратного комплекса для анализа осанки человека с использованием цифровой видеокамеры. Цель работы заключалась в сравнении результатов, полученных с помощью разработанного комплекса, с данными системы захвата движения Vicon Nexus. Исследование включало разработку методики обработки видеоизображений для определения параметров осанки, создание программного обеспечения для автоматического анализа видео и расчета метрик, а также проведение экспериментального исследования с участием 14 испытуемых (7 мужчин и 7 женщин). Съемка осуществлялась одновременно с использованием цифровой видеокамеры (разрешение 4K, частота 30 fps) и системы Vicon Nexus с инфракрасными камерами и светоотражающими маркерами. Для анализа данных применялись методы компьютерного зрения, включая использование предобученной нейронной модели SAM для сегментации изображений и вычисление угловых характеристик осанки. Статистический анализ показал высокую степень согласованности между двумя системами (коэффициент кросс-корреляции $r = 0.81$), при этом процент расхождения результатов составил 4–5%. Основные факторы, влияющие на точность, включают технические ограничения видеокамеры, погрешности математических моделей и дисторсию оптической системы. Полученные результаты подтверждают возможность применения разработанного комплекса для оценки осанки в клинических условиях, что открывает перспективы для его использования в спортивной медицине, реабилитации и биомеханике.
- Wei S. E., Ramakrishna V., Kanade T., Sheikh Y. Convolutional pose machines. 2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). Las Vegas, NV, USA, 2016, pp. 4724–4732. DOI: https://doi.org/10.1109/cvpr.2016.511
- Baker R. Gait analysis methods in rehabilitation. Journal of NeuroEngineering and Rehabilitation, 2006, vol. 3, iss. 1, art. 4. DOI: https://doi.org/10.1186/1743-0003-3-4
- Hensley C. P., Lenihan E. M., Pratt K., Shah A., O’Donnell E., Nee P.-C., Lee J., Yang A., Chang A. H. Patterns of video-based motion analysis use among sports physical therapists. Physical Therapy in Sport, 2021, vol. 50, pp. 159–165. DOI: https://doi.org/10.1016/j.ptsp.2021.05.003
- Scataglini S., Abts E., Van Bocxlaer C., Van den Bussche M., Meletani S., Truijen S. Accuracy, validity, and reliability of markerless camera-based 3D motion capture systems versus marker-based 3D motion capture systems in gait analysis: A systematic review and meta-analysis. Sensors, 2024, vol. 24, iss. 11, art. 3686. DOI: https://doi.org/10.3390/s24113686
- Das K., de Paula Oliveira T., Newell J. Comparison of markerless and marker-based motion capture systems using 95% functional limits of agreement in a linear mixed-effects modelling framework. Scientific Reports, 2023, vol. 13, iss. 1, art. 22880. DOI: https://doi.org/10.1038/s41598-023-49360-2
- Ma Y., Mithraratne K., Wilson N. C., Wang X., Zhang Y. The validity and reliability of a kinect v2-based gait analysis system for children with cerebral palsy. Sensors, 2019, vol. 19, iss. 7, art. 1660. DOI: https://doi.org/10.3390/s19071660
- Fiorentino N. M., Kutschke M. J., Atkins P. R., Foreman K. B., Kapron A. L., Anderson A. E. Accuracy of functional and predictive methods to calculate the hip joint center in young nonpathologic asymptomatic adults with dual fluoroscopy as a reference standard. Annals of Biomedical Engineering, 2015, vol. 44, iss. 7, pp. 2168–2180. DOI: https://doi.org/10.1007/s10439-015-1522-1
- Tao W., Liu T., Zheng R., Feng H. Gait analysis using wearable sensors. Sensors, 2012, vol. 12, iss. 2, pp. 2255–2283. DOI: https://doi.org/10.3390/s120202255
- Vincent A. C., Furman H., Slepian R. C., Ammann K. R., Di Maria C., Chien J. H., Siu K.-C., Slepian M. J. Smart phone-based motion capture and analysis: Importance of operating envelope definition and application to clinical use. Applied Sciences, 2022, vol. 12, iss. 12, art. 6173. DOI: https://doi.org/10.3390/app12126173
- Zult T., Allsop J., Tabernero J., Pardhan S. A low-cost 2-D video system can accurately and reliably assess adaptive gait kinematics in healthy and low vision subjects. Scientific Reports, 2019, vol. 9, iss. 1, art. 18385. DOI: https://doi.org/10.1038/s41598-019-54913-5
- Chou C.-J., Chien J.-T., Chen H.-T. Self adversarial training for human pose estimation. 2018 Asia-Pacific Signal and Information Processing Association Annual Summit and Conference (APSIPA ASC). Honolulu, HI, USA, 2018, pp. 17–30. DOI: https://doi.org/10.23919/apsipa.2018.8659538
- Fan X., Zheng K., Lin Y., Wang S. Combining local appearance and holistic view: Dual-Source Deep Neural Networks for human pose estimation. 2015 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). Boston, MA, 2015, pp. 1347–1355. DOI: https://doi.org/10.1109/CVPR.2015.7298740
- Newell A., Yang K., Deng J. Stacked hourglass networks for human pose estimation. In: Leibe B., Matas J., Sebe N., Welling M. (eds.) Computer Vision – ECCV 2016. ECCV 2016. Lecture Notes in Computer Science, vol 9912. Cham, Springer, 2016, pp. 483–499. DOI: https://doi.org/10.1007/978-3-319-46484-8_29
- Kirillov A., Mintun E., Ravi N., Mao H., Rolland C., Gustafson L., Xiao T., Whitehead S., Berg A., Lo W., Dollar P., Girshick R. Segment anything. 2023 IEEE/CVF International Conference on Computer Vision (ICCV). Paris, France, 2023, pp. 3992–4003. DOI: https://doi.org/10.1109/iccv51070.2023.00371
- Li F., Zhang H., Sun P., Zou X., Liu S., Yang J., Li C., Zhang L., Gao J. Segment and recognize anything at any granularity. In: Leonardis A., Ricci E., Roth S., Russakovsky O., Sattler T., Varol G. (eds.) Computer Vision– ECCV 2024. Lecture Notes in Computer Science, vol. 15106. Cham, Springer, 2025, pp. 467–484. DOI: https://doi.org/10.1007/978-3-031-73195-2_27
- Smirnova V., Khamatnurova R., Kharin N., Yaikova E., Baltina T., Sachenkov O. The automatization of the gait analysis by the Vicon video system: A pilot study. Sensors, 2022, vol. 22, iss. 19, art. 7178. DOI: https://doi.org/10.3390/s22197178
- Zhang Z. A flexible new technique for camera calibration. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2000, vol. 22, iss. 11, pp. 1330–1334. DOI: https://doi.org/10.1109/34.888718
- Devernay F., Faugeras O. Straight lines have to be straight. Machine Vision and Applications, 2001, vol. 13, iss. 1, pp. 14–24. DOI: https://doi.org/10.1007/pl00013269
- 36 просмотров