Em direção a uma IA multimodal inteligível para análise de natação
Resultados iniciais do projeto SWIM-360
Downloads
Palavras-chave:
Inteligência Artificial, Inteligência Artificial Explicável, Sensoriamento Multimodal, Análise De Natação, Sensores Vestíveis, Tecnologia De Sensores, Interação Humano-ComputadorResumo
A análise do desempenho na natação depende cada vez mais de sistemas de sensoriamento multimodal que capturam sinais fisiológicos e biomecânicos em ambientes aquáticos reais. Embora tenha havido progresso na fidelidade dos sensores e na análise automatizada, a interpretabilidade desses sistemas permanece limitada, restringindo sua adoção na prática de treinamento. Este artigo apresenta resultados preliminares do projeto SWIM-360, que investiga como a inteligência artificial explicável (XAI) pode fornecer insights transparentes e acionáveis para o desempenho na natação. Apresentamos resultados preliminares dos sensores EO SwimBETTER e TrainRed, juntamente com resultados de prova de conceito da estimativa de pose baseada em vídeo. Paralelamente, introduzimos visualizações e conceitos de interação simulados, projetados para obter feedback de treinadores sobre os requisitos de explicabilidade. Um questionário qualitativo com oito treinadores de natação profissionais foi conduzido para obter os requisitos de feedback explicável. Suas respostas orientaram o projeto de uma estrutura de explicabilidade multimodal centrada no treinador. Em vez de fornecer um modelo totalmente integrado, o artigo propõe uma estrutura metodológica que combina sensoriamento multimodal com princípios de design orientados à explicabilidade. Nossos resultados destacam tanto a viabilidade quanto os desafios de traduzir dados de sensores em conhecimento interpretável para atletas e treinadores. Ao incorporar a explicabilidade desde o estágio inicial do projeto, este estudo propõe uma estrutura de projeto orientada pela explicabilidade, que conecta a detecção multimodal aos requisitos do usuário. Esses resultados iniciais demonstram como os princípios da Inteligência Artificial Explicativa (XAI) podem orientar a criação de ferramentas de apoio à decisão confiáveis e centradas no treinador em esportes aquáticos.
Referências
(1) Gulshad S, Long T, van Noord N. Hierarchical Explanations for Video Action Recognition. In Proceedings of the 2023 IEEE/CVF Conference on Computer Vision and Pattern Recognition Workshops (CVPRW), Vancouver, BC, Canada, 17–24 June 2023; pp. 3703–3708.
(2) Tjoa E, Guan C. A Survey on Explainable Artificial Intelligence (XAI): Toward Medical XAI. IEEE Transactions on Neural Networks and Learning Systems. 2020;32(11):1–21.
(3) Rodis N, Sardianos C, Radoglou-Grammatikis P, Sarigiannidis P, Varlamis I, Papadopoulos GTh. Multimodal Explainable Artificial Intelligence: A Comprehensive Review of Methodological Advances and Future Research Directions. IEEE Access. 2024;1–1.
(4) Arya V, Bellamy RKE, Chen PY, Dhurandhar A, Hind M, Hoffman SC, et al. AI Explainability 360: An Extensible Toolkit for Understanding Data and Machine Learning Models. J. Mach. Learn. Res. 2020; 21, 130:5114–130:5119.
(5) Saha A, Gupta S, Ankireddy S.K, Chahine K, Ghosh J. Exploring Explainability in Video Action Recognition. In Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, Seattle, WA, USA, 17–18 June 2024.
(6) Zhi Y, Tong Z, Wang L, Wu G. MGSampler: An Explainable Sampling Strategy for Video Action Recognition. In Proceedings of the 2021 IEEE/CVF International Conference on Computer Vision (ICCV), Montreal, QC, Canada, 11–17 October 2021; pp. 1493–1502.
(7) Mahmud S, Tanjid Hasan Tonmoy M, Kumar BK, Mahbubur AKM, Ashraful AM, et all. Human Activity Recognition from Wearable Sensor Data Using Self-Attention. In Frontiers in Artificial Intelligence and Applications; IOS Press: Amsterdam, The Netherlands, 2020.
(8) Ma H, Li W, Zhang X, Gao S, Lu S. AttnSense: Multi-Level Attention Mechanism For Multimodal Human Activity Recognition. In Proceedings of the Twenty-Eighth International Joint Conference on Artificial Intelligence, Macao, China, 10–16 August 2019; International Joint Conferences on Artificial Intelligence Organization: Macao, China, 2019; pp. 3109–3115.
(9) Lattanzi E, Calisti L, Paolo Capellacci. Lightweight accurate trigger to reduce power consumption in sensor-based continuous human activity recognition. Pervasive and mobile computing. 2023 Dec 1;96:101848–8.
(10) Vijay A. Trusted-AI/AIX360. 2025. Available online: https://github.com/Trusted-AI/AIX360 (accessed on 28 August 2025).
(11) Kelum Sandamal, Arachchi S, Erkudov VO, Rozumbetov KU, Upaka Rathnayake. Explainable artificial intelligence for fitness prediction of young athletes living in unfavorable environmental conditions. Results in Engineering [Internet]. 2024 Jul 24;23:102592–2. Available from: https://www.sciencedirect.com/science/article/pii/S2590123024008478
(12) Dalius Navakauskas, Martynas Dumpis. Wearable Sensor-Based Human Activity Recognition: Performance and Interpretability of Dynamic Neural Networks. Sensors. 2025 Jul 16;25(14):4420–0.
(13) LinLin H, Sangheang L, GuanTing S. CAM-Vtrans: real-time sports training utilizing multi-modal robot data. Frontiers in Neurorobotics. 2024 Oct 11;18.
(14) Almasi S, Bahaadinbeigy K, Ahmadi H, Sohrabei S, Rabiei R. Usability Evaluation of Dashboards: A Systematic Literature Review of Tools. Jakovljevic M, editor. BioMed Research International. 2023 Feb 22;2023(1):1–11.
___________________________________________
Nota do Editor: Imagem meramente ilustrativa. FONTE: Freepik, com kjpargeter
Artigo adaptado e traduzido para o português pelos editores de NADAR! SWIMMING MAGAZINE para republicação, conforme normas de submissão do periódico. Versão original em: https://www.mdpi.com/1424-8220/25/22/7047 LICENÇA ORIGINAL E DA ADAPTAÇÃO: Attribution 4.0 International CC BY 4.0. https://creativecommons.org/licenses/by/4.0/.
Publicado
Como Citar
Edição
Seção
ARK
Licença
Copyright (c) 2026 Vanessa Camilleri, Reno Yuri Camilleri, Mark Fialovszky, Daniel Pace, Dylan Seychell, Matthew Montebello

Este trabalho está licenciado sob uma licença Creative Commons Attribution 4.0 International License.

