Em direção a uma IA multimodal inteligível para análise de natação

Resultados iniciais do projeto SWIM-360

Imagem meramente ilustrativa. FONTE: Freepik, com kjpargeter


Autores

  • Vanessa Camilleri Departamento de IA, Universidade de Malta, Malta
  • Reno Yuri Camilleri Departamento de IA, Universidade de Malta, Malta
  • Mark Fialovszky Departamento de IA, Universidade de Malta, Malta
  • Daniel Pace Departamento de IA, Universidade de Malta, Malta
  • Dylan Seychell Departamento de IA, Universidade de Malta, Malta
  • Matthew Montebello Departamento de IA, Universidade de Malta, Malta

Palavras-chave:

Inteligência Artificial, Inteligência Artificial Explicável, Sensoriamento Multimodal, Análise De Natação, Sensores Vestíveis, Tecnologia De Sensores, Interação Humano-Computador

Resumo

A análise do desempenho na natação depende cada vez mais de sistemas de sensoriamento multimodal que capturam sinais fisiológicos e biomecânicos em ambientes aquáticos reais. Embora tenha havido progresso na fidelidade dos sensores e na análise automatizada, a interpretabilidade desses sistemas permanece limitada, restringindo sua adoção na prática de treinamento. Este artigo apresenta resultados preliminares do projeto SWIM-360, que investiga como a inteligência artificial explicável (XAI) pode fornecer insights transparentes e acionáveis ​​para o desempenho na natação. Apresentamos resultados preliminares dos sensores EO SwimBETTER e TrainRed, juntamente com resultados de prova de conceito da estimativa de pose baseada em vídeo. Paralelamente, introduzimos visualizações e conceitos de interação simulados, projetados para obter feedback de treinadores sobre os requisitos de explicabilidade. Um questionário qualitativo com oito treinadores de natação profissionais foi conduzido para obter os requisitos de feedback explicável. Suas respostas orientaram o projeto de uma estrutura de explicabilidade multimodal centrada no treinador. Em vez de fornecer um modelo totalmente integrado, o artigo propõe uma estrutura metodológica que combina sensoriamento multimodal com princípios de design orientados à explicabilidade. Nossos resultados destacam tanto a viabilidade quanto os desafios de traduzir dados de sensores em conhecimento interpretável para atletas e treinadores. Ao incorporar a explicabilidade desde o estágio inicial do projeto, este estudo propõe uma estrutura de projeto orientada pela explicabilidade, que conecta a detecção multimodal aos requisitos do usuário. Esses resultados iniciais demonstram como os princípios da Inteligência Artificial Explicativa (XAI) podem orientar a criação de ferramentas de apoio à decisão confiáveis ​​e centradas no treinador em esportes aquáticos.

Referências

(1) Gulshad S, Long T, van Noord N. Hierarchical Explanations for Video Action Recognition. In Proceedings of the 2023 IEEE/CVF Conference on Computer Vision and Pattern Recognition Workshops (CVPRW), Vancouver, BC, Canada, 17–24 June 2023; pp. 3703–3708.

(2) Tjoa E, Guan C. A Survey on Explainable Artificial Intelligence (XAI): Toward Medical XAI. IEEE Transactions on Neural Networks and Learning Systems. 2020;32(11):1–21.

(3) Rodis N, Sardianos C, Radoglou-Grammatikis P, Sarigiannidis P, Varlamis I, Papadopoulos GTh. Multimodal Explainable Artificial Intelligence: A Comprehensive Review of Methodological Advances and Future Research Directions. IEEE Access. 2024;1–1.

(4) Arya V, Bellamy RKE, Chen PY, Dhurandhar A, Hind M, Hoffman SC, et al. AI Explainability 360: An Extensible Toolkit for Understanding Data and Machine Learning Models. J. Mach. Learn. Res. 2020; 21, 130:5114–130:5119.

(5) Saha A, Gupta S, Ankireddy S.K, Chahine K, Ghosh J. Exploring Explainability in Video Action Recognition. In Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, Seattle, WA, USA, 17–18 June 2024.

(6) Zhi Y, Tong Z, Wang L, Wu G. MGSampler: An Explainable Sampling Strategy for Video Action Recognition. In Proceedings of the 2021 IEEE/CVF International Conference on Computer Vision (ICCV), Montreal, QC, Canada, 11–17 October 2021; pp. 1493–1502.

(7) Mahmud S, Tanjid Hasan Tonmoy M, Kumar BK, Mahbubur AKM, Ashraful AM, et all. Human Activity Recognition from Wearable Sensor Data Using Self-Attention. In Frontiers in Artificial Intelligence and Applications; IOS Press: Amsterdam, The Netherlands, 2020.

(8) Ma H, Li W, Zhang X, Gao S, Lu S. AttnSense: Multi-Level Attention Mechanism For Multimodal Human Activity Recognition. In Proceedings of the Twenty-Eighth International Joint Conference on Artificial Intelligence, Macao, China, 10–16 August 2019; International Joint Conferences on Artificial Intelligence Organization: Macao, China, 2019; pp. 3109–3115.

(9) Lattanzi E, Calisti L, Paolo Capellacci. Lightweight accurate trigger to reduce power consumption in sensor-based continuous human activity recognition. Pervasive and mobile computing. 2023 Dec 1;96:101848–8.

(10) Vijay A. Trusted-AI/AIX360. 2025. Available online: https://github.com/Trusted-AI/AIX360 (accessed on 28 August 2025).

(11) Kelum Sandamal, Arachchi S, Erkudov VO, Rozumbetov KU, Upaka Rathnayake. Explainable artificial intelligence for fitness prediction of young athletes living in unfavorable environmental conditions. Results in Engineering [Internet]. 2024 Jul 24;23:102592–2. Available from: https://www.sciencedirect.com/science/article/pii/S2590123024008478

(12) Dalius Navakauskas, Martynas Dumpis. Wearable Sensor-Based Human Activity Recognition: Performance and Interpretability of Dynamic Neural Networks. Sensors. 2025 Jul 16;25(14):4420–0.

(13) LinLin H, Sangheang L, GuanTing S. CAM-Vtrans: real-time sports training utilizing multi-modal robot data. Frontiers in Neurorobotics. 2024 Oct 11;18.

(14) Almasi S, Bahaadinbeigy K, Ahmadi H, Sohrabei S, Rabiei R. Usability Evaluation of Dashboards: A Systematic Literature Review of Tools. Jakovljevic M, editor. BioMed Research International. 2023 Feb 22;2023(1):1–11.

___________________________________________

Nota do Editor: Imagem meramente ilustrativa. FONTE: Freepik, com kjpargeter

Artigo adaptado e traduzido para o português pelos editores de NADAR! SWIMMING MAGAZINE para republicação, conforme normas de submissão do periódico. Versão original em: https://www.mdpi.com/1424-8220/25/22/7047 LICENÇA ORIGINAL E DA ADAPTAÇÃO: Attribution 4.0 International CC BY 4.0. https://creativecommons.org/licenses/by/4.0/.

Publicado

2026-03-10

Como Citar

1.
Camilleri V, Camilleri RY, Fialovszky M, Pace D, Seychell D, Montebello M. Em direção a uma IA multimodal inteligível para análise de natação: Resultados iniciais do projeto SWIM-360. Nadar! Swim Mag [Internet]. 10º de março de 2026 [citado 10º de março de 2026];6(169):e169-116. Disponível em: https://revistanadar.com.br/index.php/Swimming-Magazine/article/view/116

ARK

NADAR! ADS