Use este identificador para citar ou linkar para este item: http://repositorio.upf.br/handle/riupf/2795
Tipo: Trabalho de Conclusão de Curso
Título: Uma abordagem de visão computacional para correção de postura em tempo real da técnica de agachamento
Autor(es): Michelin, Daniel
Primeiro Orientador: Rieder, Rafael
Resumo: A execução, correta de exercícios físicos é essencial para evitar lesões e buscar resultados eficazes, especialmente para movimentos de agachamento. Porém, nem sempre uma pessoa pode ter o acompanhamento de um profissional nessa atividade. Com isso em mente, o objetivo deste trabalho ´e apresentar uma abordagem de visão computacional para correção de postura em tempo real da técnica de agachamento. O web app Me Exercite foi desenvolvido em Python utilizando recursos do MediaPipe Pose Landmark Detection para detectar poses humanas. O aplicativo integra diferentes tecnologias de back-end (OpenCV, FastAPI, WebSockets e Nginx) e front-end (Flutter, BLoC e JavaScript), que facilitam sua utilização pelo usuário final. O trabalho também realizou um estudo piloto para avaliar o Me Exercite por voluntários, usando o modelo de aceitação de tecnologia, escala Likert 1-5. Dez alunos de academias(a) e dois profissionais de educação física(p) participaram do experimento. Os resultados indicaram aceitação positiva para os dois grupos, com potencial para suportar novos exercícios no futuro. As avaliações destacaram a facilidade de uso da solução (x(a) = 4, 90, x(p) = 5, 00), bem como na utilidade para realização de treinos (x(a) = 4, 80, x(p) = 5, 00). Os diferenciais da abordagem proposta são a disponibilidade como aplicativo independente de plataforma, e a confiabilidade como ferramenta de apoio de atividades físicas à técnica de agachamento.
Resumo Alternativo: Performing physical exercises correctly is essential to avoid injuries and seek effective results, especially for squat movements. However, a person cannot always be accompanied by a professional in this activity. With this in mind, the objective of this work is to present a computer vision approach for real-time posture correction of the squat technique. The Me Exercite web app was developed in Python using MediaPipe Pose Landmark Detection resources to detect human poses. The application integrates different back-end technologies (OpenCV, FastAPI, WebSockets and Nginx) and front-end (Flutter, BLoC and JavaScript), which facilitate its use by the end user. The work also carried out a pilot study to evaluate Me Exercite by volunteers, using the technology acceptance model, Likert scale 1-5. Ten gym students and two physical education professionals participated in the experiment. The results indicated positive acceptance for both groups, with the potential to support new exercises in the future. The evaluations highlighted the ease of use of the solution (x(a) = 4.90, x(p) = 5.00), as well as its usefulness for carrying out training (x(a) = 4.80, x(p ) = 5.00). The differentials of the proposed approach are its availability as a platform-independent application, and its reliability as a tool to support physical activities and the squat technique.
Palavras-chave: Visão computacional
Técnica de agachamento
Idioma: por
País: Brasil
Editor: Universidade de Passo Fundo
Sigla da Instituição: UPF
Faculdade, Instituto ou Departamento: Instituto de Ciências Exatas e Geociências - ICEG
Citação: MICHELIN, Daniel. Uma abordagem de visão computacional para correção de postura em tempo real da técnica de agachamento. 2024. 17 f. Artigo de Conclusão de Curso (Bacharel em Computação). Curso de Computação. Universidade de Passo Fundo, Passo Fundo, 2024.
Tipo de Acesso: Acesso Aberto
URI: http://repositorio.upf.br/handle/riupf/2795
Data do documento: 2-Jul-2024
Aparece nas coleções:ICEG - Curso de Ciência da Computação - Trabalhos de Conclusão de Curso de Graduação

Arquivos associados a este item:
Arquivo Descrição TamanhoFormato 
PF2024DanielMichelin.pdfArtigo de conclusão de curso Daniel Michelin3,72 MBAdobe PDFVisualizar/Abrir


Os itens no repositório estão protegidos por copyright, com todos os direitos reservados, salvo quando é indicado o contrário.