@MASTERSTHESIS{ 2025:297532695, title = {Confiabilidade entre avaliadores na estratificação de risco cardíaco com um protocolo baseado em parâmetros clínicos e físicos.}, year = {2025}, url = "http://bdtd.unoeste.br:8080/jspui/handle/jspui/1746", abstract = "Introdução: Os protocolos de estratificação de risco cardíaco (ERC) existentes não são eficazes para predizer a ocorrência de eventos adversos (EA) de menor e maior complexidade em programas de reabilitação cardíaca (PRC). Um novo protocolo baseado em variáveis clínicas/físicas foi elaborado para predizer a ocorrência de EA menores nesses programas e uma importante etapa para verificar a existência de erros inerentes a ferramenta e a confiabilidade da classificação obtida pelo instrumento é a avaliação da concordância entre avaliadores. Objetivo: Avaliar a concordância entre avaliadores de um protocolo de ERC baseado em variáveis clínicas/físicas. Métodos: 62 participantes que frequentavam PRC foram avaliados por dois fisioterapeutas aleatoriamente e individualmente. Um terceiro fisioterapeuta selecionou a avaliação com melhor resultado de cada participante, gerando uma planilha com dados únicos. Posteriormente os dois fisioterapeutas realizaram a ERC duas vezes, por meio do protocolo Exercise-induced sings and symtons (Score Exiss): Utilizando os dados únicos selecionados e os dados de sua própria avaliação. Foi analisada a concordância entre avaliadores para a classificação da ERC com percentual de concordância e índice de Kappa. Para reprodutibilidade do Score Exiss foi utilizado o coeficiente de correlação intraclasses (CCI). Resultados: A concordância entre avaliadores foi de 100% (Dados únicos selecionados) com índice Kappa perfeito (K: 1,00; p<0,001). Entretanto quando cada avaliador utilizou a própria avaliação a concordância foi de 82,3% com Kappa de 0,37 (p=0,004). O Score Exiss apresentou confiabilidade moderada (CCI: 0,688 [IC95% 0,523 – 0,801] – P<0,001*) e sem diferenças significantes entre os avaliadores (41,63 ± 25,32 vs 35,57 ± 26,40; p = 0,09). Conclusão: Existe concordância de 100% na ERC com o Score Exiss utilizando as mesmas avaliações, classificado como concordância perfeita no índice Kappa. Já a ERC realizada através de avaliações distintas a concordância foi de 82,3%, com o índice de Kappa sugerindo concordância mínima. Não houve diferença significativa no score Exiss entre avaliadores.", publisher = {Universidade do Oeste Paulista}, scholl = {Mestrado em Ciências da Saúde}, note = {Mestrado em Ciências da Saúde} }