Busca avançada
Ano de início
Entree

Tradução, adaptação e criação da versão computadorizada do Token Test: Revised Reading Token Test para o português brasileiro

Processo: 16/14998-1
Linha de fomento:Bolsas no Exterior - Pesquisa
Vigência (Início): 03 de outubro de 2016
Vigência (Término): 02 de dezembro de 2016
Área do conhecimento:Ciências da Saúde - Fonoaudiologia
Pesquisador responsável:Karin Zazo Ortiz
Beneficiário:Karin Zazo Ortiz
Anfitrião: Malcolm Ray McNeil
Instituição-sede: Escola Paulista de Medicina (EPM). Universidade Federal de São Paulo (UNIFESP). Campus São Paulo. São Paulo , SP, Brasil
Local de pesquisa: University of Pittsburgh (Pitt), Estados Unidos  
Assunto(s):Linguagem   Transtornos da linguagem   Avaliação da linguagem   Testes de linguagem

Resumo

O processamento da compreensão é altamente complexo e depende de várias funções cognitivas como linguagem, atenção e memória. Testes simples e que se destinem a avaliação das funções cognitivas de forma integrada ainda são pouco comuns em nosso meio. O Token Test foi criado por De Renzi e Vignolo (1962) e sua publicação inicial deu origem a uma vasta gama de publicações. Apesar de um vasto número de pesquisas com o Token Test, em todos os estudos anteriores foi utilizada a versão antiga do teste. Uma das grandes críticas ao uso do Token Test desde a sua publicação é a ausência de normatização e de critérios pré e bem definidos para a sua aplicação - em termos dos materiais e das instruções, bem como de registro e de pontuação. Para minimizar estes efeitos, investiu-se numa nova versão, computadorizada, pois desta forma não há variação quanto ao tipo e forma de apresentação dos estímulos. (McNeil, Pratt, Szuminsky, Sung, Fossett, Fassbinder & Lim, 2015). Esta versão, se dispõe a cumprir mais do que apenas os ganhos quanto à forma de apresentação e uniformidade dos estímulos, pois permite que as respostas sejam analisadas quanto ao tempo de reação para cada item do teste de modo conjunto à análise qualitativa dos erros (resposta inapropriada, inversão, tipo de trocas). Desta forma, o perfil de respostas identifica mais apropriadamente a natureza do erro, em termos de compreensão, atenção e memória operacional. Além disso, foi acrescida a compreensão leitora. Desta forma, o objetivo principal deste estágio é conseguir elaborar o programa computadorizado complexo para realizar a adaptação do Token Test- formas oral e escrita para a língua portuguesa falada no Brasil. (AU)

Publicações científicas
(Referências obtidas automaticamente do Web of Science e do SciELO, por meio da informação sobre o financiamento pela FAPESP e o número do processo correspondente, incluída na publicação pelos autores)
KARIN ZAZO ORTIZ; JOANA MANTOVANI-NAGAOKA. Limb apraxia in aphasic patients. Arquivos de Neuro-Psiquiatria, v. 75, n. 11, p. -, Nov. 2017.
ORTIZ, KARIN ZAZO; MANTOVANI-NAGAOKA, JOANA. Limb apraxia in aphasic patients. Arquivos de Neuro-Psiquiatria, v. 75, n. 11, p. 767-772, NOV 2017. Citações Web of Science: 2.

Por favor, reporte erros na lista de publicações científicas escrevendo para: cdi@fapesp.br.