Busca avançada
Ano de início
Entree

Cognição aumentada por meio de computação vestível

Processo: 17/06933-0
Modalidade de apoio:Bolsas no Exterior - Estágio de Pesquisa - Doutorado Direto
Data de Início da vigência: 01 de setembro de 2017
Data de Término da vigência: 31 de agosto de 2018
Área de conhecimento:Ciências Exatas e da Terra - Ciência da Computação - Sistemas de Computação
Pesquisador responsável:Carlos Hitoshi Morimoto
Beneficiário:Carlos Eduardo Leão Elmadjian
Supervisor: Matthew A. Turk
Instituição Sede: Instituto de Matemática e Estatística (IME). Universidade de São Paulo (USP). São Paulo , SP, Brasil
Instituição Anfitriã: University of California, Santa Barbara (UC Santa Barbara), Estados Unidos  
Vinculado à bolsa:15/26802-1 - Cognição aumentada por meio de plataformas vestíveis, BP.DD
Assunto(s):Computação vestível   Interface usuário-computador   Interação homem-máquina   Realidade aumentada   Eficiência
Palavra(s)-Chave do Pesquisador:cognição aumentada | Computação Vestível | interação em ambientes tridimensionais | rastreamento de olhar | Realidade Aumentada | Realidade Mista | Interação Humano-Computador

Resumo

Neste projeto iremos investigar como aplicações de computação vestível podem melhorar o desempenho humano em tarefas rotineiras, fornecendo informações sensíveis ao contexto que possam melhorar a percepção humana, o entendimento do ambiente e tarefas primárias, bem como ajudando os usuários na resolução de problemas e tomada de decisões. Nós chamamos essas aplicações de apps de Cognição Aumentada (CA). Iremos explorar ainda como objetos de realidade mista (RM) podem melhorar a percepção humana do ambiente.Como as aplicações vestíveis necessitam que informações sejam apresentadas nos momentos oportunos e com mínima intervenção do usuário, paradigmas tradicionais de interação não são uma boa escolha. Mais ainda, a constância dos apps de AC faz com que eles tenham que ser projetados para atenção baixa ou dividida, o que suscita o desafio de descobrir formas de melhorar a tarefa primária do usuário e, ao mesmo tempo, evitar interrupções frequentes.Para desenvolver este projeto, iremos utilizar especificamente óculos inteligentes e interação pelo olhar. Como a visão é nossa fonte primária de informação sobre objetos em nosso ambiente que são relevantes para que possamos concluir uma tarefa, modular dados visuais pode ser uma estratégia crucial para melhorar o desempenho. Além disso, técnicas de realidade mista têm o potencial de serem menos intrusivas, o que é particularmente importante para aplicações vestíveis. Informações do olhar também podem fornecer dados importantes sobre o estado cognitivo do usuário, seu comportamento e interesse em uma cena, refinando as interações em RM. Durante o estágio, iremos focar em problemas de visualização e apresentação de informação, e esperamos desenvolver novas técnicas de interação usando as tecnologias já mencionadas. Nossa expectativa é de que isso possa nos ajudar a enriquecer as aplicações vestíveis e a experiência do usuário como um todo no contexto do que chamamos de cognição aumentada. (AU)

Matéria(s) publicada(s) na Agência FAPESP sobre a bolsa:
Mais itensMenos itens
Matéria(s) publicada(s) em Outras Mídias ( ):
Mais itensMenos itens
VEICULO: TITULO (DATA)
VEICULO: TITULO (DATA)

Publicações científicas
(Referências obtidas automaticamente do Web of Science e do SciELO, por meio da informação sobre o financiamento pela FAPESP e o número do processo correspondente, incluída na publicação pelos autores)
SHUKLA, PUSHKAR; SADANA, HEMANT; BANSAL, APAAR; VERMA, DEEPAK; ELMADJIAN, CARLOS; RAMAN, BALASUBRAMANIAN; TURK, MATTHEW; IEEE. Automatic Cricket Highlight generation using Event-Driven and Excitement-Based features. PROCEEDINGS 2018 IEEE/CVF CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION WORKSHOPS (CVPRW), v. N/A, p. 9-pg., . (17/06933-0)
ELMADJIAN, CARLOS; SHUKLA, PUSHKAR; TULA, ANTONIO DIAZ; MORIMOTO, CARLOS H.; SPENCER, SN. 3D gaze estimation in the scene volume with a head-mounted eye tracker. COMMUNICATION BY GAZE INTERACTION (COGAIN 2018), v. N/A, p. 9-pg., . (17/06933-0, 16/10148-3)