Busca avançada
Ano de início
Entree

Fusão sensorial para Localização e Mapeamento simultâneos em dispositivos vestíveis

Processo: 25/00620-6
Modalidade de apoio:Bolsas no Brasil - Pós-Doutorado
Data de Início da vigência: 01 de abril de 2025
Data de Término da vigência: 31 de março de 2027
Área de conhecimento:Ciências Exatas e da Terra - Ciência da Computação
Acordo de Cooperação: BG E&P Brasil (Grupo Shell)
Pesquisador responsável:Eduardo Aoun Tannuri
Beneficiário:Nelson de Moura Martins Gomes
Instituição Sede: Escola Politécnica (EP). Universidade de São Paulo (USP). São Paulo , SP, Brasil
Empresa:Universidade de São Paulo (USP). Escola Politécnica (EP)
Vinculado ao auxílio:22/03698-8 - OTIC Centro de Inovação em Tecnologia Offshore, AP.PCPE
Assunto(s):Visão computacional   Aprendizagem profunda   Robótica
Palavra(s)-Chave do Pesquisador:Computer Vision | Deep Learning | Embedded Systems | Slam | Robotica

Resumo

Suporte de Realidade Aumentada para intervenções manuais em infraestrutura de FPSO envolve a sobreposição precisa de imagens auxiliares no campo de visão do operador, devidamente alinhadas ao equipamento existente e compensando os movimentos da cabeça. O objetivo é desenvolver um capacete vestível com sensores capazes de rastrear sua posição em 6 graus de liberdade (6DOF) com latência, taxa de transferência e precisão adequadas para suporte de Realidade Aumentada.Este projeto parte do pressuposto de que o ambiente não sofrerá modificações específicas para suportar esta operação, e que as comunicações entre o capacete e sistemas externos são pouco confiáveis.Assim, o projeto visa rastrear a posição do capacete utilizando sensores embutidos, como câmeras de vídeo e sensores inerciais.¿¿¿¿¿

Matéria(s) publicada(s) na Agência FAPESP sobre a bolsa:
Mais itensMenos itens
Matéria(s) publicada(s) em Outras Mídias ( ):
Mais itensMenos itens
VEICULO: TITULO (DATA)
VEICULO: TITULO (DATA)