Busca avançada
Ano de início
Entree


Identificação de ações humanas em vídeos utilizando descritor de fragmentos autônomos e predição multinível

Autor(es):
Marlon Fernandes de Alcantara
Número total de Autores: 1
Tipo de documento: Tese de Doutorado
Instituição: Universidade Estadual de Campinas. Instituto de Computação
Data de defesa:
Membros da banca:
Alexandre Gonçalves da Silva; José Mario De Martino; Moacir Antonelli Ponti; Neucimar Jerônimo Leite
Orientador: Hélio Pedrini
Resumo

Avanços tecnológicos recentes têm provido dispositivos com alto poder de processamento e capacidade de armazenamento. Câmeras de vídeo podem ser encontradas em diversos locais, tais como bancos, escolas, supermercados, avenidas, interior de casas ou indústrias. Apesar deste potencial tecnológico, grande parte dos vídeos obtidos são apenas armazenados e nunca analisados. A flexibilidade do uso de câmeras e ferramentas computacionais permite sua aplicação em vigilância, planejamento estratégico, prevenção de crimes, verificação de linhas de manufatura, monitoramento de tráfego, entre outras áreas. O hardware das câmeras tem sido continuamente aprimorado, alcançando altas taxas de resolução e quadros por segundo. Contudo, a maior parte da análise de vídeos ainda é realizada por operadores humanos, cujo desempenho pode ser influenciado por fatores como a fadiga e o estresse. Na busca por alterar esse cenário atual, este trabalho propõe e avalia uma metodologia para identificação automática de ações humanas em vídeos por meio dos descritores CMSIP (Cumulative Motion Shape's Interest Points) aplicados em um esquema de predição em múltiplos níveis com retreinamento. A abordagem é construída por meio da divisão do descritor em partes que podem ser tratadas e interpretadas independentemente seguindo caminhos distintos no modelo de classificação, para que, em uma etapa posterior, fique a cargo de um mecanismo central decidir e reportar a ação que está sendo observada no vídeo. O método desenvolvido se mostrou rápido e com acurácia compatível ao estado da arte em bases públicas disponíveis na literatura, atingindo 90% nas bases Weizmann, KTH, MuHAVi e URADL, bem como 82,6% na base IXMAS. Além disso, o protótipo desenvolvido demonstrou-se uma ferramenta promissora para aplicações em tempo real. (AU)

Processo FAPESP: 12/20738-1 - Identificação de Atividades em Câmeras de Vigilância Flexível ao Contexto
Beneficiário:Marlon Fernandes de Alcantara
Linha de fomento: Bolsas no Brasil - Doutorado