Busca avançada
Ano de início
Entree

Classificação de Estágios do Sono com o Uso de Representações Latentes de EEG e Mecanismos de Atenção

Processo: 23/00255-0
Modalidade de apoio:Bolsas no Brasil - Iniciação Científica
Data de Início da vigência: 01 de abril de 2023
Data de Término da vigência: 31 de março de 2024
Área de conhecimento:Ciências Exatas e da Terra - Ciência da Computação - Metodologia e Técnicas da Computação
Pesquisador responsável:Raphael Yokoingawa de Camargo
Beneficiário:Alexandre Janoni Bayerlein
Instituição Sede: Centro de Matemática, Computação e Cognição (CMCC). Universidade Federal do ABC (UFABC). Ministério da Educação (Brasil). Santo André , SP, Brasil
Assunto(s):Aprendizagem profunda   Eletroencefalografia   Aprendizado computacional
Palavra(s)-Chave do Pesquisador:Aprendizado profundo | Eletroencefalografia | Redes Neurais Profundas | Transferencia de Aprendizado | Aprendizado de Máquina

Resumo

O processo de classificação de estágios do sono é demorado e intensivo e requer especialistas para analisar horas de sinais de EEG. O uso de rede neurais profundas vem gerando resultados promissores, especialmente com arquiteturas convolucionais. Estas redes recebem como entrada janelas de 30s e classificam o estágio do sono naquele momento. Porém, informações contextuais, como os estágios do sono nos momentos anteriores e posteriores, são importantes para a classificação. Arquiteturas como o Transformer possuem mecanismos de atenção que permitem que a rede receba informações de longas sequências de EEG e use aquelas que considerar relevantes.Um segundo problema na decodificação de sinais de EEG é que este possui alta dimensionalidade e é bastante ruidoso, de modo que é preciso ter grandes quantidades de dados para treinar a rede neural. Técnicas de aprendizado auto-supervisionado podem ser aplicadas para que a rede neural aprenda a extrair características relevantes do sinal e gere uma representação latente que possa ser posteriormente utilizada por um classificador. Isso foi realizada em uma arquitetura denominada BENDR, que utilizaremos para transformar o sinal de EEG em representações latentes de baixa dimensionalidade.Neste trabalho, treinaremos um modelo de Transformer para a classificação de estágios do sono. O modelo receberá como entrada representações latentes do sinal de EEG geradas pelo BENDR. Nossa hipótese é que com representações latentes de baixa dimensionalidade será possível treinar o Transformer para usar informação contextual de períodos de múltiplos minutos de sono para gerar classificações mais precisas.

Matéria(s) publicada(s) na Agência FAPESP sobre a bolsa:
Mais itensMenos itens
Matéria(s) publicada(s) em Outras Mídias ( ):
Mais itensMenos itens
VEICULO: TITULO (DATA)
VEICULO: TITULO (DATA)