| Processo: | 21/14591-7 |
| Modalidade de apoio: | Bolsas no Brasil - Doutorado |
| Data de Início da vigência: | 01 de julho de 2022 |
| Data de Término da vigência: | 25 de outubro de 2026 |
| Área de conhecimento: | Ciências Exatas e da Terra - Ciência da Computação |
| Pesquisador responsável: | Tiago Agostinho de Almeida |
| Beneficiário: | Pedro Reis Pires |
| Instituição Sede: | Centro de Ciências em Gestão e Tecnologia (CCGT). Universidade Federal de São Carlos (UFSCAR). Campus de Sorocaba. Sorocaba , SP, Brasil |
| Bolsa(s) vinculada(s): | 24/15919-4 - Exploração e representação de estados conscientes de tempo para sistemas de recomendação incrementais, BE.EP.DR |
| Assunto(s): | Aprendizado computacional Aprendizado por reforço Sistemas de recomendação Redes neurais (computação) |
| Palavra(s)-Chave do Pesquisador: | Aprendizado por Reforço | Filtragem Colaborativa | Redes neurais | Representação Vetorial Distribuída | Sistemas conscientes de tempo | sistemas de recomendação | Aprendizado de Máquina |
Resumo Com a constante popularização da tecnologia, os sistemas de recomendação têm-se tornado cada vez mais importantes dentro dos meios digitais. Seu principal objetivo é recomendar um subconjunto de itens relevantes para um usuário específico, ajudando-o a descobrir novos interesses. Desde o início da área, se fez comum uma abordagem estática e não-incremental, na qual algoritmos são treinados com uma base fixa de dados, capturada no passado. Entretanto, o cenário prático da recomendação opera de forma sequencial: o sistema gera recomendações para o usuário, que imediatamente fornece feedback. Estudos recentes na área buscam por modelos que aproveitam esta característica contínua do problema. Baseados em estratégias recentes de aprendizado por reforço, estes métodos aprendem de forma incremental, gerando assim um agente recomendador que se adapta aos interesses dos usuários de maneira automática ao longo do tempo. Como essa área de pesquisa é bastante recente, ela ainda encontra-se em fase de amadurecimento e possui muitos desafios em aberto. Por exemplo, são praticamente exíguos os modelos capazes de gerar recomendações no formato top-N, i.e., uma lista de itens ordenados. Adicionalmente, embora o aprendizado por reforço tenha, por definição, conhecimento temporal sequencial das interações, pouco se sabe sobre o uso explícito do tempo durante o treinamento, como é feito nos recomendadores conscientes de tempo. Este projeto de pesquisa busca lançar luz sobre essas questões em aberto e propôr novos modelos de recomendação baseados em aprendizado por reforço para tarefas de recomendação top-N. Será utilizado como estratégia principal o equilíbrio entre exploração e diversidade da lista de itens recomendados, além do consumo de atributos temporais para aumentar os conhecimentos dos agentes. (AU) | |
| Matéria(s) publicada(s) na Agência FAPESP sobre a bolsa: | |
| Mais itensMenos itens | |
| TITULO | |
| Matéria(s) publicada(s) em Outras Mídias ( ): | |
| Mais itensMenos itens | |
| VEICULO: TITULO (DATA) | |
| VEICULO: TITULO (DATA) | |