Busca avançada
Ano de início
Entree

Garantindo Factualidade, Consistência e Justificabilidade em LLMs

Processo: 25/20109-4
Modalidade de apoio:Bolsas no Brasil - Pós-Doutorado
Data de Início da vigência: 01 de setembro de 2026
Data de Término da vigência: 28 de fevereiro de 2029
Área de conhecimento:Ciências Exatas e da Terra - Ciência da Computação - Sistemas de Computação
Pesquisador responsável:Denis Deratani Mauá
Beneficiário:Victor Hugo Nascimento Rocha
Instituição Sede: Instituto de Estudos Avançados (IEA). Universidade de São Paulo (USP). São Paulo , SP, Brasil
Vinculado ao auxílio:22/02937-9 - Indução de programas lógico-probabilístico-neurais, AP.PNGP.PI
Assunto(s):Inteligência artificial
Palavra(s)-Chave do Pesquisador:Argumentação Computacional | Conhecimento Estruturado | Grandes Modelos de Língua | Neuro-simbólico | Inteligência Artificial

Resumo

Os avanços recentes dos Grandes Modelos de Língua (Large Language Models, LLM) transformaram agentes conversacionais em ferramentas capazes de manter diálogos longos, responder a perguntas complexas e realizar algumas tarefas que envolvem raciocínio. Apesar disso, tais sistemas apresentam limitações centrais: não oferecem garantias sobre a veracidade das informações, possuem alto custo de atualização de sua base de conhecimento e carecem de mecanismos claros para justificar suas respostas. Abordagens já exploradas, como a geração estruturada de saídas e as técnicas de Retrieval Augmented Generation(RAG), fornecem apenas soluções parciais, pois não asseguram a precisão factual nem evitam a propagação de erros. Fluxos de trabalho e arcabouços de produção de agentes orquestradores baseados em LLMs sofrem de limitações similares.Este projeto visa avançar a fronteira do conhecimento em agentes conversacionais que fornecem garantias sobre a precisão das informações prestadas, são flexíveis à atualização de sua base de dados e são capazes de gerar explicações convincentes ao usuário baseadas em fontes confiáveis. Para isso, serão investigados arcabouços teóricos que permitem a integração de LLMs com representação explícita de conhecimento e aplicação de inferência formal, em particular abordagens neurossimbólicos baseadas em regras lógicas e em modelos de argumentação computacional. A expectativa é obter agentes capazes de oferecer respostas confiáveis, atualizáveis e acompanhadas de explicações fundamentadas em fontes sólidas, contribuindo assim para aplicações de maior impacto científico e social. (AU)

Matéria(s) publicada(s) na Agência FAPESP sobre a bolsa:
Mais itensMenos itens
Matéria(s) publicada(s) em Outras Mídias ( ):
Mais itensMenos itens
VEICULO: TITULO (DATA)
VEICULO: TITULO (DATA)