Busca avançada
Ano de início
Entree

SMAT B100: Pesquisa 1B - Padronização e formatação de informações agronômicas para geração de metadados e seleção para manipulação e análise - ANO 01 - TIPO 02

Processo: 25/27743-0
Modalidade de apoio:Bolsas no Brasil - Iniciação Científica
Data de Início da vigência: 01 de fevereiro de 2026
Data de Término da vigência: 31 de dezembro de 2026
Área de conhecimento:Engenharias - Engenharia Elétrica - Eletrônica Industrial, Sistemas e Controles Eletrônicos
Pesquisador responsável:Braz Izaias da Silva Junior
Beneficiário:Nicolas Alves Witzel da Silva
Instituição Sede: FAC TECNOLOGIA COTIA/CEETPS
Assunto(s):Agricultura digital   Fertilizantes   Inteligência artificial   Manejo   Nutrição vegetal
Palavra(s)-Chave do Pesquisador:Agricultura digital | Bioinsumos | Fertilizantes | Inteligência artificial | Manejo | Nutrição de Plantas | Adubos e Adubações

Resumo

O desenvolvimento de algoritmos de IA generativos progrediu nos últimos anos. Redes neurais recorrentes (RNNs), que eram utilizadas no passado, enfrentavam limitações na geração efetiva de linguagem devido a restrições computacionais. A introdução da arquitetura Transformer, em 2017, possibilitou processamento paralelo e escalonamento mais eficientes, revolucionando as capacidades generativas (Vaswani et al., 2017; Karita et al., 2019). A inovação chave foi o estabelecimento de mecanismos de atenção para que o modelo focasse no significado semântico ao invés de apenas prever a próxima palavra. Para cada ramo específico do conhecimento e aplicações, os resultados entre a utilização das RNN e o Transformer podem variar. Estudo preliminar será observar o comportamento dos modelos utilizando as duas técnicas, no contexto da base de dados relativa aos temas do agronegócio, manejo de lavouras e nutrição de plantas. Acredita-se que os resultados do Transformer serão superiores, mas uma comprovação prática será importante neste estágio de trabalho do projeto. Esta será a hipótese norteadora para o planejamento das próximas etapas da proposta. Comprovada a hipótese, o modelo LLM a ser adotado para o SB100 será baseado na arquitetura Transformer, que utiliza mecanismos de atenção auto-regressivas, permitindo a captura de relações entre palavras e frases em um texto, bem como contexto e significado do mesmo. O Transformer é composto por duas partes principais: o codificador e o decodificador. O codificador recebe como entrada um texto em forma de sequência de tokens (tokenização - unidades mínimas de significado) e o transforma em uma representação vetorial de alta dimensão, chamada de embedding. O decodificador recebe como entrada o embedding gerado pelo codificador e o utiliza para gerar um novo texto, palavra por palavra,

Matéria(s) publicada(s) na Agência FAPESP sobre a bolsa:
Mais itensMenos itens
Matéria(s) publicada(s) em Outras Mídias ( ):
Mais itensMenos itens
VEICULO: TITULO (DATA)
VEICULO: TITULO (DATA)