Busca avançada
Ano de início
Entree

Técnicas especulativas para reduzir o gargalo do sistema de memória

Processo: 16/18929-4
Modalidade de apoio:Bolsas no Exterior - Estágio de Pesquisa - Pós-Doutorado
Data de Início da vigência: 01 de janeiro de 2017
Data de Término da vigência: 31 de dezembro de 2017
Área de conhecimento:Ciências Exatas e da Terra - Ciência da Computação - Sistemas de Computação
Pesquisador responsável:Rodolfo Jardim de Azevedo
Beneficiário:Lois Orosa Nogueira
Supervisor: Onur Mutlu
Instituição Sede: Instituto de Computação (IC). Universidade Estadual de Campinas (UNICAMP). Campinas , SP, Brasil
Instituição Anfitriã: Swiss Federal Institute of Technology Zurich, Suíça  
Vinculado à bolsa:14/03840-2 - Suporte arquitetural para execução especulativa de programas, BP.PD
Assunto(s):Arquitetura e organização de computadores   Memória (eletrônica digital)
Palavra(s)-Chave do Pesquisador:Memory Bottleneck Problem | Prefetching | Runahead execution | Speculative Techniques | Value Speculation | Arquitetura de Computadores

Resumo

O objetivo deste projeto é enfrentar a crescente disparidade entre o processador e a memória. A tecnologia DRAM não está escalando mais e o incremento no número de núcleos dos processadores está aumentando a pressão nos sistemas de memória principal. Existem várias formas de reduzir e ocultar este problema. Uma delas é reduzir a latência de aceso à memória implementando novas arquiteturas para DRAM, com novos controladores, ou introduzindo novas tecnologias de memória para reduzir o tempo efetivo de acesso. Outra alternativa é tentar ocultar a latência da memória em processadores superescalares, evitando paradas do processador ao executar instruções independentes especulativamente. Alguns exemplos são predição de valores, execução em runahead e reuso de instruções. Outra alternativa é melhorar as técnicas de cache (caches mais efetivas, compressão de caches, etc.) para aumentar a taxa de hits. Finalmente, técnicas de prefetching predizem que linhas serão requeridas no futuro, e estas linhas são solicitadas antes da instrução que as demandará, incrementando também o número de hits na cache. No estado atual deste projeto e com este propósito geral em mente, conjecturamos que as técnicas especulativas têm um grande potencial de ganho e impacto com novas ideias. Especulação de valores, execução runahead e prefetching serão o foco deste projeto. Especulação de valores prediz o resultado de uma instrução e executa as instruções seguintes que dependem dela especulativamente usando este valor previsto. Runahead continua a execução em paradas do processador, com o objetivo de fazer prefetching de instruções e dados. Este projeto pretende estudar a relação entre especulação de valores, execução runahead e prefetching, para desenhar uma técnica mais efetiva e simples a fim de ter o melhor das três técnicas com o menor hardware. (AU)

Matéria(s) publicada(s) na Agência FAPESP sobre a bolsa:
Mais itensMenos itens
Matéria(s) publicada(s) em Outras Mídias ( ):
Mais itensMenos itens
VEICULO: TITULO (DATA)
VEICULO: TITULO (DATA)

Publicações científicas (4)
(Referências obtidas automaticamente do Web of Science e do SciELO, por meio da informação sobre o financiamento pela FAPESP e o número do processo correspondente, incluída na publicação pelos autores)
OROSA, LOIS; AZEVEDO, RODOLFO; MUTLU, ONUR. AVPP: Address-first Value-next Predictor with Value Prefetching for Improving the Efficiency of Load Value Prediction. ACM TRANSACTIONS ON ARCHITECTURE AND CODE OPTIMIZATION, v. 15, n. 4, . (13/08293-7, 14/03840-2, 16/18929-4)
SADROSADATI, MOHAMMAD; EHSANI, SEYED BORNA; FALAHATI, HAJAR; AUSAVARUNGNIRUN, RACHATA; TAVAKKOL, ARASH; ABAEE, MOJTABA; OROSA, LOIS; WANG, YAOHUA; SARBAZI-AZAD, HAMID; MUTLU, ONUR. ITAP: Idle-Time-Aware Power Management for GPU Execution Units. ACM TRANSACTIONS ON ARCHITECTURE AND CODE OPTIMIZATION, v. 16, n. 1, . (16/18929-4)
WANG, YAOHUA; TAVAKKOL, ARASH; OROSA, LOIS; GHOSE, SAUGATA; GHIASI, NIKA MANSOURI; PATEL, MINESH; KIM, JEREMIE S.; HASSAN, HASAN; SADROSADATI, MOHAMMAD; MUTLU, ONUR; et al. Reducing DRAM Latency via Charge-Level-Aware Look-Ahead Partial Restoration. 2018 51ST ANNUAL IEEE/ACM INTERNATIONAL SYMPOSIUM ON MICROARCHITECTURE (MICRO), v. N/A, p. 14-pg., . (16/18929-4)
TAVAKKOL, ARASH; SADROSADATI, MOHAMMAD; GHOSE, SAUGATA; KIM, JEREMIE S.; LUO, YIXIN; WANG, YAOHUA; GHIASI, NIKA MANSOURI; OROSA, LOIS; GOMEZ-LUNA, JUAN; MUTLU, ONUR; et al. FLIN: Enabling Fairness and Enhancing Performance in Modern NVMe Solid State Drives. 2018 ACM/IEEE 45TH ANNUAL INTERNATIONAL SYMPOSIUM ON COMPUTER ARCHITECTURE (ISCA), v. N/A, p. 14-pg., . (16/18929-4)