OBJETIVA/DISCURSIVA:
Modelos de programação e processamento paralelo; Métricas e análises de desempenho para sistemas paralelos; Conceitos: processos, threads, comunicação entre processos e sincronização entre processos; 2. Conceitos de Programação em computadores com memória compartilhada: linguagens, ferramentas de programação e algoritmos; 3. Sistemas Operacionais com ênfase em computação científica; 4. Conceitos de dependências de dados e de controle; Arquitetura de Memória: memória cache, memória principal, armazenamento secundário, memória virtual; 5. Noções de Arquitetura: escalar, vetorial, processamento paralelo, paralelização usando aceleradores; 6. Noções de sistemas paralelos e distribuídos; Arquiteturas paralelas e distribuídas: conceitos e tecnologias; Memória compartilhada e distribuída: conceitos e técnicas; 7. Conceitos de administração de filas de processamento, contas de usuários, gerenciamento de jobs, quotas; 8. Conceitos de ferramentas de monitoramento: filas de processamento, sistemas de armazenamento, jobs, memória, redes de comunicação de alto desempenho; 9. Computação em nuvem; 10. Redes de comunicação de dados de alta performance; 11. Sistemas de armazenamento de dados paralelo e de alta performance.
ORAL:
Projeto de Desenvolvimento Tecnológico: o candidato deve elaborar projeto contendo proposta de arquitetura para integrar múltiplos clusters HPC independentes de uma instituição de ensino e pesquisa em uma infraestrutura institucional unificada. O projeto deve contemplar, no mínimo: gestão de usuários e segurança (ex.: mecanismo de autenticação unificada/SSO); orquestração de jobs (fila única com partições ou política equivalente); acesso compartilhado a armazenamento paralelo; rede de interconexão de alta largura; plano de migração (incluindo soluções para inventário e requisitos de datacenter); política de governança (quotas, suporte, ciclo de atualização). Bibliografia Sugerida: STERLING, Thomas; ANDERSON, Matthew; BRODOWICZ, Maciej. High Performance Computing: Modern Systems and Practices. 2. ed. Amsterdam: Elsevier, 2024. QUINN, Michael J. Parallel Programming in C with MPI and OpenMP. New York: McGraw Hill, 2003. HWU, Wen mei; KIRK, David; EL HAJJ, Izzat. Programming Massively Parallel Processors: A Hands on Approach. 4. ed. Cambridge, MA: Morgan Kaufmann, 2022. HENNESSY, John; PATTERSON, David. Computer Architecture: A Quantitative Approach. 6. ed. Cambridge, MA: Morgan Kaufmann, 2019. FOSTER, Ian; GANNON, Dennis. Cloud Computing for Science and Engineering. Cambridge, MA: MIT Press, 2017. SHANLEY, Tom. InfiniBand Network Architecture. Boston: Addison Wesley, 2003. ROBEY, Robert; ZAMORA, Yuliana. Parallel and High Performance Computing. Shelter Island, NY: Manning, 2021.
1 x de R$86,00 sem juros | Total R$86,00 | |
2 x de R$47,35 | Total R$94,69 | |
3 x de R$32,02 | Total R$96,07 | |
4 x de R$24,26 | Total R$97,04 | |
5 x de R$19,60 | Total R$97,98 | |
6 x de R$16,41 | Total R$98,49 | |
7 x de R$14,10 | Total R$98,68 | |
8 x de R$12,45 | Total R$99,61 | |
9 x de R$11,14 | Total R$100,22 | |
10 x de R$10,06 | Total R$100,59 | |
11 x de R$9,23 | Total R$101,49 | |
12 x de R$8,48 | Total R$101,82 |