XVI Escola Supercomputador Santos Dumont


22 de janeiro a 02 de fevereiro de 2024



'
AVISO: A comunicação entre a organização e os participantes inscritos (mudanças de horário, envio de certificados) será feita via e-mail. Por favor, ficar atentos pois as mensagens podem cair na caixa de spam.

Inscrições: As inscrições nas atividades do Encontro Acadêmico de Modelagem Computacional estarão abertas de 13/11/2023 a 08/01/2024. O valor de R$ 25,00 oferece acesso a todas as atividades do evento. Os membros do LNCC (com e-mail @lncc.br) e bolsistas do Programa PIBIC-PIBIT do LNCC têm inscrições gratuitas.

Importante:
Certificados: Os dados fornecidos no cadastro da inscrição serão os mesmos utilizados na emissão dos certificados de participação, os quais serão disponibilizados até 31/03/2024. O Programa de Verão só emite certificados de participação em minicursos e em eventos unicamente para os inscritos nos eventos que acessem as atividades via a Plataforma Ciente Studio. Aqueles que participarem via o Youtube não receberão certificados.
Formato da apresentação das atividades: Os minicursos e palestras serão ministrados na forma síncrona/online, pela plataforma Zoom, em data e horários específicos para cada minicurso.
Programação: Informações detalhadas da programação encontram-se abaixo. Toda a programação da Escola Supercomputador Santos Dumont será gravada e disponibilizada no canal YouTube do LNCC.



SOBRE O EVENTO


O Supercomputador Santos Dumont (SDumont) atende hoje cerca de 170 projetos de pesquisa pertencentes a 18 áreas de conhecimento, liderados por instituições de pesquisa de 12 estados brasileiros. A escola tem como objetivo prover à comunidade de usuários do SDumont e à comunidade de programação em computação de alto desempenho em geral, minicursos relacionados com programação em computadores de alto desempenho tais como modelos de programação paralela, ferramentas de perfilagem e bibliotecas para o desenvolvimento de algoritmos paralelos otimizados.

Um pouco de história: Em 2010, o LNCC realizou a sua primeira "Escola de HPC" (do inglês High-performance computing ) com o nome de "Semana Massivamente Paralela". Em 2017, o nome do evento foi alterado para "Semana Supercomputador SDumont". Até o momento, foram realizadas pelo LNCC 15 edições de escolas de treinamento em Computação de Alto Desempenho, sendo sete edições sob o nome de "Supercomputador SDumont". Além disso, foram realizadas também três Escolas durante o inverno, no mês de agosto.

Organização

  • Carla Oshtoff Ferreira de Barros - LNCC
  • Roberto Pinto Souto - LNCC

Apoio











Bootcamps na Escola SDumont


Durante a Escola SDumont, serão realizados dois bootcamps:

Bootcamp: Programação Paralela Aplicada
  • Professor: Calebe de Paula Bianchini (Universidade Presbiteriana Mackenzie)
  • Dias e Horários: Sexta 02/02, de 08:00h às 12:00h e de 14:00h às 18:00h

Bootcamp: Introdução à Physics-Informed Machine Learning com NVIDIA Modulus
  • Dias e Horários: Quarta 31/01 e Quinta 01/02, de 08:00h às 12:00h
  • Resumo: O Laboratório Nacional de Computação Científica (LNCC), em colaboração com a OpenACC organization e a NVIDIA, está organizando a terceira edição do AI for Science Bootcamp em dois dias de 31 de Janeiro a 1 de Fevereiro de 2024. Esse treinamento virtual oferece uma visão geral do passo-a-passo dos fundamentos das redes neurais profundas e conduz os participantes através de uma experiência prática de construir e melhorar modelos de aprendizado profundo usando um framework que leva em conta as leis fundamentais da físicas, representadas por EDPs (Equações Diferenciais Parciais), para modelar o comportamento de sistemas complexos.
  • Inscrições: A inscrição será realizada diretamente na plataforma OpenHackatons pelo link: Inscrições



PALESTRAS


Aviso: As palestras que serão ministradas durante a Escola Supercomputador SDumont serão divulgadas em breve

Is There Room for HPC in Developing Countries?

  • Apresentador: Jairo Panetta (INPE/ITA)
  • Horário: Segunda 22/01 de 12:50h às 13:50
  • Resumo: Esta palestra resume as políticas, atores e instituições que contribuíram para o desenvolvimento da HPC no Brasil durante os últimos 40 anos. Visita atividades da academia, sociedades profissionais, indústrias, governos federais e estaduais relacionadas a esse fim. Enfatiza ações que poderiam ser úteis para outros países em desenvolvimento que estejam dispostos a investir em HPC

Short bio: Possui graduação em Engenharia Eletrônica pelo Instituto Tecnológico de Aeronáutica (1974), mestrado em Matemática Aplicada pelo Instituto Tecnológico de Aeronáutica (1978) e doutorado em Ciência da Computação por Purdue University (1985). Atualmente é Professor Colaborador (voluntário) do Departamento de Ciência da Computação do ITA. Tem experiência na área de Ciência da Computação, com ênfase em arquitetura de computadores, processamento paralelo, processamento de alto desempenho, computação científica e supercomputação. Seu trabalho visa, principalmente, programas executados diariamente em produção.


Além do Básico: Otimizando Aplicações Paralelas em Arquiteturas Modernas

  • Apresentador: Arthur Lorenzoni (UFRGS)
  • Horário: Terça 23/01 e Quinta 25/01 de 12:50h às 13:50
  • Resumo: Com o avanço das arquiteturas exascale, torna-se essencial otimizar aplicações paralelas para maximizar o desempenho e a eficiência energética. No entanto, dado a quantidade de interfaces de programação paralela disponíveis para CPUs e GPUs, uma importante pergunta vem a tona: "Qual a interface de programação paralela ideal para paralelizar minha aplicação?" Neste sentido, esta palestra discutirá as principais estratégias de programação paralela, fornecendo dicas sobre qual interface de programação paralela oferece os melhores resultados em termos de desempenho e facilidade de programação. Adicionalmente, serão apresentadas estratégias de otimização em hardware e software para acelerar ainda mais as aplicações.

Short bio: Arthur Lorenzon é Doutor em Ciência da Computação pela Universidade Federal do Rio Grande do Sul (UFRGS), Porto Alegre, desde 2018. Atuou como pesquisador visitante em áreas correlatas nas seguintes instituições: Delft University of Technology - The Netherlands (2015 e 2017); University of Siena - Itália (2016/2017); e Barcelona Supercomputing Center (BSC) em 2020 e 2022. Sua tese de doutorado foi escolhida como a melhor tese na área de arquitetura de computadores e computação de alto desempenho no WSCAD-CTD, em 2018. Atualmente, integra o corpo docente do Instituto de Informática da UFRGS, orientando alunos de mestrado e doutorado no Programa de Pós-Graduação em Computação (PPGC). Desenvolve atividades de pesquisa nas áreas de arquitetura de computadores e computação de alto desempenho, com foco no desenvolvimento de soluções para otimizar o uso dos recursos computacionais ao executar aplicações paralelas. Por fim, desde o começo de 2022, Lorenzon é Embaixador Universitário do Deep Learning Institute, da NVIDIA.


O futuro da Computação Exascale e o Impacto dos novos aceleradores GPU

  • Apresentador: Genaro Costa (EVIDEN)
  • Horário: Quarta 24/01 de 12:50h às 13:50
  • Resumo: Na sua palestra, Genaro Costa irá explorar o futuro promissor da era Exascale sob a perspectiva da EVIDEN, enfocando no desafio de utilizar eficientemente máquinas equipadas com os mais recentes aceleradores GPU. Discutirá diferentes métodos para explorar paralelismo com essas novas GPUs, os desafios associados ao Exascale, possibilidades atuais, limitações do hardware e da física, e antecipará as inovações que se concretizarão em breve, tanto dentro quanto fora da EVIDEN.

Short bio: Genaro Costa é um Distinguished Expert em HPC na Eviden-Bull, liderando o Laboratórios de P&D da Eviden no centro SENAI-CIMATEC. Anteriormente, atuou como Professor Adjunto e coordenador de programa na UFBA, além de ocupar uma posição de vice-diretor no Instituto de Humanidades Artes e Ciências. Formou-se em Ciência da Computação pela UCSal e possui Mestrado e Doutorado em Informática pela Universitat Autònoma de Barcelona (UAB). Liderou projetos de inovação que unem academia e indústria, com interesses de pesquisa em Computação de Alto Desempenho, Aprendizado de Máquina e Computação Quântica.


AI for Science: Neural Operators, Large Models and Generative AI

  • Apresentador: Pedro Mário Cruz e Silva (NVIDIA)
  • Horário: Sexta 26/01 de 12:50h às 13:50
  • Resumo: Nesta palestra abrangente, exploramos o reino transformador de tecnologias de ponta, investigando as capacidades e aplicações de Modelos de Linguagem Grandes (LLMs), Geração com Recuperação Aprimorada (RAG), Inteligência Artificial Generativa (Gen AI) e Aprendizado de Máquina Informado por Física (Physics-ML). Desvendamos o impacto profundo dos LLMs em diversas indústrias, elucidamos os benefícios do RAG na ampliação de aplicativos de IA com acesso a dados em tempo real e destacamos a versatilidade da Inteligência Artificial Generativa em simulações, previsão do tempo e transições para energia limpa. Além disso, navegamos pelo campo relativamente novo de Physics-ML, abordando desafios e destacando a necessidade de colaboração entre especialistas em aprendizado profundo e pesquisadores específicos de domínio. A palestra enfatiza a recente disponibilização de dois frameworks gratuitos da NVIDIA: NeMo é uma plataforma de aprendizado profundo e inteligência artificial (IA) projetada para facilitar o desenvolvimento, personalização e implementação de modelos de linguagem de grande escala e aplicações relacionadas. Ele oferece uma variedade de métodos de customização, otimização e serviços em nuvem para acelerar o desenvolvimento de soluções baseadas em IA, e Modulus como software de código aberto, uma plataforma de Physics-ML de última geração, fomentando a colaboração, transparência e inovação para avanços impulsionados pela comunidade nessas tecnologias inovadoras.

Short bio: Pedro Mário Cruz e Silva é Bacharel em Matemática (1995) e Mestre em Matemática Aplicada e Otimização (1998) pela UFPE, Doutor em Computação Gráfica pela PUC-Rio (2004). Trabalhou por 15 anos no Instituto PUC-Rio onde criou o Grupo de Geofísica Computacional, durante este período liderou diversos projetos de Desenvolvimento de Software, bem como projetos de Pesquisa na área de Geofísica. Concluiu MBA em Gestão Empresarial na FGV-Rio. Atualmente é Arquiteto de Soluções Sênior da NVIDIA para América Latina.


“Computação Heterogênea com Intel oneAPI

  • Apresentador: Igor Freitas (Intel)
  • Horário: Segunda 29/01 de 12:50h às 13:50
  • Resumo: Nesta palestra será abordado um overview de todas as iniciativas e ferramentas da Intel para viabilizar uma Computação Heterogênea para múltiplos workloads. Tema relevante na comunidade de HPC a muitos anos, principalmente com a junção de workloads de Inteligência Artificial aos existentes de HPC, que demandam clusters com GPUs, CPUS, e outros tipos de Aceleradores de IA. Será demonstrado como o modelo de programação e ferramentas open-source do Intel oneAPI colaboram neste desafio.”

Short bio: Igor Freitas é Especialista Técnico pela Intel Brasil, atuando em projetos de Inteligência Artificial e HPC (High Performance Computing). Possui MBA Executivo pelo INSPER, é graduado em Tecnologia da Informação e mestre em Engenharia Elétrica, ambos pela UNICAMP.




MINICURSOS


Aviso: Devido a questões de segurança, o acesso ao supercomputador SDumont será mantido apenas para os alunos que já tiverem conta no mesmo.
Apenas os alunos cadastrados como usuários do SDumont poderão acompanhar os exercícios na forma 'online' durante os minicursos da escola.
Demais alunos, caso tenham interesse, poderão acompanhar os exercícios apresentados executando os mesmos nas suas máquinas locais ou computadores das suas universidades.


Módulo 1- Introdução ao Ambiente de programação no SDUMONT
[MC-SD01-I] Introdução ao ambiente SDUMONT /SLURM
[MC-SD01-II] Introdução E/S Paralela no SDUMONT
[MC-SD01-III] Programação em Shell Script

Módulo 2- Programação com Processadores Multicore
[MC-SD02-I] Introdução ao OpenMP
[MC-SD02-II] Introdução à Programação Paralela e Vetorial
[MC-SD02-III] Profiling e otimização em códigos C/C++
[MC-SD02-IV] Getting Up and Running with the OpenMP Cluster Programming Model

Módulo 3- Programação com GPU/Aceleradores
[MC-SD03-I] Introdução á Programação CUDA
[MC-SD03-II] Introdução a CUDA AWARE

[MC-SD03-III] Introdução à programação em GPU com OpenACC
  • Professor : Pedro Mário Cruz e Silva (NVIDIA)
  • Dias e Horários: Terça 23/01 de 14:00h às 18:00h

[MC-SD03-IV] SYCL Introdutório e Avançado

[MC-SD03-V] Introdução à programação com FPGA em sistemas distribuídos

[MC-SD03-VI] Diretivas de OpenMP para GPU
Módulo 4- Programação em Ambiente de Sistemas Distribuídos (Supercomputadores e Clusters)
[MC-SD04-I] Programação com MPI
[MC-SD04-II] Introdução a Programação MPI com Extensões para E/S (MPI-IO)
[MC-SD04-III] AMPI Adaptive MPI

Módulo 5- Programação com Bibliotecas de HPC
[MC-SD05-I] Introdução a workflows científicos paralelos em Python/Parsl

Módulo 6 - Gerenciamento de Clusters
[MC-SD06-I] Introdução à configuração e gerenciamento de clusters (Módulo 1)
  • Professor : André Carneiro e Bruno Fagundes (LNCC)
  • Dias e Horários: Sexta 02/02 de 08:00 às 12:00
[MC-SD06-II] Introdução à configuração e gerenciamento de clusters (Módulo 2)

Módulo 7 - Deep Learning em HPC
[MC-SD07-I] Introdução a Deep Learning
  • Professor : Pedro Mário Cruz e Silva (NVIDIA)
  • Dias e Horários: Quinta 25/01 de 08:00h às 12:00h
[MC-SD07-II] Introdução a containers para HPC & IA
  • Professor : Pedro Mário Cruz e Silva (NVIDIA)
  • Dias e Horários: Quarta 24/01 de 14:00h às 18:00h

Módulo 8 - Computação Quântica
[MC-SD08-I] Introdução a Computação Quântica
  • Professor : Marcelo Donizeti (EVIDEN)
  • Dias e Horários: Quinta 25/01 e Sexta 26/01 de 14:00 às 18:00
[MC-SD08-II] Computação Quântica Avançada
  • Professor : Vinícius Lula-Rocha (EVIDEN)
  • Dias e Horários: Terça 30/01 e Quarta 31/01 de 14:00 às 18:00