Escola Supercomputador Santos Dumont


31 de janeiro a 04 de fevereiro de 2022



'
AVISO: A comunicação entre a organização e os participantes inscritos (mudanças de horário, envio de certificados) será feita via e-mail. Por favor, ficar atentos pois as mensagens podem cair na caixa de spam.

Importante:
Certificados: Os dados fornecidos no cadastro da inscrição serão os mesmos utilizados na emissão dos certificados de participação, os quais serão disponibilizados até 31/03/2022. O Programa de Verão só emite certificados de participação em minicursos e em eventos unicamente para os inscritos nos eventos que acessem as atividades via a Plataforma Ciente Studio. Aqueles que participarem via o Youtube não receberão certificados.
Formato da apresentação dos minicursos: Os minicursos serão ministrados na forma síncrona/online, pela plataforma Zoom, em data e horários específicos para cada minicurso.
Programação: Informações detalhadas da programação encontram-se abaixo. Toda a programação da Escola Supercomputador Santos Dumont será gravada e disponibilizada no canal YouTube do LNCC.
Inscrição: As inscrições nas atividades da Escola Supercomputador Santos Dumont acontecerão no período de 08 de novembro de 2021 a 26 de janeiro de 2022 no link: Inscrições



SOBRE O EVENTO


O Supercomputador Santos Dumont (SDumont) atende hoje cerca de 170 projetos de pesquisa pertencentes a 18 áreas de conhecimento, liderados por instituições de pesquisa de 12 estados brasileiros. A escola tem como objetivo prover à comunidade de usuários do SDumont e à comunidade de programação em computação de alto desempenho em geral, minicursos relacionados com programação em computadores de alto desempenho tais como modelos de programação paralela, ferramentas de perfilagem e bibliotecas para o desenvolvimento de algoritmos paralelos otimizados.

A edição 2022 da Escola SDumont contará com uma programação intensa de 19 minicursos, distribuídos em 8 módulos, e 3 palestras. As atividades serão ministradas por pesquisadores e colaboradores do LNCC, além de contar também com a participação de convidados das seguintes empresas e instituições de pesquisas, ATOS, NVIDIA, NVIDIA-Mellanox, EXAFLOP, Costa Rica National High Technology Center, UFRJ, CEFET-RJ e Fiocruz. Além desta programação, nesta edição estaremos promovendo a primeira edição do "NVIDIA/LNCC AI for Science Bootcamp"

Organização

  • Carla Oshtoff Ferreira de Barros - LNCC
  • Roberto Pinto Souto - LNCC










NVIDIA/LNCC AI for Science Bootcamp
(03 de Fevereiro de 2022)


Durante este Bootcamp online, os participantes aprenderão como aplicar ferramentas, técnicas e algoritmos de IA a problemas da vida real. Você estudará os principais conceitos de Redes Neurais Profundas, como construir modelos de Aprendizado Profundo e também como medir e melhorar a precisão de seus modelos. Você também aprenderá técnicas essenciais de pré-processamento de dados para garantir um pipeline de aprendizado de máquina robusto. Este Bootcamp online é uma experiência de aprendizado prático onde você será guiado por instruções passo a passo com mentores à disposição para ajudar durante todo o processo.

Este Bootcamp é organizado por LNCC, NVIDIA e AtoS.

Inscrição: A inscrição no NVIDIA/LNCC AI for Science Bootcamp será realizada diretamente na plataforma da NVIDIA.
Link da inscrição:GPU Hackathons

Formato do evento
  • Este Bootcamp de 1 dia (03/02/2022) será realizado remotamente no fuso horário do Brasil (BRT/GMT-3). Toda comunicação será feita via Zoom, Slack e e-mail.
Recursos computacionais
  • Os participantes receberão acesso a um Cluster de GPUs da NVIDIA durante a duração do Bootcamp, exclusivamente para realização das atividades do mesmo.
Programação
  • Manhã (Introdução) De 09:00h às 12:00h (BRT)
    • 09:00h - 09:15h: Boas vindas (Moderador)
    • 09:15h - 09:30h: Conectando ao cluster
    • 09:30h - 10:00h: Introdução à computação acelerada por GPU (Palestra)
    • 10:00h - 11:00h: Introdução à IA (Palestra)
    • 11:00h - 12:00h: CNNs e Keras 101 (Palestra e Lab)

  • Intervalo de almoço De 12:00h às 13:00h (BRT)

  • Tarde (Avançado) De 13:00h às 16:30h (BRT)
    • 13:00h - 14:30h: Detecção de cliclone tropical (Lab e Desafio)
    • 14:30h - 14:45h: Intervalo
    • 14:45h - 16:15h: Estimativa de fluxo estacionário (Desafio)
    • 16:15h - 16:30h: PM: Encerramento e Perguntas & Respostas



PALESTRAS


Produzindo Ciência 1 Milhão de Vezes mais Rápido
  • Apresentador: Pedro Mário Cruz e Silva (NVIDIA)
  • Horário: Terça 01/02 de 12:30h às 13:30h
  • Resumo: A Inteligência Artificial (IA) moderna está revolucionando quase todas as indústrias. As técnicas de Deep Learning (DL) permitiram avanços em Visão Computacional e agora vemos produtos usando Intelligent Video Analytics (IVA) atingindo um platô de produtividade em aplicações. Recentemente, a capacidade de treinar grandes modelos de DL é o Processamento de Linguagem Natural (PNL) que está abrindo caminho para novos avanços disruptivos. Todo esse ecossistema de inovação empolgante está levando a capacidade de computação global ao limite. A NVIDIA é a maior empresa de computação que oferece suporte à maioria desses avanços. A plataforma da NVIDIA para IA e HPC é uma abordagem full-stack onde Hardware e Software evoluem juntos para atender aos requisitos de desempenho das mais exigentes soluções empresariais e de ciência digital. Nesta apresentação, darei uma visão geral dos principais componentes de software e hardware da NVIDIA dentro de frameworks Deep Learning (TensorFlow & Pytorch) e plataformas de aplicativos NVIDIA: RAPIDS (Machine Learning), Metropolis (IVA), Riva (Conversational AI), Merlin (Recomendador Systems), Morpheus (Cybersecurity), etc. Vou mostrar o exemplo de simulação de computação quântica acelerada por GPU com nossa nova biblioteca cuQuantum.
The roadmap to Exascale System – Faster, Smarter and Greener
  • Apresentador: Genaro Costa (ATOS)
  • Horário: Quinta 03/02 de 12:30h às 13:30h
  • Resumo: Existe um crescente interesse no uso de Inteligência Artificial (IA) para suportar processos administrativos e experiência dos usuários de tecnologia. Essa revolução da IA foi possível pelo desenvolvimento das arquiteturas de alto desempenho. Esse caminho, além da necessidade de desempenho, existe o problema do consumo energético e aumento da complexidade desses sistemas. Nesse sentido, a Atos vem desenvolvendo soluções no estado da arte para endereçar esses problemas. Se considerarmos o Top500, lista dos supercomputadores mais rápidos do mundo,4 das 5 máquinas brasileiras presentes nessa lista foram integradas e instaladas pela Atos. Nessa palestra vamos mostrar o que há de mais avançado em sistemas milhares de CPUs e GPUs, como endereçamos o problema de consumo energético, assim como a complexidade de gestão e uso de sistemas nessa escala. Apresentaremos também quais as tendências de aceleração híbrida como IPUs e computação quântica.
Introdução ao "Adaptive MPI" (AMPI)
  • Apresentador: D.Sci. Esteban Meneses (Costa Rica National High Technology Center)
  • Horário: Quinta 03/02 de 13:45h às 17:45h
  • Resumo: Supercomputadores e grandes plataformas paralelas apresentam diversos desafios para o desenvolvimento de aplicações paralelas, tais como a exposição de concorrência, otimização de movimentação de dados, controle de balanceamento de carga, tratamento com heterogeneidade, tratamento de variações no comportamento de aplicações e tolerância a faltas. Para se lidar com esses desafios, uma ênfase em conceitos importantes como sobredecomposição, assincronia, migrabilidade e adaptatividade são necessários durante o desenvolvimento de aplicações.
    Para apresentar todas essas características, os ambientes de execução (runtimes) precisarão se tornar introspectivos e prover suporte automático a múltiplas tarefas que atualmente são responsabilidade de pessoas programadoras. Esta palestra busca expor as pessoas participantes aos conceitos anteriormente mencionados, mostrando como suas implementações, em conjunto com um ambiente de execução introspectivo, pode levar ao desenvolvimento de aplicações que escalam independentes de plataformas.
    A palestra foca no ambiente e paradigma de programação paralela Charm++ e sua implementação do padrão MPI através do Adaptive MPI (AMPI). Charm++ provê um modelo de programação paralela orientado a objetos baseado na troca de mensagens assíncronas. Seu ambiente possibilita a sobreposição de cálculo e comunicação de forma automática, balanceamento de carga, tolerância a faltas e checkpoints para execuções particionadas, entre outros. A abordagem busca prover um guia para a migração de aplicações em MPI para o ambiente de execução de Charm++ e AMPI.



MINICURSOS


Aviso: Devido a questões de segurança, o acesso ao supercomputador SDumont será mantido apenas para os alunos que já tiverem conta no mesmo.
Apenas os alunos cadastrados como usuários do SDumont poderão acompanhar os exercícios na forma 'online' durante os minicursos da escola.
Demais alunos, caso tenham interesse, poderão acompanhar os exercícios apresentados executando os mesmos nas suas máquinas locais ou computadores das suas universidades.


Módulo 1- Introdução ao Ambiente de programação no SDUMONT
[MC-SD01-I] Introdução ao ambiente SDUMONT /SLURM e Ferramentas BULLX-DE
[MC-SD01-II] Introdução E/S Paralela no SDUMONT

Módulo 2- Programação com Processadores Multicore
[MC-SD02-I] Introdução ao OpenMP
[MC-SD02-II] Introdução à Programação Paralela e Vetorial
[MC-SD02-III] Introdução a Programação em Aceleradores com Diretivas
[MC-SD02-IV] Profiling e otimização em códigos C/C++

Módulo 3- Programação com GPU/Aceleradores
[MC-SD03-I] Introdução á Programação CUDA
[MC-SD03-II] Programação Avançada CUDA
[MC-SD03-III] Introdução ao SYCL

Módulo 4- Programação em Ambiente de Sistemas Distribuídos (Supercomputadores e Clusters)
[MC-SD04-I] Programação com MPI
[MC-SD04-II] Introdução a Programação MPI com Extensões para E/S (MPI-IO)

Módulo 5- Programação com Bibliotecas de HPC
[MC-SD05-I] Introdução a workflows científicos paralelos em Python/Parsl

Módulo 6 - Gerenciamento de Clusters
[MC-SD06-I] Introdução à configuração e gerenciamento de clusters (Módulo 1)
[MC-SD06-II] Introdução à configuração e gerenciamento de clusters (Módulo 2)

Módulo 7 - Deep Learning em HPC
[MC-SD07-I] Introdução a Deep Learning

Módulo 8 - Computação Quântica
[MC-SD08-I] Introdução a Computação Quântica e Computação Quântica Avançada I
[MC-SD08-II] Computação Quântica Avançada I [Cancelado - Foi adicionado ao minicurso SD08-I]
[MC-SD08-III] Computação Quântica Avançada II
[MC-SD08-IV] Computação Quântica Avançada III