Introdução ao Apache Hadoop

5
Dias

Métodos de Formação


Classroom Training (Scheduled)
-

Curso em Privado

Peça-nos um orçamento para a realização deste curso em Privado. Estamos disponíveis para propor as datas e os conteúdos à medida das suas necessidades.
 

Aprenda as noções básicas de Apache Hadoop, a plataforma base para big data e
data science. Este curso aborda a arquitetura do Hadoop e os seus componentes
principais, tais como MapReduce e o Distributed File System (HDFS). Saiba como
adicionar e remover nós de clusters Hadoop, como verificar o espaço de disco
disponível em cada nó, e como modificar os parâmetros de configuração. Saiba
mais sobre outros projetos Apache que fazem parte do ecossistema Hadoop, como
Pig, Hive, HBase, ZooKeeper, Oozie, Sqoop e Flume, entre outros.


1. Introdução ao Hadoop
1.1. Compreender o que é Hadoop
1.2. Compreender o que é Big Data
1.3. Introdução ao ecosistema Hadoop


2. Arquitectura Hadoop
2.1. Compreender as principais componentes do Hadoop
2.2. Aprenda como HDFS funciona
2.3. Lista dos padrões de acesso de dados para os quais o HDFS é projectado
2.4. Descrever como os dados são armazenados num cluster HDFS


3. Administração Hadoop
3.1. Adicionar e remover nós de um cluster
3.2. Verificar o estado de saúde de um clusterStart e parar um dos componentes
dos clusters
3.3. Modificar os parâmetros de configuração Hadoop
3.4. Configurar uma topologia de rack


4. Componentes Hadoop
4.1. Descrever a filosofia de MapReduce
4.2. Explicar como os Pig and Hive podem ser utilizados num ambiente Hadoop
4.3. Descrever como os Sqoop e Flume podem ser usados para mover dados em
Hadoop
4.4. Descrever como o Oozie é usado para calendarizar e controlar a execução do
trabalho do Hadoop


5. Conclusão
5.1. Revisão do Curso
5.2. Sessão de Esclarecimneto de Dúvidas

Após a conclusão do curso, os formando deverão:
● Saber como Hadoop encaixa no mundo das TI, nomeadamente conhecer os
problemas que a plataforma resolve;
● Compreender os conceitos de HDFS e MapReduce;
● Resolver problemas e escrever programas usando MapReduce
● Aplicar na resolução de problemas práticos a plataforma Hadoop

● Conhecimentos de sistemas operativos nomeadamente Unix/Linux são uma
mais valia embora não essenciais;
● Conhecimentos de programação básica em Phyton ou Java são igualmente
uma mais valia mas não essenciais.