Big Data - Processamento de dados com Spark e PySpark

Crie o seu servidor Apache Spark, processe grandes quantidades e faça um streaming em tempo real utilizando PySpark :)
4.46 (1208 reviews)
Udemy
platform
Português
language
Databases
category
instructor
Big Data - Processamento de dados com Spark e PySpark
4 138
students
5.5 hours
content
May 2018
last update
$19.99
regular price

Why take this course?

🌟 Course Title: Big Data - Processamento de Dados com Spark e PySpark

Course Headline: 🚀 Crie o seu servidor Apache Spark, processe grandes quantidades de dados e faça um streaming em tempo real utilizando PySpark! 🎉


Sobre o Curso

Não se assuste mais com as tecnologias de Big Data! Aprenda o essencial para processar grandes quantidades de dados em memória com o melhor Framework do mercado: O Apache Spark! 🎓✨

O que vamos explorar?

  • Introdução ao Big Data: Entenda o que é Big Data e as implicações de um mundo dominado por dados.
  • Instalação do Apache Spark: Iniciaremos com as fundamentações e, passo a passo, configuraremos nosso próprio servidor Apache Spark em um ambiente Windows. 🖥️
  • Exploração do Framework: Exploremos o Apache Spark de forma detalhada e analisaremos como ele pode transformar dados em insights valiosos.
  • Map Reduce e Mais: Aplicaremos a técnica Map Reduce, além de explorar as funcionalidades nativas do Spark, como o uso de Spark SQL, RDDs e os novos Dataframes com PySpark. 🛠️
  • Ferramentas e Ambiente de Execução: Discutiremos sobre as variáveis de ambiente e a configuração do Java/JVM para garantir que o Spark funcione corretamente em qualquer sistema operacional, incluindo Windows, Linux e mais.
  • Softwares e Recursos Adicionais: Com um drive contendo todos os programas e scripts necessários, além dos links oficiais para download, você estará preparado para mergulhar no mundo do Big Data com total autonomia. 💻
  • Esteja pronto para transformar dados em conhecimento!

Conteúdo Detalhado

Fundamentação do Big Data:

  • O que é Big Data e por que é tão relevante hoje?
  • Compreendendo o volume, variedade e velocidade dos dados.

Instalação e Configuração:

  • Criando um servidor Apache Spark no Windows.
  • Trabalhando com Hadoop: O sistema de arquivos distribuído que complementa o Spark.

Processamento de Dados:

  • Aprendendo Map Reduce.
  • Utilizando as capacidades do PySpark para processamento em larga escala.

Análise Avançada:

  • Explorando Spark SQL para consultas estruturadas de dados.
  • Criando e manipulando RDDs (Resilient Distributed Datasets).
  • Trabalhando com Dataframes no PySpark para uma abordagem mais agradável e eficiente.

Ambiente de Execução:

  • Configurando o ambiente de desenvolvimento com as variáveis de ambiente necessárias.
  • Entendendo o papel do Java e da JVM no desempenho do Spark.

Recursos Complementares:

  • Material de apoio exclusivo para garantir que você tenha todos os recursos necessários.
  • Links oficiais dos programas para download.

Preocupado com os softwares? Você terá todo o suporte necessário para instalar e configurar o ambiente de desenvolvimento! 🛠️

E aí?

  • Curtiu a ementa? 👍
  • Pronto para mergulhar no mundo do Big Data com PySpark? Então, venha se juntar a nós e transforme o cenário de dados em sua vantagem competitiva! 🚀💾

👉 Inscreva-se agora e prepare-se para ser um profissional qualificado no processamento de Big Data com Apache Spark e PySpark! 🎈

Loading charts...

1431254
udemy ID
13/11/2017
course created date
23/11/2019
course indexed date
Bot
course submited by
Big Data - Processamento de dados com Spark e PySpark - | Comidoc