Skip to content

Antonio-Borges-Rufino/PySpark-Big-Data-Project-to-Learn-RDD-Operations

Folders and files

NameName
Last commit message
Last commit date

Latest commit

 

History

8 Commits
 
 
 
 

Repository files navigation

Referencia

  1. Esse projeto é desenvolvido pelo ProjectPro.io
  2. Os dados utilizados são de responsabilidade da plataforma, por isso não serão indexados aqui, apenas o resultado do processamento.

Conhecendo os Dados

  1. O projeto consiste em fazer um MapReduce em um texto Lorm ipsum

Trabalhando com arquivo TXT simples

  1. Primeiro mandei o arquivo txt para o HDFS
hdfs dfs -put /home/hadoop/sample.txt /arquivos/txt
  1. Agora iniciei um novo notebook e importei o pyspark e criei um SparkContext
import pyspark
sc = pyspark.SparkContext()
  1. Com o sparkContex criado, posso importar o arquivo de texto do HDFS
txt_file = sc.textFile("hdfs://localhost:9000/arquivos/txt/sample.txt")
txt_file.collect()

Saida do processamento:

['Lorem ipsum dolor sit amet, consectetur adipiscing elit. Sed euismod sem sed est ultricies, a faucibus nunc condimentum. Vestibulum ac commodo justo. Nullam faucibus massa ac elit malesuada, vel varius nisi condimentum. Nulla facilisi. Praesent venenatis metus justo, id interdum ligula ullamcorper a. Mauris tempus elit ut mi facilisis, ac commodo lacus commodo. Proin id augue vel dolor aliquet fringilla. Nulla facilisi. Mauris mattis tellus eget ante eleifend, non lobortis lacus feugiat. Donec sed diam nec nisl tempus auctor. Fusce rutrum purus eu mauris efficitur feugiat. Phasellus at arcu eget dui scelerisque egestas. Nullam at posuere elit. Donec pellentesque turpis id mi dictum, ut pharetra enim imperdiet. Sed efficitur purus a nunc eleifend, ac venenatis odio efficitur. Duis suscipit mauris sapien, sed iaculis nibh feugiat sit amet. Aliquam interdum fermentum risus, sed cursus leo molestie at. Phasellus condimentum, elit in egestas congue, purus purus sagittis leo, ut luctus quam turpis at metus. Pellentesque habitant morbi tristique senectus et netus et malesuada fames ac turpis egestas. Sed sed ipsum dui. Vivamus ut est sit amet nibh cursus lacinia. Nam blandit nisl vel sem aliquet viverra. Aliquam in turpis ac turpis fringilla cursus. Aenean id augue feugiat, aliquam quam in, cursus massa. Nulla facilisi']
  1. Agora eu dividi o texto acima em um vetor, para realizar essa tarefa, usei a função split(" ") para poder criar um vetor. A função flatmap realiza o processamento sem alterar alterar a estrutura.
vetorizacao = txt_file.flatMap(lambda line: line.split(" "))
vetorizacao.collect()

Saida do processamento

['Lorem',
 'ipsum',
 'dolor',
 'sit',
 'amet,',
 'consectetur',
 'adipiscing',
 'elit.',
 'Sed',
 'euismod',
 'sem',
 'sed',
 'est',
 'ultricies,', ....
  1. Com o texto vetorizado, podemos percorrer cada uma das posições do texto e criar um index de 1 para cada posição, formando uma estrutura (chave,valor) para cada um dos elementos do vetor
contador = vetorizacao.map(lambda x: (x,1))
contador.collect()

Saida do processamento

[('Lorem', 1),
 ('ipsum', 1),
 ('dolor', 1),
 ('sit', 1),
 ('amet,', 1),
 ('consectetur', 1), .....
  1. Com o conjunto (chave.valor) criado, podemos reduzir as chaves iguais para apenas uma e tratar os valores, no nosso caso, somamos os valores. Para realizar isso usamos o método reduceByKey
wordCount = contador.reduceByKey(lambda x,y: x+y)
wordCount.collect()

Saida do processamento

[('Lorem', 1),
 ('ipsum', 2),
 ('consectetur', 1),
 ('elit.', 2),
 ('Sed', 3),
 ('sed', 5), ....
  1. Agora temos uma lista contada de palavras, na qual podemos aplicar ainda mais operações. Aqui nesse exemplo apliquei um filtro buscando as palavras que possuiam mais de 3 aparições.
palavrasMaisPresentes = wordCount.filter(lambda linha: linha[1]>3)
palavrasMaisPresentes.collect()

Saida do processamento

[('sed', 5), ('purus', 4), ('ac', 6), ('id', 4), ('ut', 4), ('turpis', 5)]
  1. Abaixo está uma parte de todo esse processamento visto da UI de administração de JOBS do Spark

About

PySpark Big Data Project to Learn RDD Operations

Resources

Stars

Watchers

Forks

Releases

No releases published

Packages

No packages published