5-Practicas+BigData Trabajar Hdfs
5-Practicas+BigData Trabajar Hdfs
Prácticas BigData
1. Prácticas con HDFS
1.1. Comando hdfs dfs
• Ejecutar el comando “hdfs dfs”. Este comando permite trabajar con los ficheros
de HDFS.
• Casi todas las opciones son similares a los comandos “Linux”
hdfs dfs
Usage: hadoop fs [generic options]
[-appendToFile <localsrc> ... <dst>]
[-cat [-ignoreCrc] <src> ...]
[-checksum <src> ...]
[-chgrp [-R] GROUP PATH...]
[-chmod [-R] <MODE[,MODE]... | OCTALMODE> PATH...]
[-chown [-R] [OWNER][:[GROUP]] PATH...]
[-copyFromLocal [-f] [-p] [-l] [-d] <localsrc> ... <dst>]
[-copyToLocal [-f] [-p] [-ignoreCrc] [-crc] <src> ... <localdst>]
[-count [-q] [-h] [-v] [-t [<storage type>]] [-u] [-x] <path> ...]
[-cp [-f] [-p | -p[topax]] [-d] <src> ... <dst>]
[-createSnapshot <snapshotDir> [<snapshotName>]]
[-deleteSnapshot <snapshotDir> <snapshotName>]
[-df [-h] [<path> ...]]
[-du [-s] [-h] [-x] <path> ...]
[-expunge]
[-find <path> ... <expression> ...]
[-get [-f] [-p] [-ignoreCrc] [-crc] <src> ... <localdst>]
[-getfacl [-R] <path>]
[-getfattr [-R] {-n name | -d} [-e en] <path>]
[-getmerge [-nl] [-skip-empty-file] <src> <localdst>]
[-help [cmd ...]]
[-ls [-C] [-d] [-h] [-q] [-R] [-t] [-S] [-r] [-u] [<path> ...]]
[-mkdir [-p] <path> ...]
[-moveFromLocal <localsrc> ... <dst>]
[-moveToLocal <src> <localdst>]
[-mv <src> ... <dst>]
www.apasoft-training.com 1
Apasoft Training
www.apasoft-training.com 2
Apasoft Training
www.apasoft-training.com 3
Apasoft Training
• Comprobar su existencia
hdfs dfs -ls /datos
Found 1 items
-rw-r--r-- 1 hadoop supergroup 19 2018-01-06 18:34 /datos/prueba.txt
• También podemos verlo en la página web. Podemos comprobar el tipo de
replicación que tiene y el tamaño correspondiente.
• Visualizar su contenido
hdfs dfs -cat /datos/prueba.txt
Esto es una prueba
• Vamos a comprobar lo que ha creado a nivel de HDFS
• Vamos a la página WEB y pulsamos en el nombre del fichero.
• Debe aparecer algo parecido a lo siguiente
www.apasoft-training.com 4
Apasoft Training
• Vemos que solo ha creado un bloque, ya que el BLOCK SIZE por defecto de
HDFS es 128M y por lo tanto nuestro pequeño fichero solo genera uno.
• Además, nos dice el BLOCK_ID y también los nodos donde ha creado las
réplicas. Como tenemos un replication de 1, solo aparece el nodo1. Cuando
veamos la parte del cluster completo veremos más nodos
• Volvemos al sistema operativo y nos vamos al directorio siguiente.
Evidentemente el subdirectorio BP-XXXX será distinto en tu caso. Se
corresponde con el Block Pool ID que genera de forma automática Hadoop.
/datos/datanode/current/BP-344905797-192.168.56.101-
1515254230192/current/finalized
• Dentro de este subdirectorio, Hadoop irá creando una estructura de
subdirectorios donde albergará los bloques de datos, don el formato
subdirN/subdirN, en este caso subdir0/subdir0.
• Entramos en él.
cd subdir0/
cd subdir0/
ls -l
total 8
-rw-rw-r--. 1 hadoop hadoop 19 ene 6 18:34 blk_1073741825
-rw-rw-r--. 1 hadoop hadoop 11 ene 6 18:34 blk_1073741825_1001.meta
• Podemos comprobar que hay dos ficheros con el mismo BLOCK_ID que
aparece en la página WEB.
o Uno contiene los datos
www.apasoft-training.com 5
Apasoft Training
www.apasoft-training.com 6
Apasoft Training
www.apasoft-training.com 7
Apasoft Training
www.apasoft-training.com 8
Apasoft Training
wordmean: A map/reduce program that counts the average length of the words in
the input files.
wordmedian: A map/reduce program that counts the median length of the words in
the input files.
wordstandarddeviation: A map/reduce program that counts the standard deviation
of the length of the words in the input files.
• Vemos que hay un comando llamado “wordcount”.
• Permite contar las palabras que hay en uno o varios ficheros.
• Creamos un par de ficheros con palabras (algunas repetidas) y lo guardamos en
ese directorio
hdfs dfs -put /tmp/palabras.txt /practicas
hdfs dfs -put /tmp/palabras1.txt /practicas
• Lanzamos el comando
hadoop jar /opt/hadoop/share/hadoop/mapreduce/hadoop-mapreduce-
examples-2.9.0.jar wordcount /practicas /salida1
INFO mapreduce.Job: Counters: 38
File System Counters
FILE: Number of bytes read=812740
FILE: Number of bytes written=1578775
FILE: Number of read operations=0
FILE: Number of large read operations=0
FILE: Number of write operations=0
HDFS: Number of bytes read=211
HDFS: Number of bytes written=74
HDFS: Number of read operations=25
HDFS: Number of large read operations=0
HDFS: Number of write operations=5
Map-Reduce Framework
Map input records=2
Map output records=16
Map output bytes=147
Map output materialized bytes=191
Input split bytes=219
Combine input records=16
Combine output records=16
Reduce input groups=10
Reduce shuffle bytes=191
Reduce input records=16
Reduce output records=10
Spilled Records=32
Shuffled Maps =2
www.apasoft-training.com 9
Apasoft Training
Failed Shuffles=0
Merged Map outputs=2
GC time elapsed (ms)=131
CPU time spent (ms)=0
Physical memory (bytes) snapshot=0
Virtual memory (bytes) snapshot=0
Total committed heap usage (bytes)=549138432
Shuffle Errors
BAD_ID=0
CONNECTION=0
IO_ERROR=0
WRONG_LENGTH=0
WRONG_MAP=0
WRONG_REDUCE=0
File Input Format Counters
Bytes Read=84
File Output Format Counters
Bytes Written=74
www.apasoft-training.com 10