HDFS Tutorial HADOOP hadoop HADOOP hadoop fs ls Slides: 26 Download presentation HDFS Tutorial HADOOP 실행 커맨드 $ hadoop HADOOP 실행 커맨드 $ hadoop fs ls 명령어 $ hadoop fs –ls / Sample Data 압축 해제 $ cd ~/training_materials/developer/data $ tar zxvf shakespeare. tar. gz Local에서 HDFS로 data 복사 $ hadoop fs -put shakespeare /user/training/shakespeare HDFS Architecture HDFS에 디렉토리 생성 $ hadoop fs –mkdir weblog 파이프를 통해 stdout의 출력을 HDFS에 저장(stdin) $ gunzip -c access_log. gz | hadoop fs -put - weblog/access_log 파이프를 통해 stdout의 출력을 HDFS에 저장(stdin) $ hadoop fs –mkdir testlog $ gunzip -c access_log. gz | head -n 5000 | hadoop fs –put - testlog/test_access_log HDFS의 파일 삭제 $ hadoop fs -ls shakespeare $ hadoop fs –rm shakespeare/glossary HDFS의 파일 내용 확인 $ hadoop fs -cat shakespeare/histories | tail -n 50 HDFS에서 Local로 파일 복사 $ hadoop fs -get shakespeare/poems ~/shakepoems. txt Wordcount 예제 실행 $hadoop jar wc. jar Word. Count shakespeare wordcounts Map. Reduce의 Job Flow HDFS상의 실행 결과 확인 $hadoop fs –ls wordcounts $hadoop fs –cat wordcounts/part-r-0000 | tail –n 20 Name. Node의 웹 인터페이스 http: //localhost: 50070 Filesystem Browsing을 통해 output 확인(1) Filesystem Browsing을 통해 output 확인(2) Jobtracker의 웹 인터페이스(1) http: //localhost: 50030 Jobtracker의 웹 인터페이스(2) http: //localhost: 50030 Jobtracker의 웹 인터페이스에서 jobid를 통해 job status 확인(1) Jobtracker의 웹 인터페이스에서 jobid를 통해 job status 확인(2) Hdfs latencyHadoop i/o compression and serializationHive hdfsHdfs full formHdfs lsCern grafanaHdfs kubernetesChown -r usernameGfs vs hdfsHairong kuangHdfs transparent encryptionEvolution of hadoopMapreduce open sourceVisio journey map templateHadoop web servicesHadoopHadoop streaming pythonHadoopSupercloud hadoopDisadvantages of hadoopWeka hadoopHadoop pig vs hiveEvolution of hadoopArchitecture of rhipeHadoop gfsHadoop distributed file system architecture designHadoop distributed file system