Java大数据处理的核心技术MapReduce框架

2023-05-30 0 3,795

目录

MapReduce框架

1、框架图

Input→Mapper→shuffle→Reducer→Output

2、Input数据输入

2.1概念

(1)数据块(Block),物理存储,Block是HDFS物理上把文件分成一块一块。数据块是HDFS存储数据单位。

(2)数据切片,逻辑存储,数据切片是MapReduce程序j最小计算输入数据的单位。一个切片会启动一个MapTask

2.2数据切片与MapTask并行度

(1)一个Job的Map阶段并行度由客户端在提交job时的切片数决定;

(2)每一个split切片分配一个MapTask并行实例片

(3)切片是针对每一个文件单独切片

(4)默认情况下,切片大小等于Block Size块大小

MapTask数据=输入文件切片数据

2.3切片过程

(1)程序先找到数据存储目录

(2)开始遍历处理目录下的每一个文件

A、按每个文件进行切片

B、判断文件是否可以切片(snappy、Gzip压缩不能切)

(3)遍历第一个文件

获取文件大小→计算切片大小→开始切片→将切片信息写入切片规划文件中→提交切片规划文件到yarn

A、获取文件大小:fs.size(文件)

B、计算切片大小:设置minsize、maxsize、blocksize

mapreduce.input.fileinputformat.split.minsize=1 默认值为1
mapreduce.input.fileinputformat.split.maxsize=Long.MAXValue 默认值Long.MAXValue

计算公式 :computeSliteSize(Math.max(minSize,Math.min(maxSize,blocksize)))

最大取最小,最小取最大。因此切片大小默认与 HDFS 的 block 保持一致。

maxsize(切片最大值): 参数如果调到比 blocksize 小,则会让切片变小,而且就等于配置的这个参数的值。minsize(切片最小值): 参数调的比 blockSize 大,则可以让切片变得比 blocksize 还大。

C、开始切片:getSplit()

每次切片时,都要判断剩下的是否大于块的1.1倍,不大于1.1倍就切分成一块切片

D、将切片信息写入切片规划文件中:job.split

记录起始位置、长度、所在切点列表等

E、提交切片规划文件到yarn

yarn上MRAppMaster根据切片规划计算MapTask数

三个文件:切片规则文件(job.split)、参数配置文件(job.xml)、程序jar包

2.4类图

Java大数据处理的核心技术MapReduce框架

2.5TextInputFormat

(1)是FileInputFormat默认的实现类

(2)按行读取每条记录,Key为该行在整个文件的超始字节偏移量,LongWritable型。Value为行内容,不包括任何终止符(换行符、回车符),Text型。

2.6CombineTextInputFormat

(1)应用场景:用于小文件过多的场景,将多个小文件从逻辑上规划到一个切片中, 这样多个小文件交给一个MapTask处理;

(2)虚拟存储切片最大值默认4M,最好根据实际的小文件大小来设置

CombineTextInputFormat.setMaxInputSplitSize(job, 4194304);

2.7Read阶段

MapTask通过InputFormat获得RecordReader,从输入InputSplit中解析出一个个Key/Value

3、Map阶段

将解析出来的Key/Value交给用户编写的map()函数处理,并产生一系列新的Key/Value

4、Collect收集阶段

(1)map()函数中,当数据处理完成后,一般会调用OutputCollector.collect()输出结果

(2)在该函数内部,它会将生成的Key/Value分区(调用Partitioner),并写入一个环形内存缓冲区中

5、Shuffle阶段

(1)map方法之后 ,reduce方法之前的数据处理过程称之为Shuffle;

(2)环形内存缓冲区

(3)Partition分区-默认分区

A、根据需求按照条件输出到不同分区

B、默认分区:根据key的hashcode对ReduceTask数理取模

C、默认的ReduceTask的数量为1,对应参数mapreduce.job.reduces

(4)Partition分区-自定义Partitioner

A、自定义类继承Partitioner<key,value>,重写getPartition()方法

public class ProvincePartitioner extends Partitioner<Text, FlowBean> {
    @Override
    public int getPartition(Text text, FlowBean flowBean, int i) {
        // 获取手机号前三位prePhone
        String phone = text.toString();
        String prePhone = phone.substring(0, 3);
        //定义一个分区号变量partition,根据prePhone 设置分区号
        int partition;
        if (\"136\".equals(prePhone)) {
            partition = 0;
        } else if (\"137\".equals(prePhone)) {
            partition = 1;
        } else if (\"138\".equals(prePhone)) {
            partition = 2;
        } else if (\"139\".equals(prePhone)) {
            partition = 3;
        } else {
            partition = 4;
        }
        //最后返回分区号partition
        return partition;
    }
}

B、在job驱动中,设置自定义partitioner,job.setPartitionerClass(自定义分区类.class)

C、自定义Partition后,要根据自定义Partitioner的逻辑设置相应的数量的ReduceTask:job.setNumReduceTasks(数量)

public class FlowDriver {
    public static void main(String[] args) throws IOException, ClassNotFoundException, InterruptedException {
        // 1.获取job对象
        Configuration configuration = new Configuration();
        Job job = Job.getInstance(configuration);
        // 2.关联本Driver类
        job.setJarByClass(FlowDriver.class);
        // 3.关联Mapper和Reducer类
        job.setMapperClass(FlowMapper.class);
        job.setReducerClass(FlowReducer.class);
        // 4.设置Map端输出KV类型
        job.setMapOutputKeyClass(Text.class);
        job.setMapOutputValueClass(FlowBean.class);
        // 5.设置最终输出KV类型
        job.setOutputKeyClass(Text.class);
        job.setOutputValueClass(FlowBean.class);
        // 6.设置程序的输入和输出路径
        FileInputFormat.setInputPaths(job, new Path(\"C:\\\\install\\\\temp\\\\input\\\\input02\\\\phone_data.txt\"));
        FileOutputFormat.setOutputPath(job, new Path(\"C:\\\\install\\\\temp\\\\output\\\\output06\"));
        // 8.指定自定义分区器
        job.setPartitionerClass(ProvincePartitioner.class);
        // 9.同时也指定相应数量的ReduceTask--对应的参数mapreduce.job.reduces,默认为1
        job.setNumReduceTasks(5);
        // 7.提交job
        boolean result = job.waitForCompletion(true);
        System.exit(result ? 0 : 1);
    }
}

(5)Partition分区总结

A、如果ReduceTask数量 > getPartition()结果数,则会多产生几个空的输出文件

B、如果 1 <ReduceTask数量 <getPartition()结果数,则有一部分分区数据无处安放,会异常

C、如果ReduceTask数量=1,则不管MapTask输出多少个分区文件,最终结果只有一个ReduceTask,只会产生一个结果文件。(分区数不大于1,不会走默认hash分区器和自定义分区器,直接返回)

D、分区号必须从0开始,逐一累加

(6)排序

A、排序是MapReduce框架中最重要的操作之一

B、MapTask和ReduceTask均会对数据按key进行排序,该 操作属于Hadoop的默认行为 。任务应用程序中的数据均会被排序,而不管逻辑上是否需要。

C、默认排序是按照字典顺序排序,排序的方法为快速排序

D、排序分类:部分排序、全排序、辅助排序、二次排序

(7)溢写

A、当环形缓冲区满后,MapReduce会将数据写到本地磁盘上,生成一个临时文件

(8)Combiner

A、Combiner是MR程序中Mapper和Reducer之外的一种组件

B、Combiner的父类是Reducer

C、Combiner与Reducer区别:在于运行的位置 ,Combiner是在每一个MapTask所在节点运行,即在分区、排序后准备溢写前可以进行combiner。Reducer是接收全局所有MapTask输出结果。

D、Combiner的意义是对每一个MapTask的输出进行局部汇总,以减少网络传输量

E、Combiner应用前提是不影响最终的业务逻辑

public class WordCountCombiner extends Reducer<Text, IntWritable, Text,IntWritable> {
    private IntWritable outV = new IntWritable();
    @Override
    protected void reduce(Text key, Iterable<IntWritable> values, Context context) throws IOException, InterruptedException {
        int sum = 0;
        for (IntWritable value : values) {
            sum += value.get();
        }
        outV.set(sum);
        context.write(key,outV);
    }
}
public class WordCountDriver {
    public static void main(String[] args) throws IOException, ClassNotFoundException, InterruptedException {
        // 一获取二关联三设置一提交
        // 1.获取配置信息及Job对象
        Configuration configuration = new Configuration();
        Job job = Job.getInstance(configuration);
        // 2.关联本Driver程序的类
        job.setJarByClass(WordCountDriver.class);
        // 3.关联Mapper和Reducer的业务类
        job.setMapperClass(WordCountMapper.class);
        job.setReducerClass(WordCountReducer.class);
        // 4.设置Mapper输出的KV类型
        job.setMapOutputKeyClass(Text.class);
        job.setMapOutputValueClass(IntWritable.class);
        // 5.设置最终输出的KV类型
        job.setOutputKeyClass(Text.class);
        job.setOutputValueClass(IntWritable.class);
        // 6.设置输入和输出路径
        //FileInputFormat.setInputPaths(job, new Path(args[0]));
        //FileOutputFormat.setOutputPath(job, new Path(args[1]));
        FileInputFormat.setInputPaths(job, new Path(\"C:\\\\install\\\\temp\\\\input\\\\hadoop.txt\"));
        FileOutputFormat.setOutputPath(job, new Path(\"C:\\\\install\\\\temp\\\\output\\\\output01-2\"));
        // 8.设置Combiner类--方式一
        //job.setCombinerClass(WordCountCombiner.class);
        // 方式二:其新建的WordCountCombiner的reduce方法处理与正常的WordCountReducer中的reduce方法处理逻辑是一样
        // 因此可以直接用此类作为combiner类
        job.setCombinerClass(WordCountReducer.class);
        // 9.设置ReduceTasks的数量--这样就没有reduce阶段,就不会有shuffle,Combiner也就没有用,直接由map输出,
        // 文件名为part-m-00000,就是不part-r-00000,两者结果是不一样的
        // 即如果没有reduce阶段,即使设置了combiner也不起作用
        // job.setNumReduceTasks(0);
        // 7.提交job
        boolean result = job.waitForCompletion(true);
        System.exit(result ? 0 : 1); // 0-正常退出 非0(1)异常终止(结束)
    }
}

(9)Meger

A、MapTask以分区为单位进行合并,对所有临时文件合并成一个大文件(output/file.out),同时生成相应索引文件(output/file.out.index)

B、对某个分区采用多轮递归合并的方式,每次合并默认10个文件,每个MapTask最终得到一个大文件

6、ReduceTask

(1)Copy阶段

ReduceTask从各个MapTask上远程拷贝一片数据,如大小超过阀值,则写到磁盘上,否则直接放在内存中

(2)Sort阶段

由于各个MapTask已经实现了对自己处理结果进行了局部排序,因此ReduceTask只需要对所有数据进行一次归并排序即可

(3)Reducer阶段

reduce()函数将计算结果写到HDFS上

(4)其他

A、ReduceTask数量默认是1,可手动设置job.setNumReduceTasks(数量)

B、ReduceTask=0,表示没有reduce阶段,输出文件个数和Map个数一致

C、如果数据分布不均匀,就会在reduce阶段产生数据倾斜

D、ReduceTask数量并不能任意设置,要考虑业务逻辑需求,具体多少个ReduceTask,需要根据集群性能确定

E、如果分区数不是1,但ReduceTask为1,不执行分区过程(执行分区的前提是判断ReduceNum个数是否大于1)

资源下载此资源下载价格为1小猪币,终身VIP免费,请先
由于本站资源来源于互联网,以研究交流为目的,所有仅供大家参考、学习,不存在任何商业目的与商业用途,如资源存在BUG以及其他任何问题,请自行解决,本站不提供技术服务! 由于资源为虚拟可复制性,下载后不予退积分和退款,谢谢您的支持!如遇到失效或错误的下载链接请联系客服QQ:442469558

:本文采用 知识共享署名-非商业性使用-相同方式共享 4.0 国际许可协议 进行许可, 转载请附上原文出处链接。
1、本站提供的源码不保证资源的完整性以及安全性,不附带任何技术服务!
2、本站提供的模板、软件工具等其他资源,均不包含技术服务,请大家谅解!
3、本站提供的资源仅供下载者参考学习,请勿用于任何商业用途,请24小时内删除!
4、如需商用,请购买正版,由于未及时购买正版发生的侵权行为,与本站无关。
5、本站部分资源存放于百度网盘或其他网盘中,请提前注册好百度网盘账号,下载安装百度网盘客户端或其他网盘客户端进行下载;
6、本站部分资源文件是经压缩后的,请下载后安装解压软件,推荐使用WinRAR和7-Zip解压软件。
7、如果本站提供的资源侵犯到了您的权益,请邮件联系: 442469558@qq.com 进行处理!

猪小侠源码-最新源码下载平台 Java教程 Java大数据处理的核心技术MapReduce框架 http://www.20zxx.cn/763395/xuexijiaocheng/javajc.html

猪小侠源码,优质资源分享网

常见问题
  • 本站所有资源版权均属于原作者所有,均只能用于参考学习,请勿直接商用。若由于商用引起版权纠纷,一切责任均由使用者承担
查看详情
  • 最常见的情况是下载不完整: 可对比下载完压缩包的与网盘上的容量,建议提前注册好百度网盘账号,使用百度网盘客户端下载
查看详情

相关文章

官方客服团队

为您解决烦忧 - 24小时在线 专业服务