首页技术文章正文

Apache Beam 历史发展,10分钟了解ApacheBeam

更新时间:2019-09-18 来源:黑马程序员 浏览量:

在2003年之前,谷歌内部还没有一个成熟的处理框架来处理大规模数据。当时,谷歌的搜索业务迫使工程师们面对处理大规模数据的应用场景,比如计算网站url访问量和计算网页倒排索引等等。

那该怎么办呢?这个答案既简单又复杂:自己写一个。

没错,当时的工程师需要编写一个定制的逻辑处理架构来处理数据。由于需要处理的数据量非常大,业务逻辑不太可能只在一台机器上运行。在许多情况下,我们必须在分布式环境中部署业务逻辑。因此,这种定制的逻辑处理架构还必须包括容错系统的设计。随着时间的推移,一组逻辑处理架构将在谷歌内部的不同组之间开发。由于工程师遇到的许多问题是相似的,因此开发的逻辑处理体系结构往往是相似的,但在数据处理方面存在一些逻辑上的差异。毫无疑问,这已经成为一种大家一起重新创造轮子的局面。

这时候,就有工程师想到,能不能改善这一种状况。MapReduce的架构思想也就由此应运而生。其实MapReduce的架构思想可以从两个方面来看。一方面,它希望能提供一套简洁的API来表达工程师数据处理的逻辑。另一方面,要在这一套API底层嵌套一套扩展性很强的容错系统,使得工程师能够将心思放在逻辑处理上,而不用过于分心去设计分布式的容错系统。这个架构思想的结果你早就已经知道了。MapReduce这一套系统在Google获得了巨大成功。在2004年的时候,Google发布的一篇名为“MapReduce: Simplified Data Processing on Large Clusters”的论文就是这份成果的总结。

1568797169633_ApacheBeam-2.jpg


在MapReduce的计算模型里,它将数据的处理抽象成了以下这样的计算步骤Map:计算模型从输入源(Input Source)中读取数据集合,这些数据在经过了用户所写的逻辑后生成出一个临时的键值对数据集(Key/Value Set)。MapReduce计算模型会将拥有相同键(Key)的数据集集中起来然后发送到下一阶段。这一步也被称为Shuffle阶段。

很多人都说,这篇MapReduce论文是具有划时代意义的。可你知道为什么都这么说吗?这是因为Map和Reduce这两种抽象其实可以适用于非常多的应用场景,而MapReduce论文里面所阐述的容错系统,可以让我们所写出来的数据处理逻辑在分布式环境下有着很好的可扩展性(Scalability)。

MapReduce在内部的成功使得越来越多的工程师希望使用MapReduce来解决自己项目的难题。但是,就如我在模块一中所说的那样,使用MapReduce来解决一个工程难题往往会涉及到非常多的步骤,而每次使用MapReduce的时候我们都需要在分布式环境中启动机器来完成Map和Reduce步骤,以及启动Master机器来协调这两个步骤的中间结果(Intermediate Result),消耗不少硬件上的资源。这样就给工程师们带来了以下一些疑问:问题既然已经提出来了,Google的工程师们便开始考虑是否能够解决上述这些问题。最好能够让工程师(无论是新手工程师亦或是经验老到的工程师)都能专注于数据逻辑上的处理,而不用花更多时间在测试调优上。FlumeJava就是在这样的背景下诞生的。

这里,我先将FlumeJava的成果告诉你。因为FlumeJava的思想又在Google内容获得了巨大成功,Google也希望将这个思想分享给业界。所以在2010年的时候,Google公开了FlumeJava架构思想的论文。FlumeJava的思想是将所有的数据都抽象成名为PCollection的数据结构,无论是从内存中读取的数据,还是Reduce:接收从Shuffle阶段发送过来的数据集,在经过了用户所写的逻辑后生成出零个或多个结果。我们的项目数据规模是否真的需要运用MapReduce来解决呢?是否可以在一台机器上的内存中解决呢?我们所写的MapReduce项目是否已经是最优的呢?因为每一个Map和Reduce步骤这些中间结果都需要写在磁盘上,会十分耗时。是否有些步骤可以省略或者合并呢?我们是否需要让工程师投入时间去手动调试这些MapReduce项目的性能呢?

在分布式环境下所读取的文件。这样的抽象对于测试代码中的逻辑是十分有好处的。要知道,想测试MapReduce的话,你可能需要读取测试数据集,然后在分布式环境下运行,来测试代码逻辑。但如果你有了PCollection这一层抽象的话,你的测试代码可以在内存中读取数据然后跑测试文件,也就是同样的逻辑既可以在分布式环境下运行也可以在单机内存中运行。

而FlumeJava在MapReduce框架中Map和Reduce思想上,抽象出4个了原始操作(Primitive Operation),分别是parallelDo、groupByKey、 combineValues和flatten,让工程师可以利用这4种原始操作来表达任意Map或者Reduce的逻辑。同时,FlumeJava的架构运用了一种Deferred Evaluation的技术,来优化我们所写的代码。对于Deferred Evaluation,你可以理解为FlumeJava框架会首先会将我们所写的逻辑代码静态遍历一次,然后构造出一个执行计划的有向无环图。这在FlumeJava框架里被称为Execution Plan Dataflow Graph。有了这个图之后,FlumeJava框架就会自动帮我们优化代码。例如,合并一些本来可以通过一个Map和Reduce来表达,却被新手工程师分成多个Map和Reduce的代码。

FlumeJava框架还可以通过我们的输入数据集规模,来预测输出结果的规模,从而自行决定代码是放在内存中跑还是在分布式环境中跑。

总的来说,FlumeJava是非常成功的。但是,FlumeJava也有一个弊端,那就是FlumeJava基本上只支持批处理(Batch Execution)的任务,对于无边界数据(Unbounded Data)是不支持的。所以,Google内部有着另外一个被称为Millwheel的项目来支持处理无边界数据,也就是流处理框架。

在2013年的时候,Google也公开了Millwheel思想的论文。这时Google的工程师们回过头看,感叹了一下成果,并觉得自己可以再优秀一些:既然我们已经创造出好几个优秀的大规模数据处理框架了,那我们能不能集合这几个框架的优点,推出一个统一的框架呢?这也成为了Dataflow Model诞生的契机。

在2015年时候,Google公布了Dataflow Model的论文,同时也推出了基于Dataflow Model思想的平台Cloud Dataflow,让Google以外的工程师们也能够利用这些SDK来编写大规模数据处理的逻辑。讲到这么多,你可能会有个疑问了,怎么Apache Beam还没有出场呢?别着急,Apache Beam的登场契机马上就到了。

前面我说了,Google基于Dataflow Model的思想推出了Cloud Dataflow云平台,但那毕竟也需要工程师在Google的云平台上面运行程序才可以。如果有的工程师希望在别的平台上面跑该如何解决呢?

所以,为了解决这个问题,Google在2016年的时候联合了Talend、Data Artisans、Cloudera这些大数据公司,基于Dataflow Model的思想开发出了一套SDK,并贡献给了Apache Software Foundation。而它Apache Beam的名字是怎么来的呢?Beam的含义就是统一了批处理和流处理的一个框架。

这就是Apache Beam的发展历史,从中你可以看到它拥有很多优点,而这也是我们需要Beam的原因。


1568797224227_ApacheBeam-3.jpg

在现实世界中,很多时候我们不可避免地需要对数据同时进行批处理和流处理。Beam提供了一套统一的API来处理这两种数据处理模式,让我们只需要将注意力专注于在数据处理的算法上,而不用再花时间去对两种数据处理模式上的差异进行维护。它能够将工程师写好的算法逻辑很好地与底层的运行环境分隔开。也就是说,当我们通过Beam提供的API写好数据处理逻辑后,这个逻辑可以不作任何修改,直接放到任何支持Beam API的底层系统上运行。关于怎么理解这个优点,其实我们可以借鉴一下SQL(Structure Query Language)的运行模式。

我们在学习SQL语言的时候,基本上都是独立于底层数据库系统来学习的。而在我们写完一个分析数据的Query之后,只要底层数据库的Schema不变,这个Query是可以放在任何数据库系统上运行的,例如放在MySql上或者Oracle DB上。

同样的,我们用Beam API写好的数据处理逻辑无需改变,可以根据自身的需求,将逻辑放在Google CloudDataflow上跑,也可以放在Apache Flink上跑。在Beam上,这些底层运行的系统被称为Runner。现阶段Apache Beam支持的Runner有近十种,包括了我们很熟悉的Apache Spark和Apache Flink。

1568797247294_ApacheBeam-4.jpg

当然,最后Apache Beam也希望自己编写的sdk能够支持任意数量的语言。在这个阶段,Beam持Java、Python和Golang。换句话说,通过apache beam,我们最终可以使用我们自己的编程语言,通过一组beam模型统一的数据处理api,编写适合您的应用程序场景的数据处理逻辑,并在您喜欢的运行程序上运行它。

推荐了解:
大数据培训课程

分享到:
在线咨询 我要报名
和我们在线交谈!