187人参与 • 2024-08-02 • IDE
flink流应用程序处理的是以数据对象表示的事件流。所以在flink内部,我么需要能够处理这些对象。它们需要被序列化和反序列化,以便通过网络传送它们;或者从状态后端、检查点和保存点读取它们。为了有效地做到这一点,flink需要明确知道应用程序所处理的数据类型。并为每个数据类型生成特定的序列化器、反序列化器和比较器。flink支持非常完善的数据类型,数据类型描述信息都是由typeinformation定义,比较常用的typeinformation有basictypeinfo、tupletypeinfo、caseclasstypeinfo、pojotypeinfo类等。typeinformation主要作用是为了在 flink系统内有效地对数据结构类型进行管理,能够在分布式计算过程中对数据的类型进行管理和推断。同时基于对数据的类型信息管理,flink内部对数据存储也进行了相应的性能优化。flink能够支持任意的java或scala的数据类型,不用像hadoop中的org.apache.hadoop.io.writable而实现特定的序列化和反序列化接口,从而让用户能够更加容易使用已有的数据结构类型。另外使用typeinformation管理数据类型信息,能够在数据处理之前将数据类型推断出来,而不是真正在触发计算后才识别出,这样能够及时有效地避免用户在使用flink编写应用的过程中的数据类型问题。
flink通过实现basictypeinfo数据类型,能够支持任意java 原生基本类型(装箱)或string类型,例如integer、string、double等,如以下代码所示,通过从给定的元素集中创建datastream数据集。
//创建 int 类型的数据集
datastreamsource<integer> integerdatastreamsource = env.fromelements(1, 2, 3, 4, 5);
//创建 string 的类型的数据集
datastreamsource<string> stringdatastreamsource = env.fromelements("java", "scala");
flink实现另外一种typeinfomation是basicarraytypeinfo,对应的是java基本类型数组(装箱)或string对象的数组,如下代码通过使用 array数组和list集合创建datastream数据集。
list<integer> integers = arrays.aslist(1, 2, 3, 4, 5);
//通过 list 集合创建数据集
datastreamsource<integer> integerdatastreamsource1 = env.fromcollection(integers);
通过定义tupletypeinfo来描述tuple类型数据,flink在java接口中定义了元祖类tuple供用户使用。flink tuples是固定长度固定类型的java tuple实现,不支持空值存储。目前支持任意的flink java tuple类型字段数量上限为25,如果字段数量超过上限,可以通过继承tuple类的方式进行拓展。如下代码所示,创建tuple数据类型数据集。
//通过实例化 tuple2 创建具有两个元素的数据集
datastreamsource<tuple2<string, integer>> tuple2datastreamsource = env.fromelements(new tuple2<>("a", 1), new tuple2<>("b", 2));
//通过实例化 tuple3 创建具有三个元素的数据集
datastreamsource<tuple3<string, integer, long>> tuple3datastreamsource = env.fromelements(new tuple3<>("a", 1, 3l), new tuple3<>("b", 2, 3l));
flink通过实现caseclasstypeinfo支持任意的scala case class,包括scala tuples类型,支持的字段数量上限为22,支持通过字段名称和位置索引获取指标,不支持存储空值。如下代码实例所示,定义wordcount case class数据类型,然后通过fromelements方法创建input数据集,调用keyby()方法对数据集根据 word字段重新分区。
//定义 wordcount case class 数据结构
case class wordcount(word: sring, count: int)
//通过 fromelements 方法创建数据集
val input = env.fromelements(wordcount("hello", 1),wordcount("word",2))
val keystream1 = input.keyby("word")//根据word字段为分区字段,
val keystream2 = input.keyby(0)//也可以通过制定position分区
通过使用scala tuple创建datastream数据集,其他的使用方式和case class相似。需要注意的是,如果根据名称获取字段,可以使用 tuple中的默认字段名称。
//通过实例化scala tuple2 创建具有两个元素的数据集
val tuplestream: datastream[tuple2[string,int]] = env.fromelements(("a",1),("b",2));
//使用默认名字段获取字段,表示第一个 tuple字段,相当于下标0
tuple2datastreamsource.keyby("_1");
pojos类可以完成复杂数据结构的定义,flink通过实现pojotypeinfo来描述任意的pojos,包括java和scala类。在flink中使用pojos类可以通过字段名称获取字段,例如datastream.join(otherstream).where("name").equalto("personname"),对于用户做数据处理则非常透明和简单,如代码所示。如果在flink中使用pojos数据类型,需要遵循以下要求:
【1】pojos类必须是public修饰且必须独立定义,不能是内部类;
【2】pojos类中必须含有默认空构造器;
【3】pojos类中所有的 fields必须是public或者具有public修饰的getter和setter方法;
【4】pojos类中的字段类型必须是flink支持的。
//类和属性具有 public 修饰
public class persion{
public string name;
public integer age;
//具有默认的空构造器
public persion(){}
public persion(string name,integer age){
this.name = name;
this.age = age;
};
}
定义好pojos class后,就可以在 flink环境中使用了,如下代码所示,使用fromelements接口构建person类的数据集。pojos类仅支持字段名称指定字段,如代码中通过person name来指定keyby字段。
datastreamsource<persion> persiondatastreamsource = env.fromelements(new persion("zzx", 18), new persion("fj", 16));
persiondata.keyby("name").sum("age");
value数据类型实现了org.apache.flink.types.value,其中包括read()和write()两个方法完成序列化和反序列化操作,相对于通用的序列化工具会有着比较高效的性能。目前flink提供了內建的value类型有intvalue、doublevalue以及stringvalue等,用户可以结合原生数据类型和value类型使用。
在flink中也支持一些比较特殊的数据数据类型,例如scala中的list、map、either、option、try数据类型,以及java中either数据类型,还有hadoop的writable数据类型。如下代码所示,创建map和list类型数据集。这种数据类型使用场景不是特别广泛,主要原因是数据中的操作相对不像pojos类那样方便和透明,用户无法根据字段位置或者名称获取字段信息,同时要借助types hint帮助flink推断数据类型信息,关于tyeps hmt介绍可以参考下一小节。
//创建 map 类型数据集
map map = new hashmap<>();
map.put("name","zzx");
map.put("age",12);
env.fromelements(map);
//创建 list 类型数据集
env.fromelements(arrays.aslist(1,2,3,4,5),arrays.aslist(3,4,5));
typeinformation信息获取: 通常情况下flink都能正常进行数据类型推断,并选择合适的serializers以及comparators。但在某些情况下却无法直接做到,例如定义函数时如果使用到了泛型,jvm就会出现类型擦除的问题,使得flink并不能很容易地获取到数据集中的数据类型信息。同时在scala api和java api中,flink分别使用了不同的方式重构了数据类型信息。
scala api通过使用manifest和类标签,在编译器运行时获取类型信息,即使是在函数定义中使用了泛型,也不会像java api出现类型擦除的问题,这使得scala api具有非常精密的类型管理机制。同时在flink中使用到scala macros框架,在编译代码的过程中推断函数输入参数和返回值的类型信息,同时在flink中注册成typeinformation以支持上层计算算子使用。
当使用scala api开发 flink应用,如果使用到flink已经通过typeinformation定义的数据类型,typeinformation类不会自动创建,而是使用隐式参数的方式引入,代码不会直接抛出编码异常,但是当启动flink应用程序时就会报could not find implicit value for evidence parameter of type typeinformation的错误。这时需要将typeinformation类隐式参数引入到当前程序环境中,代码实例如下:
import org.apache.flink.api.scala._
由于java的泛型会出现类型擦除问题,flink通过java反射机制尽可能重构类型信息,例如使用函数签名以及子类的信息等。同时类型推断在当输出类型依赖于输入参数类型时相对比较容易做到,但是如果函数的输出类型不依赖于输入参数的类型信息,这个时候就需要借助于类型提示ctype himts来告诉系统函数中传入的参数类型信息和输出参数信息。如代码清单通过在returns方法中传入typehint实例指定输出参数类型,帮助flink系统对输出类型进行数据类型参数的推断和收集。
//定义泛型函数,输入参数 t,o 输出参数为 o
class mymapfucntion<t,o> implements mapfunction<t,o>{
@override
public o map(t t) throws exception {
//定义计算逻辑
return null;
}
}
//通过 list 集合创建数据集
datastreamsource<integer> input = env.fromcollection(integers);
input.flatmap(new mymapfucntion<string,integer>()).returns(new typehint<integer>() {//通过returns方法指定返回参数类型
})
在使用java api定义pojos类型数据时,pojotypeinformation为pojos类中的所有字段创建序列化器,对于标准的类型,例如integer、string、long等类型是通过flink自带的序列化器进行数据序列化,对于其他类型数据都是直接调用kryo序列化工具来进行序列化。通常情况下,如果kryo序列化工具无法对pojos类序列化时,可以使用avro对pojos类进行序列化,如下代码通过在executionconfig中调用 enableforceavro()来开启avro序列化。
//获取运行环境
final streamexecutionenvironment env = streamexecutionenvironment.getexecutionenvironment();
//开启 avro 序列化
env.getconfig().enableforceavro();
如果用户想使用kryo序列化工具来序列化pojos所有字段,则在executionconfig中调用enableforcekryo()来开启kryo序列化。
//获取运行环境
final streamexecutionenvironment env = streamexecutionenvironment.getexecutionenvironment();
//开启 kryo 序列化
env.getconfig().enableforcekryo();
如果默认的kryo序列化类不能序列化pojos对象,通过调用executionconfig的adddefaultkryoserializer()方法向kryo中添加自定义的序列化器。
public void adddefaultkryoserializer(class<?> type, class<? extends serializer<?>> serializerclass)
除了使用已有的typeinformation所定义的数据格式类型之外,用户也可以自定义实现typeinformation,来满足的不同的数据类型定义需求。flink提供了可插拔的 type information factory让用户将自定义的typeinformation注册到flink类型系统中。如下代码所示只需要通过实现org.apache.flink.api.common.typeinfo.typeinfofactory接口,返回相应的类型信息。通过@typeinfo注解创建数据类型,定义customtuple数据类型。
@typeinfo(customtypeinfofactory.class)
public class customtuple<t0,t1>{
public t0 field0;
public t1 field1;
}
然后定义customtypeinfofactory类继承于typeinfofactory,参数类型指定customtuple。最后重写createtypeinfo方法,创建的customtupletypeinfo就是customtuple数据类型typeinformation。
public class customtypeinfofactory extends typeinfofactory<customtuple>{
@override
public typeinfomation<customtuple> createtypeinfo(type t, map<string,typeinfofactory<?>> genericparameters){
return new customtupletypeinfo(genericparameters.get("t0"),genericparameters.get("t1");
}
}
您想发表意见!!点此发布评论
版权声明:本文内容由互联网用户贡献,该文观点仅代表作者本人。本站仅提供信息存储服务,不拥有所有权,不承担相关法律责任。 如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 2386932994@qq.com 举报,一经查实将立刻删除。
发表评论