ODPSReader 实现了从 ODPS读取数据的功能,有关ODPS请参看(https://help.aliyun.com/document_detail/27800.html?spm=5176.doc27803.6.101.NxCIgY)。 在底层实现上,ODPSReader 根据你配置的 源头项目 / 表 / 分区 / 表字段 等信息,通过 Tunnel
从 ODPS 系统中读取数据。
注意 1、如果你需要使用ODPSReader/Writer插件,由于 AccessId/AccessKey 解密的需要,请务必使用 JDK 1.6.32 及以上版本。JDK 安装事项,请联系 PE 处理
2、ODPSReader 不是通过 ODPS SQL (select ... from ... where ... )来抽取数据的
3、注意区分你要读取的表是线上环境还是线下环境
4、目前 DataX3 依赖的 SDK 版本是:
<dependency>
<groupId>com.aliyun.odps</groupId>
<artifactId>odps-sdk-core-internal</artifactId>
<version>0.13.2</version>
</dependency>
ODPSReader 支持读取分区表、非分区表,不支持读取虚拟视图。当要读取分区表时,需要指定出具体的分区配置,比如读取 t0 表,其分区为 pt=1,ds=hangzhou 那么你需要在配置中配置该值。当要读取非分区表时,你不能提供分区配置。表字段可以依序指定全部列,也可以指定部分列,或者调整列顺序,或者指定常量字段,但是表字段中不能指定分区列(分区列不是表字段)。
注意:要特别注意 odpsServer、project、table、accessId、accessKey 的配置,因为直接影响到是否能够加载到你需要读取数据的表。很多权限问题都出现在这里。
- 这里使用一份读出 ODPS 数据然后打印到屏幕的配置样板。
{
"job": {
"setting": {
"speed": {
"channel": 1
}
},
"content": [
{
"reader": {
"name": "odpsreader",
"parameter": {
"accessId": "accessId",
"accessKey": "accessKey",
"project": "targetProjectName",
"table": "tableName",
"partition": [
"pt=1,ds=hangzhou"
],
"column": [
"customer_id",
"nickname"
],
"packageAuthorizedProject": "yourCurrentProjectName",
"splitMode": "record",
"odpsServer": "http://xxx/api",
"tunnelServer": "http://dt.odps.aliyun.com"
}
},
"writer": {
"name": "streamwriter",
"parameter": {
"fieldDelimiter": "\t",
"print": "true"
}
}
}
]
}
}
-
accessId
-
描述:ODPS系统登录ID
-
必选:是
-
默认值:无
-
-
accessKey
-
描述:ODPS系统登录Key
-
必选:是
-
默认值:无
-
-
project
-
描述:读取数据表所在的 ODPS 项目名称(大小写不敏感)
-
必选:是
-
默认值:无
-
-
table
-
描述:读取数据表的表名称(大小写不敏感)
-
必选:是
-
默认值:无
-
-
partition
-
描述:读取数据所在的分区信息,支持linux shell通配符,包括 * 表示0个或多个字符,?代表任意一个字符。例如现在有分区表 test,其存在 pt=1,ds=hangzhou pt=1,ds=shanghai pt=2,ds=hangzhou pt=2,ds=beijing 四个分区,如果你想读取 pt=1,ds=shanghai 这个分区的数据,那么你应该配置为:
"partition":["pt=1,ds=shanghai"]
; 如果你想读取 pt=1下的所有分区,那么你应该配置为:"partition":["pt=1,ds=* "]
;如果你想读取整个 test 表的所有分区的数据,那么你应该配置为:"partition":["pt=*,ds=*"]
-
必选:如果表为分区表,则必填。如果表为非分区表,则不能填写
-
默认值:无
-
-
column
-
描述:读取 odps 源头表的列信息。例如现在有表 test,其字段为:id,name,age 如果你想依次读取 id,name,age 那么你应该配置为:
"column":["id","name","age"]
或者配置为:"column"=["*"]
这里 * 表示依次读取表的每个字段,但是我们不推荐你配置抽取字段为 * ,因为当你的表字段顺序调整、类型变更或者个数增减,你的任务就会存在源头表列和目的表列不能对齐的风险,会直接导致你的任务运行结果不正确甚至运行失败。如果你想依次读取 name,id 那么你应该配置为:"coulumn":["name","id"]
如果你想在源头抽取的字段中添加常量字段(以适配目标表的字段顺序),比如你想抽取的每一行数据值为 age 列对应的值,name列对应的值,常量日期值1988-08-08 08:08:08,id 列对应的值 那么你应该配置为:"column":["age","name","'1988-08-08 08:08:08'","id"]
即常量列首尾用符号'
包住即可,我们内部实现上识别常量是通过检查你配置的每一个字段,如果发现有字段首尾都有'
,则认为其是常量字段,其实际值为去除'
之后的值。注意:ODPSReader 抽取数据表不是通过 ODPS 的 Select SQL 语句,所以不能在字段上指定函数,也不能指定分区字段名称(分区字段不属于表字段)
-
必选:是
-
默认值:无
-
-
odpsServer
-
描述:源头表 所在 ODPS 系统的server 地址
-
必选:是
-
默认值:无
-
-
tunnelServer
-
描述:源头表 所在 ODPS 系统的tunnel 地址
-
必选:是
-
默认值:无
-
-
splitMode
-
描述:读取源头表时切分所需要的模式。默认值为 record,可不填,表示根据切分份数,按照记录数进行切分。如果你的任务目的端为 Mysql,并且是 Mysql 的多个表,那么根据现在 DataX 结构,你的源头表必须是分区表,并且每个分区依次对应目的端 Mysql 的多个分表,则此时应该配置为
"splitMode":"partition"
-
必选:否
-
默认值:record
-
-
accountProvider [待定]
-
描述:读取时使用的 ODPS 账号类型。目前支持 aliyun/taobao 两种类型。默认为 aliyun,可不填
-
必选:否
-
默认值:aliyun
-
-
packageAuthorizedProject
* 描述:被package授权的project,即用户当前所在project <br />
-
必选:否
-
默认值:无
-
-
isCompress
* 描述:是否压缩读取,bool类型: "true"表示压缩, "false"标示不压缩 <br />
-
必选:否
-
默认值:"false" : 不压缩
-
下面列出 ODPSReader 读出类型与 DataX 内部类型的转换关系:
ODPS 数据类型 | DataX 内部类型 |
---|---|
BIGINT | Long |
DOUBLE | Double |
STRING | String |
DATETIME | Date |
Boolean | Bool |
建表语句:
use cdo_datasync;
create table datax3_odpswriter_perf_10column_1kb_00(
s_0 string,
bool_1 boolean,
bi_2 bigint,
dt_3 datetime,
db_4 double,
s_5 string,
s_6 string,
s_7 string,
s_8 string,
s_9 string
)PARTITIONED by (pt string,year string);
单行记录类似于:
s_0 : 485924f6ab7f272af361cd3f7f2d23e0d764942351#$%^&fdafdasfdas%%^(*&^^&*
bool_1 : true
bi_2 : 1696248667889
dt_3 : 2013-07-0600: 00: 00
db_4 : 3.141592653578
s_5 : 100dafdsafdsahofjdpsawifdishaf;dsadsafdsahfdsajf;dsfdsa;fjdsal;11209
s_6 : 100dafdsafdsahofjdpsawifdishaf;dsadsafdsahfdsajf;dsfdsa;fjdsal;11fdsafdsfdsa209
s_7 : 100DAFDSAFDSAHOFJDPSAWIFDISHAF;dsadsafdsahfdsajf;dsfdsa;FJDSAL;11209
s_8 : 100dafdsafdsahofjdpsawifdishaf;DSADSAFDSAHFDSAJF;dsfdsa;fjdsal;11209
s_9 : 12~!2345100dafdsafdsahofjdpsawifdishaf;dsadsafdsahfdsajf;dsfdsa;fjdsal;11209
-
执行DataX的机器参数为:
- cpu : 24 Core Intel(R) Xeon(R) CPU E5-2630 0 @ 2.30GHz cache 15.36MB
- mem : 50GB
- net : 千兆双网卡
- jvm : -Xms1024m -Xmx1024m -XX:+HeapDumpOnOutOfMemoryError
- disc: DataX 数据不落磁盘,不统计此项
-
任务配置为:
{
"job": {
"setting": {
"speed": {
"channel": 1
}
},
"content": [
{
"reader": {
"name": "odpsreader",
"parameter": {
"accessId": "******************************",
"accessKey": "*****************************",
"column": [
"*"
],
"partition": [
"pt=20141010000000,year=2014"
],
"odpsServer": "http://xxx/api",
"project": "cdo_datasync",
"table": "datax3_odpswriter_perf_10column_1kb_00",
"tunnelServer": "http://xxx"
}
},
"writer": {
"name": "streamwriter",
"parameter": {
"print": false,
"column": [
{
"value": "485924f6ab7f272af361cd3f7f2d23e0d764942351#$%^&fdafdasfdas%%^(*&^^&*"
},
{
"value": "true",
"type": "bool"
},
{
"value": "1696248667889",
"type": "long"
},
{
"type": "date",
"value": "2013-07-06 00:00:00",
"dateFormat": "yyyy-mm-dd hh:mm:ss"
},
{
"value": "3.141592653578",
"type": "double"
},
{
"value": "100dafdsafdsahofjdpsawifdishaf;dsadsafdsahfdsajf;dsfdsa;fjdsal;11209"
},
{
"value": "100dafdsafdsahofjdpsawifdishaf;dsadsafdsahfdsajf;dsfdsa;fjdsal;11fdsafdsfdsa209"
},
{
"value": "100DAFDSAFDSAHOFJDPSAWIFDISHAF;dsadsafdsahfdsajf;dsfdsa;FJDSAL;11209"
},
{
"value": "100dafdsafdsahofjdpsawifdishaf;DSADSAFDSAHFDSAJF;dsfdsa;fjdsal;11209"
},
{
"value": "12~!2345100dafdsafdsahofjdpsawifdishaf;dsadsafdsahfdsajf;dsfdsa;fjdsal;11209"
}
]
}
}
}
]
}
}
并发任务数 | DataX速度(Rec/s) | DataX流量(MB/S) | 网卡流量(MB/S) | DataX运行负载 |
---|---|---|---|---|
1 | 117507 | 50.20 | 53.7 | 0.62 |
2 | 232976 | 99.54 | 108.1 | 0.99 |
4 | 387382 | 165.51 | 181.3 | 1.98 |
5 | 426054 | 182.03 | 202.2 | 2.35 |
6 | 434793 | 185.76 | 204.7 | 2.77 |
8 | 495904 | 211.87 | 230.2 | 2.86 |
16 | 501596 | 214.31 | 234.7 | 2.84 |
32 | 501577 | 214.30 | 234.7 | 2.99 |
64 | 501625 | 214.32 | 234.7 | 3.22 |
说明:
- OdpsReader 影响速度最主要的是channel数目,这里到达8时已经打满网卡,过多调大反而会影响系统性能。
- channel数目的选择,可以考虑odps表文件组织,可尝试合并小文件再进行同步调优。
Q: 你来问
A: 我来答。