DATAX hdfsreader orc格式读取丢数问题修复及验证

生产上出现了问题:

datax 从hdfs 读 orc 数据导入 mongodb,
有时会产生数据的丢失

针对这个问题在 github上提了个问题。
然后两个月后,大神们修复了这个问题。
问题见

https://github.com/alibaba/DataX/issues/239

下面的是问题代码部分

 InputSplit[] splits = in.getSplits(conf, 1);

                RecordReader reader = in.getRecordReader(splits[0], conf, Reporter.NULL);
                Object key = reader.createKey();
                Object value = reader.createValue();
                // 获取列信息
                List<? extends StructField> fields = inspector.getAllStructFieldRefs();

                List<Object> recordFields;
                while (reader.next(key, value)) {
                    recordFields = new ArrayList<Object>();

                    for (int i = 0; i <= columnIndexMax; i++) {
                        Object field = inspector.getStructFieldData(value, fields.get(i));
                        recordFields.add(field);
 // OrcInputFormat getSplits params numSplits not used, splits size = block numbers
                InputSplit[] splits = in.getSplits(conf, -1);
                for (InputSplit split : splits) {
                    {
                        RecordReader reader = in.getRecordReader(split, conf, Reporter.NULL);
                        Object key = reader.createKey();
                        Object value = reader.createValue();
                        // 获取列信息
                        List<? extends StructField> fields = inspector.getAllStructFieldRefs();

                        List<Object> recordFields;
                        while (reader.next(key, value)) {
                            recordFields = new ArrayList<Object>();

                            for (int i = 0; i <= columnIndexMax; i++) {
                                Object field = inspector.getStructFieldData(value, fields.get(i));
                                recordFields.add(field);
                            }
                            transportOneRecord(column, recordFields, recordSender,
                                    taskPluginCollector, isReadAllColumns, nullFormat);
                        }
                        reader.close();

https://github.com/alibaba/DataX/pull/262/commits/e2dcbcd532bebdb46992ab58b53ae37f1477cec0

贴下有问题的部分

大致看了下应该是 读文件时 由于hdfs文件存储 是block 形式的。
当单个文件 大于 单个block 的size时,出现一个文件 多个block 存储。
之前bug 部分时 仅读取了第一个block
造成了数据的部分丢失

验证下是否是对应的问题

生成对应的倾斜数据

 set mapred.reduce.tasks =1 ;
 insert into table inner_ods_ctis_txn_tif_bas partition (day=19880105 ) 
 select `(day)?+.+` from  inner_ods_ctis_txn_tif_bas
 distribute by rand() ; 

上面的语句是一个用 正则完成分区表数据插入的好的方式,可以参考。
利用distribute by rand() 重分配会产生reduce作业,并设置reduce个数为1 多次循环后,就可讲一个数据变成一个倾斜的大文件。

该过程因为倾斜。。。造一个 300M 不到的文件 ,开发环境跑了 40分钟。。。
操作时需要有一定时间的预估。

数据情况

hive>  select count(1) from inner_ods_ctis_txn_tif_bas where day=19880105 limit 10 ;

10956384
hive>  select count(1) from inner_ods_ctis_txn_tif_bas where day=19880103 limit 10 ;

913032

=============================================

hive> dfs -du -h   /project/BDP/data/inner/ODS/78/TXN_TIF_BAS/day=19880105 ;
16.8 M   /project/BDP/data/inner/ODS/78/TXN_TIF_BAS/day=19880105/000000_0
275.4 M  /project/BDP/data/inner/ODS/78/TXN_TIF_BAS/day=19880105/000000_0_copy_1
12.4 M   /project/BDP/data/inner/ODS/78/TXN_TIF_BAS/day=19880105/000001_0
16.8 M   /project/BDP/data/inner/ODS/78/TXN_TIF_BAS/day=19880105/000002_0
8.5 M    /project/BDP/data/inner/ODS/78/TXN_TIF_BAS/day=19880105/000003_0
16.8 M   /project/BDP/data/inner/ODS/78/TXN_TIF_BAS/day=19880105/000004_0
16.8 M   /project/BDP/data/inner/ODS/78/TXN_TIF_BAS/day=19880105/000005_0
8.4 M    /project/BDP/data/inner/ODS/78/TXN_TIF_BAS/day=19880105/000006_0
8.4 M    /project/BDP/data/inner/ODS/78/TXN_TIF_BAS/day=19880105/000007_0
8.5 M    /project/BDP/data/inner/ODS/78/TXN_TIF_BAS/day=19880105/000008_0
8.3 M    /project/BDP/data/inner/ODS/78/TXN_TIF_BAS/day=19880105/000009_0
8.2 M    /project/BDP/data/inner/ODS/78/TXN_TIF_BAS/day=19880105/000010_0
3.9 M    /project/BDP/data/inner/ODS/78/TXN_TIF_BAS/day=19880105/000011_0
hive> dfs -du -h   /project/BDP/data/inner/ODS/78/TXN_TIF_BAS/day=19880103 ;
8.5 M   /project/BDP/data/inner/ODS/78/TXN_TIF_BAS/day=19880103/000000_0
16.8 M  /project/BDP/data/inner/ODS/78/TXN_TIF_BAS/day=19880103/000001_0
8.2 M   /project/BDP/data/inner/ODS/78/TXN_TIF_BAS/day=19880103/000002_0

===========================================

{
    "job": {
        "content": [
            {
                "reader": {
                    "name": "hdfsreader", 
                    "parameter": {
                        "column": [
                                    {
                                      "index":0,
                                      "type":"string"
                                    },       
                                    {
                                      "index":41,
                                      "type":"string"
                                    },                                   
                                    {
                                      "index":46,
                                      "type":"string"
                                    }                                    
                                  ], 
                        "defaultFS": "hdfs://hdfsCluster", 
                        "encoding": "UTF-8", 
                        "fileType": "orc",
                        "haveTbds": "true", 
                        "path": "/project/BDP/data/inner/ODS/78/TXN_TIF_BAS/day=19880105/*",
                        "hadoopConfig": {
                                           "dfs.nameservices":"hdfsCluster",
                                           "dfs.ha.namenodes.hdfsCluster":"nn1,nn2",
                                           "dfs.namenode.rpc-address.hdfsCluster.nn1":"22.188.9.108:8020",
                                           "dfs.namenode.rpc-address.hdfsCluster.nn2":"22.188.9.100:8020",
                                           "dfs.client.failover.proxy.provider.hdfsCluster":"org.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvider"
                                        }                   
            }
                }, 
                "writer": {
                    "name": "mongodbwriter", 
                    "parameter": {
                      "address": ["22.188.9.104:6000","22.188.9.105:6000","22.188.9.106:6000"], 
                        "collectionName": "TEST", 
                        "column": [
                                    {
                                      "name":"md5",
                                      "type":"string"
                                    },
                                                                    
                                    {
                                      "name":"status",
                                      "type":"string"
                                    },

                                    {
                                      "name":"batTime",
                                      "type":"string"
                                    }                                   
                                  ], 
                        "dbName": "HDSS",
                        "writeMode": {
                            "isReplace":"false", 
                            "replaceKey":"tranKey"
                        },                      
                        "userName": "hdss", 
                        "userPassword": "hdss123"
                    }
                }
            }
        ], 
        "setting": {
            "speed": {
                "channel": "5"
            }
        }
    }
}

================================
日志明细

2019-02-12 14:44:58.348 [job-0] INFO  StandAloneJobContainerCommunicator - Total 10447128 records, 74481116 bytes | Speed 123.28KB/s, 17706 records/s | Error 0 records, 0 bytes |  All Task WaitWriterTime 90.651s |  All Task WaitReaderTime 507.924s | Percentage 100.00%
2019-02-12 14:44:58.350 [job-0] INFO  JobContainer - 
任务启动时刻                    : 2019-02-12 14:34:59
任务结束时刻                    : 2019-02-12 14:44:58
任务总计耗时                    :                598s
任务平均流量                    :          123.28KB/s
记录写入速度                    :          17706rec/s
读出记录总数                    :            10447128
读写失败总数                    :                   0

这里看到数据发生了丢失

对比验证

2019-02-12 14:50:06.698 [job-0] INFO  StandAloneJobContainerCommunicator - Total 913032 records, 6507408 bytes | Speed 105.91KB/s, 15217 records/s | Error 0 records, 0 bytes |  All Task WaitWriterTime 7.747s |  All Task WaitReaderTime 56.215s | Percentage 100.00%
2019-02-12 14:50:06.706 [job-0] INFO  JobContainer - 
任务启动时刻                    : 2019-02-12 14:48:57
任务结束时刻                    : 2019-02-12 14:50:06
任务总计耗时                    :                 69s
任务平均流量                    :          105.91KB/s
记录写入速度                    :          15217rec/s
读出记录总数                    :              913032
读写失败总数                    :                   0

单个文件数据量不大时无数据丢失

============================

因为 娟娟 同学加了对应 权限认证的部分。
所以这次把娟娟的代码都提了出来,
重新编译了下,直接将修改的bug部分覆盖掉,再编译下,拿到对应的class文件完成对应的替换。

开发环境上 将原有 maven 编出的 snapshot.jar 重命名了下
新建了 snapshot.jar 的目录
将编译好的 class文件放了进去。

替换后

对应 19880105 日的 datax 导数日志

2019-02-12 15:19:38.747 [job-0] INFO  StandAloneJobContainerCommunicator - Total 10956384 records, 78088896 bytes | Speed 117.32KB/s, 16855 records/s | Error 0 records, 0 bytes |  All Task WaitWriterTime 86.431s |  All Task WaitReaderTime 568.876s | Percentage 100.00%
2019-02-12 15:19:38.750 [job-0] INFO  JobContainer - 
任务启动时刻                    : 2019-02-12 15:08:38
任务结束时刻                    : 2019-02-12 15:19:38
任务总计耗时                    :                660s
任务平均流量                    :          117.32KB/s
记录写入速度                    :          16855rec/s
读出记录总数                    :            10956384
读写失败总数                    :                   0

问题得到了解决

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 212,185评论 6 493
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 90,445评论 3 385
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 157,684评论 0 348
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 56,564评论 1 284
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 65,681评论 6 386
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 49,874评论 1 290
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 39,025评论 3 408
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 37,761评论 0 268
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 44,217评论 1 303
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 36,545评论 2 327
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 38,694评论 1 341
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 34,351评论 4 332
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 39,988评论 3 315
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 30,778评论 0 21
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,007评论 1 266
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 46,427评论 2 360
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 43,580评论 2 349