首页 新闻 搜索 专区 学院

hfile导入hbase失败

0
[待解决问题]

本人正在自学大数据用,问题如下:
直接将hadoop上文件导入hbase没问题。
生成hfile,导入hbase语句分别为
yarn jar /usr/local/hbase/lib/hbase-server-1.2.0-cdh5.15.2.jar importtsv
-Dimporttsv.separator=, -Dimporttsv.columns=HBASE_ROW_KEY,info:name,info:age,info:gender,info:address,info:phone -Dimporttsv.bulk.output=/test/hfile hadoop:student /test/student.csv

yarn jar /usr/local/hbase/lib/hbase-server-1.2.0-cdh5.15.2.jar completebulkload /test/hfile hadoop:student
将文件先转为hfile再导入hbase时一直出现如下信息:
INFO client.RpcRetryingCaller: Call exception, tries=21, retries=35, started=269867 ms ago, cancelled=false, msg=row '' on table 'hadoop:student' at region=hadoop:student,,1551577472762.0cc0c45140eff37b8b6601ae2e60ef22., hostname=spark1,60020,1551576523956, seqNum=2
最后报错
RpcRetryingCaller{globalStartTime=1551581157736, pause=100, retries=35}, java.io.IOException: java.io.IOException: Wrong FS: hdfs://ns1/test/hfile/info/34b04cd8a20345bf928f8fb44af5e341, expected: hdfs://ns1:8020
然后我将导入的文件地址路径hdfs://ns1:8020/test/hfile即可

想问问为什么直接将hdfs文件导入hbase没问他,但是先生成hfile再导入却会要写入带端口的完整路进才行??本人检查了hbase的配置文件并没有值是hdfs://ns1的配置

SaltFishYe的主页 SaltFishYe | 菜鸟二级 | 园豆:202
提问于:2019-03-03 11:49
< >
分享
清除回答草稿
   您需要登录以后才能回答,未注册用户请先注册